(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-09
(45)【発行日】2024-12-17
(54)【発明の名称】情報処理装置、情報処理方法及び情報処理プログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20241210BHJP
A61B 5/107 20060101ALI20241210BHJP
A61B 5/11 20060101ALI20241210BHJP
B25J 15/08 20060101ALI20241210BHJP
【FI】
G06F3/01 514
A61B5/107 300
A61B5/11 230
B25J15/08 J
(21)【出願番号】P 2022505987
(86)(22)【出願日】2021-03-03
(86)【国際出願番号】 JP2021008299
(87)【国際公開番号】W WO2021182264
(87)【国際公開日】2021-09-16
【審査請求日】2024-02-13
(31)【優先権主張番号】P 2020041728
(32)【優先日】2020-03-11
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】西岡 勇人
(72)【発明者】
【氏名】奥 貴紀
(72)【発明者】
【氏名】古屋 晋一
【審査官】酒井 優一
(56)【参考文献】
【文献】米国特許出願公開第2015/0130696(US,A1)
【文献】特開2016-083000(JP,A)
【文献】米国特許出願公開第2015/0297934(US,A1)
【文献】特開2001-100906(JP,A)
【文献】特開2000-132305(JP,A)
【文献】米国特許出願公開第2014/0031698(US,A1)
【文献】特表2013-535039(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
A61B 5/107
A61B 5/11
B25J 15/08
(57)【特許請求の範囲】
【請求項1】
非接触センサを含み、手指の少なくとも一部の関節の角度
に応じて変化する前記非接触センサから前記手指までの距離を検出し、検出した前記距離に基づいて前記関節の角度を非接触で検出する検出部と、
前記検出部で検出された前記関節の角度に基づいて、前記手指の姿勢を推定する推定部と、
を備え、
前記非接触センサは、光を照射する発光素子と、前記光の反射光を検出する受光素子とを備え、
前記発光素子は、前記手指の節に対して光を照射し、
前記受光素子は、前記手指の節による前記光の反射光を検出し、
前記検出部は、
前記受光素子によって検出された反射光の強度に基づいて、前記手指までの距離を検出し、
前記非接触センサは、人差し指、中指、薬指及び小指のうちの少なくとも1つの中節に設けられ、
前記発光素子は、前記手指の末節及び基節のうちの少なくとも一方に対して光を照射し、
前記受光素子は、前記手指の末節及び基節のうちの少なくとも一方による前記光の反射光を検出し、
前記検出部は、
前記反射光の強度に基づいて算出された前記手指の末節と前記非接触センサとの距離に基づいて、前記手指の中節に対する前記手指の末節の相対角度を前記手指のDIP関節の角度として算出し、
前記推定部は、
前記手指の中節に対する前記手指の基節の相対角度を前記手指のPIP関節の角度として算出し、前記手指の前記DIP関節の角度と前記PIP関節の角度とに基づいて、前記手指の姿勢を推定する、
情報処理装置。
【請求項2】
前記手指の中節の重力方向に対する傾きを検出するための第1姿勢センサをさらに備え、
前記推定部は、
前記手指のPIP関節の角度と、前記第1姿勢センサによって検出された前記手指の中節の前記重力方向に対する傾きとに基づいて、前記手指のMP関節の角度を算出する、
請求項
1に記載の情報処理装置。
【請求項3】
手背の重力方向に対する傾きを検出するための第2姿勢センサをさらに備え、
前記推定部は、
前記第2姿勢センサによって検出された前記手背の前記重力方向に対する傾きに基づいて、前記手背に対する前記手指の基節の相対角度を前記MP関節の角度として算出する、
請求項
2に記載の情報処理装置。
【請求項4】
前記第2姿勢センサは、手背のうち、人差し指と中指の基骨上であって、MP関節から手首の間の領域に設けられる、
請求項
3に記載の情報処理装置。
【請求項5】
手首の重力方向に対する傾きを検出するための第3姿勢センサをさらに備え、
前記推定部は、
前記第3姿勢センサによって検出された前記手首の重力方向に対する傾きと、前記第2姿勢センサによって検出された前記手背の重力方向に対する傾きとに基づいて、前記手背に対する前記手首の重力方向に対する傾きを前記手首の傾き角度として算出する、
請求項
3に記載の情報処理装置。
【請求項6】
前記第1姿勢センサは、前記手指の内転または外転の前記重力方向に対する傾きを検出し、
前記第2姿勢センサは、掌部の内転または外転の前記重力方向に対する傾きを検出し、
前記推定部は、
前記第1姿勢センサによって検出された前記手指の内転または外転の前記重力方向に対する傾きと、前記第2姿勢センサによって検出された前記掌部の内転または外転の前記重力方向に対する傾きとに基づいて、前記手背に対する前記手指の内転または外転の相対角度に関する情報を算出する、
請求項
3に記載の情報処理装置。
【請求項7】
前記第1姿勢センサは、9軸センサである、
請求項
2に記載の情報処理装置。
【請求項8】
前記第2姿勢センサは、9軸センサである、
請求項
3に記載の情報処理装置。
【請求項9】
前記第3姿勢センサは、9軸センサである、
請求項
5に記載の情報処理装置。
【請求項10】
平行リンクを用いた二重平行四辺形構造のRCM(Remote Center of Motion)機構と、
手指の内転または外転の回転に合わせて前記RCM機構を回転させる回転機構と、
前記RCM機構が備える2つの平行四辺形構造の連結点と対角に位置する第1頂点に対して固定され、手指を保持する保持部材と、
前記連結点と対角に位置する第2頂点に一方の端が固定された第1リンクと、
前記第1リンクの他端に第1球ジョイントにより一方の端が連結された第2リンクと、
前記第2リンクの他端に第2球ジョイントにより一方の端が連結された第3リンクと、
を備え、
前記第1リンクと前記第2リンクと前記第3リンクとは、4節リンク構造を構成する、
外骨格ロボットをさらに備える、
請求項1に記載の情報処理装置。
【請求項11】
前記外骨格ロボットは、モータをさらに備え、
前記第3リンクの他端は、前記モータの回転軸に固定される、
請求項
10に記載の情報処理装置。
【請求項12】
前記回転機構の回転軸と前記RCM機構の回転軸とが、前記外骨格ロボットの装着者の手首に近い方から前記回転機構の回転軸、前記RCM機構の回転軸の順に配置される、
請求項
10に記載の情報処理装置。
【請求項13】
前記回転機構の回転軸は、前記外骨格ロボットの装着者の手指のMP関節に位置し、
前記RCM機構の回転軸は、前記外骨格ロボットの装着者の手指のMP関節からPIP関節を臨む方向に前記手指のMP関節から所定の範囲内に位置する、
請求項
10に記載の情報処理装置。
【請求項14】
前記推定部は、前記外骨格ロボットの状態と、前記検出部で検出された前記関節の角度に基づいて、前記手指の姿勢を推定する
請求項
10に記載の情報処理装置。
【請求項15】
非接触センサを用いて、手指の少なくとも一部の関節の角度
に応じて変化する前記非接触センサから前記手指までの距離を検出し、検出した前記距離に基づいて前記関節の角度を非接触で検出し、
検出した前記関節の角度に基づいて、前記手指の姿勢を推定する
ことを含む情報処理方法
であって、
前記非接触センサは、光を照射する発光素子と、前記光の反射光を検出する受光素子とを備え、
前記発光素子は、前記手指の節に対して光を照射し、
前記受光素子は、前記手指の節による前記光の反射光を検出し、
前記受光素子によって検出された反射光の強度に基づいて、前記手指までの距離を検出し、
前記非接触センサは、人差し指、中指、薬指及び小指のうちの少なくとも1つの中節に設けられ、
前記発光素子は、前記手指の末節及び基節のうちの少なくとも一方に対して光を照射し、
前記受光素子は、前記手指の末節及び基節のうちの少なくとも一方による前記光の反射光を検出し、
前記関節の角度を非接触で検出することでは、前記反射光の強度に基づいて算出された前記手指の末節と前記非接触センサとの距離に基づいて、前記手指の中節に対する前記手指の末節の相対角度を前記手指のDIP関節の角度として算出し、
前記手指の姿勢を推定することでは、前記手指の中節に対する前記手指の基節の相対角度を前記手指のPIP関節の角度として算出し、前記手指の前記DIP関節の角度と前記PIP関節の角度とに基づいて、前記手指の姿勢を推定する、
情報処理方法。
【請求項16】
非接触センサを用いて、手指の少なくとも一部の関節の角度
に応じて変化する前記非接触センサから前記手指までの距離を検出し、検出した前記距離に基づいて前記関節の角度を非接触で検出する検出処理と、
前記検出処理で検出された前記関節の角度に基づいて、前記手指の姿勢を推定する推定処理と、
をコンピュータに実行させる情報処理プログラム
であって、
前記非接触センサは、光を照射する発光素子と、前記光の反射光を検出する受光素子とを備え、
前記発光素子は、前記手指の節に対して光を照射し、
前記受光素子は、前記手指の節による前記光の反射光を検出し、
前記検出処理は、
前記受光素子によって検出された反射光の強度に基づいて、前記手指までの距離を検出し、
前記非接触センサは、人差し指、中指、薬指及び小指のうちの少なくとも1つの中節に設けられ、
前記発光素子は、前記手指の末節及び基節のうちの少なくとも一方に対して光を照射し、
前記受光素子は、前記手指の末節及び基節のうちの少なくとも一方による前記光の反射光を検出し、
前記検出処理は、
前記反射光の強度に基づいて算出された前記手指の末節と前記非接触センサとの距離に基づいて、前記手指の中節に対する前記手指の末節の相対角度を前記手指のDIP関節の角度として算出し、
前記推定処理は、
前記手指の中節に対する前記手指の基節の相対角度を前記手指のPIP関節の角度として算出し、前記手指の前記DIP関節の角度と前記PIP関節の角度とに基づいて、前記手指の姿勢を推定する、
情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
【背景技術】
【0002】
従来、楽器演奏者や伝統工芸職人や料理人、外科医などの卓越した手指の巧緻動作を他者(弟子など)に伝達し、他者の熟達を支援する目的で、手指の動作を記録および再生する技術が知られている。例えば、3軸加速度センサおよび3軸ジャイロセンサを備えた小型のセンサを手指の各関節に取り付けて、手指の動作を計測する技術が知られている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記の従来技術では、手指の動作を適切に計測することができるとは限らない。例えば、楽器演奏や外科手術などの巧緻な手指運動を行う際には、指先の細かな感覚が必要とされる。ところが、例えば、上記の従来技術では、手指の関節の角度を計測するには手指の関節にセンサを取り付ける必要があるため、センサの装着によって手指の巧緻動作が阻害される恐れがある。したがって、上記の従来技術では、手指の動作を適切に計測することができるとは限らない。
【0005】
そこで、本開示では、手指の動作を適切に計測することができる情報処理装置、情報処理方法及び情報処理プログラムを提案する。
【課題を解決するための手段】
【0006】
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、手指の少なくとも一部の関節の角度を非接触で検出する検出部と、前記検出部で検出された前記関節の角度に基づいて、前記手指の姿勢を推定する推定部と、を備える。
【図面の簡単な説明】
【0007】
【
図1】本開示の第1の実施形態に係る情報処理の一例を示す図である。
【
図2】同実施形態に係る情報処理システムの構成例を示す図である。
【
図3】同実施形態に係る情報処理装置の構成例を示す図である。
【
図4】同実施形態に係る手指センサの一例を示す図である。
【
図5】同実施形態に係る手指センサの手指部分のユニットについて説明するための図であり、ユニット全体を横方向から見たときの図である。
【
図6】同実施形態に係る手指センサの手指部分のユニットについて説明するための図であり、ユニットの指先側の部分を拡大して横方向から見たときの図である。
【
図7】同実施形態に係る手指の関節角度の算出方法の一例を示す図である。
【
図8】同実施形態に係る手指の内転・外転角度の算出方法の一例を示す図である。
【
図9】同実施形態に係る外骨格ロボットの斜視図である。
【
図10】同実施形態に係る外骨格ロボットの側面図である。
【
図11】同実施形態に係る外骨格ロボットの1本分の手指に対応する外骨格ユニットについて説明するための図である。
【
図12】同実施形態に係る外骨格ロボットの1本分の手指に対応する外骨格ユニットが備えるRCM機構について説明するための図である。
【
図13】同実施形態に係る外骨格ロボットの上面図である。
【
図14】同実施形態に係る情報処理手順を示すフローチャートである。
【
図15】同実施形態の変形例に係る手指センサの一例を示す図である。
【
図16】同実施形態の変形例に係る手指センサの一例を示す図である。
【
図17】同実施形態の変形例に係る手指センサの一例を示す図である。
【
図18】同実施形態の変形例に係る手指センサの一例を示す図である。
【
図19】同実施形態の変形例に係る手指センサの一例を示す図である。
【
図20】同実施形態の変形例に係る手指センサの一例を示す図である。
【
図21】同実施形態の変形例に係る外骨格ロボットの斜視図である。
【
図22】同実施形態の変形例に係る外骨格ロボットの側面図である。
【
図23】同実施形態の変形例に係る外骨格ロボットの上面図である。
【
図24】同実施形態の変形例に係る外骨格ロボットの底面図である。
【
図25】本開示の第2の実施形態に係る情報処理の一例を示す図である。
【
図26】同実施形態に係る情報処理装置の構成例を示す図である。
【
図27】同実施形態に係る情報処理の流れを概念的に説明するための図である。
【
図28】同実施形態に係る情報処理手順を示すフローチャートである。
【
図29】同実施形態に係る情報処理手順を示すフローチャートである。
【
図30】同実施形態に係る情報処理手順を示すフローチャートである。
【
図31】実施形態に係る処理結果を利用者の端末装置に表示する際の画面の一例を示す図である。
【
図32】実施形態に係る処理結果を利用者の端末装置に表示する際の画面の一例を示す図である。
【
図33】情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0008】
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
【0009】
以下に示す項目順序に従って本開示を説明する。
0.はじめに
1.第1の実施形態
1.1.情報処理システムの概要
1.2.情報処理装置の構成例
1.3.情報処理システムの動作例
1.4.変形例
1.4.1.手指センサ
1.4.2.外骨格ロボット
2.第2の実施形態
2.1.情報処理システムの概要
2.2.情報処理装置の構成例
2.3.情報処理システムの動作例
3.その他
4.効果
5.ハードウェア構成
【0010】
[0.はじめに]
楽器演奏者や伝統工芸職人、料理人などの卓越した手指の巧緻動作の記録および再生は、熟練者の技能を他者(弟子など)に伝達する上で非常に重要である。また、技能の熟達支援においても、高速な手指の運動を記録し、利用者に提示することは,直感的な暗黙知の伝達に非常に有効である。
【0011】
しかしながら、高速で巧緻な手指の運動の記録には、高い空間分解能と高い時間分解能が要求される。一方で、精密な計測のためにデバイスを手指に直接付けると、巧緻動作の阻害をしてしまうという問題があった。
【0012】
そこで、本発明では、手指に直接デバイスを装着する方式でありながら、巧緻動作の阻害の程度が小さい計測デバイスと外骨格ロボットを用いたシステムを提案する。
【0013】
[1.第1の実施形態]
[1.1.情報処理システムの概要]
ここから、
図1を用いて、本開示の第1の実施形態に係る情報処理の概要を説明する。
図1は、本開示の第1の実施形態に係る情報処理の一例を示す図である。第1の実施形態に係る情報処理は、
図1に示す情報処理装置100によって行われる。
【0014】
図1の説明に先立って、
図2を用いて、本開示の第1の実施形態に係る情報処理システムの構成について説明する。
図2は、本開示の第1の実施形態に係る情報処理システムの構成例を示す図である。第1の実施形態に係る情報処理システム1は、
図2に示すように、情報処理装置100と、アプリサーバ10と、端末装置20とを含む。情報処理装置100とアプリサーバ10と端末装置20とは、所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、
図2に示す情報処理システム1には、複数の情報処理装置100と複数のアプリサーバ10と複数の端末装置20とが含まれてもよい。
【0015】
アプリサーバ10は、情報処理装置100によって推定された手指の特徴量に関する情報を情報処理装置100から取得する。アプリサーバ10は、手指の特徴量に関する情報を取得すると、手指の特徴量に関する情報をユーザに対して提示するためのコンテンツを生成する。続いて、アプリサーバ10は、コンテンツを生成すると、生成したコンテンツを端末装置20に配信する。
【0016】
端末装置20は、ユーザによって利用される情報処理装置である。例えば、端末装置20は、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等の装置であってもよい。
図1に示す例においては、端末装置20がスマートフォンである場合を示す。
【0017】
端末装置20は、情報処理装置100によって推定された手指の姿勢や位置に関する情報をユーザに対して提示する。具体的には、端末装置20は、アプリサーバ10に対してコンテンツの配信要求を送信する。また、端末装置20は、アプリサーバ10からコンテンツを受信する。端末装置20は、アプリサーバ10からコンテンツを受信すると、アプリサーバ10から受信したコンテンツを出力する。
【0018】
情報処理装置100は、第1の実施形態に係る情報処理を行うサーバ装置である。情報処理装置100は、手指センサ110が備えるフォトリフレクタから、手指に照射された光が手指によって反射された反射光の強度に関するセンサ情報を取得する。また、情報処理装置100は、手指センサ110が備える中節の9軸姿勢センサから、手指の中節の地表面に対する絶対角度に関するセンサ情報を取得する。また、情報処理装置100は、手指センサ110が備える手背の9軸姿勢センサから、手背の地表面に対する絶対角度に関するセンサ情報を取得する。続いて、情報処理装置100は、取得したセンサ情報に基づいて、手指の特徴量に関する情報として、手指のDIP関節、PIP関節、またはMP関節の角度を推定する。また、情報処理装置100は、推定した手指の特徴量に関する情報をユーザに対して提示する。例えば、情報処理装置100は、推定した手指の特徴量に関する情報をアプリサーバ10に送信して、アプリサーバ10を介してユーザの端末装置20に推定した手指の特徴量に関する情報を提示する。また、情報処理装置100は、外骨格ロボット120を用いて、推定した手指の特徴量に関する情報をユーザに対して提示する。
【0019】
以下、
図1を用いて、第1の実施形態に係る情報処理の概要を説明する。
図1では、情報処理装置100のセンサ情報処理部151は、手指センサ110からセンサ情報を取得する。また、情報処理装置100の推定部152は、センサ情報処理部151が取得したセンサ情報に基づいて、手指の特徴量に関する情報を推定する。例えば、推定部152は、手指の関節の角度、手指の関節の平均角速度、最大角速度、手指の関節の可動域などの手指の特徴量に関する情報を推定する。続いて、推定部152は、手指の特徴量に関する情報を推定すると、推定した手指の特徴量に関する情報を記憶部130に格納する。
【0020】
アプリサーバ10は、記憶部130から手指の特徴量に関する情報を取得する。アプリサーバ10は、手指の特徴量に関する情報を取得すると、取得した情報に基づいて、手指の特徴量に関する情報をユーザに対して提示するためのコンテンツを生成する。例えば、アプリサーバ10は、後述する
図31や
図32に示す画面に相当するコンテンツを生成する。また、アプリサーバ10は、手指の動作の速度をスローや早送りにして表示するコンテンツを生成する。また、アプリサーバ10は、手指の動作の提示の際に、動作に合わせた音を出力するコンテンツを生成する。例えば、アプリサーバ10は、ピアノを演奏する手指の動作であれば、手指が打鍵した鍵盤に相当する音を出力するコンテンツを生成する。続いて、アプリサーバ10は、コンテンツを生成すると、生成したコンテンツを端末装置20に配信する。
【0021】
端末装置20は、アプリサーバ10からコンテンツを受信する。端末装置20は、コンテンツを受信すると、受信したコンテンツを出力する。例えば、端末装置20は、後述する
図31や
図32に示す画面を表示する。また、端末装置20は、手指の動作の速度をスローや早送りにして表示する。また、端末装置20は、手指の動作の提示の際に、動作に合わせた音を出力する。例えば、端末装置20は、ピアノを演奏する手指の動作であれば、手指が打鍵した鍵盤に相当する音を出力する。
【0022】
一方、情報処理装置100の駆動制御部153は、記憶部130から手指の特徴量に関する情報を取得する。続いて、駆動制御部153は、手指の特徴量に関する情報を取得すると、取得した情報に基づいて、外骨格ロボット120への指令を生成する。続いて、駆動制御部153は、外骨格ロボット120への指令を生成すると、生成した指令に基づいて外骨格ロボット120の駆動を制御する。
【0023】
[1.2.情報処理装置の構成例]
次に、
図3を用いて、本開示の第1の実施形態に係る情報処理装置の構成について説明する。
図3は、本開示の第1の実施形態に係る情報処理装置の構成例を示す図である。
図3に示すように、第1の実施形態に係る情報処理装置100は、手指センサ110と、外骨格ロボット120と、記憶部130と、通信部140と、制御部150とを備える。
【0024】
(手指センサ110)
次に、
図4を用いて、本本開示の第1の実施形態に係る手指センサの構成について説明する。
図4は、本開示の第1の実施形態に係る手指センサの一例を示す図である。
図4に示すように、手指センサ110は、人差し指、中指、薬指および小指の姿勢をそれぞれ計測するための4つの第1センサユニット110Aと、母指の姿勢を計測するための第2センサユニット110Bと、手指の関節角度の基準となる基準姿勢を計測するための9軸姿勢センサ110Cとを備える。
【0025】
第1センサユニット110Aは、人差し指、中指、薬指および小指の各手指の中節にそれぞれ取り付けられる。
図4に示す例では、各第1センサユニット110Aが、リング状のバンドによって各手指の中節の上面(背屈側)に取り付けられる。
図4に示すように、各第1センサユニット110Aの横幅は、各手指の横幅よりも狭く設計されている。また、各第1センサユニット110Aの長さは、各手指の中節の長さに対して上下にそれぞれ10%程度長く設計されており、上下にそれぞれ10%程度長く設計された部分にはフォトリフレクタが設けられている。また、各第1センサユニット110Aの中央部には、薄い正方形状の小型の9軸姿勢センサが張り付けられている。
【0026】
第2センサユニット110Bは、母指の基節の上面(背屈側)に取り付けられる。
図4に示す例では、母指計測用センサが、リング状のバンドによって母指の基節の上面(背屈側)に取り付けられる。第2センサユニット110Bを上面から見た形状は、長方形である。第2センサユニット110Bの横幅は、母指の横幅よりも狭く設計されている。また、第2センサユニット110Bの長さは、母指の基節の長さに対してMP関節側に10%程度長く設計されており、MP関節側に10%程度長く設計された部分にはフォトリフレクタが設けられている。また、第2センサユニット110Bの中央部には、薄い正方形状の小型の9軸姿勢センサが張り付けられている。
【0027】
9軸姿勢センサ110Cは、手背部に取り付けられる。
図4に示す例では、薄い正方形状の小型の9軸姿勢センサ110Cが、手背部に張り付けられる。具体的には、9軸姿勢センサ110Cは、手掌部の湾曲や親指の動作の影響を受けないよう、人差し指と中指の基骨上MP関節から手首の間、もしくはその間の領域(
図4に示すAR1の領域)に取り付けられる。
【0028】
このように、第2姿勢センサ(9軸姿勢センサ110C)は、手背のうち、人差し指と中指の基骨上であって、MP関節から手首の間の領域に設けられる。これにより、情報処理装置100は、掌部の湾曲や親指の動作の影響を受けないように手背の重力方向に対する傾きを検出することができる。
【0029】
次に、
図5を用いて、本開示の第1の実施形態に係る手指センサの手指部分のユニットについて説明する。
図5は、本開示の第1の実施形態に係る手指センサの手指部分のユニットについて説明するための図であり、ユニット全体を横方向から見たときの図である。
図5に示す例では、第1センサユニット110Aは、各指の中節に、中節の地表面に対する絶対角を計測するための1つの9軸姿勢センサと、中節と末節との相対角度および中節と基節との相対角度を計測するための2つのフォトリフレクタを備える。なお、以下では、中節と末節との相対角度をDIP関節の角度と記載する場合がある。また、中節と基節との相対角度をPIP関節の角度と記載する場合がある。
【0030】
次に、
図6を用いて、本開示の第1の実施形態に係る手指センサの手指部分のユニットについてさらに説明する。
図6は、本開示の第1の実施形態に係る手指センサの手指部分のユニットについて説明するための図であり、ユニットの末節側の部分を拡大して横方向から見たときの図である。
図6に示す例では、第1センサユニット110Aは、中節上面の延長上に取り付けられたフォトリフレクタから赤外光を照射し、末節の皮膚の表面で反射されて戻ってきた光の強度を検出することで、センサと末節の皮膚間の距離を計測する。続いて、第1センサユニット110Aは、計測したセンサと末節の皮膚間の距離に基づいて、DIP関節の角度を算出する。このように、情報処理装置100は、フォトリフレクタを用いることにより、PIP関節の角度およびDIP関節の角度を非接触に計測することができる。
【0031】
このように、検出部(手指センサ110)は、手指の少なくとも一部の関節の角度を非接触で検出する。これにより、情報処理装置100は、非接触で検出するため、指先の細かな感覚や手指の巧緻動作を阻害することなく、手指の関節の角度を検出することができる。したがって、情報処理装置は、手指の動作を適切に計測することができる。
【0032】
また、検出部は、非接触センサ(フォトリフレクタ)を含み、関節の角度に応じて変化する非接触センサから手指までの距離を検出し、検出した距離に基づいて関節の角度を検出する。また、非接触センサは、光を照射する発光素子と、光の反射光を検出する受光素子とを備える。発光素子は、手指の節に対して光を照射する。受光素子は、手指の節による光の反射光を検出する。検出部は、受光素子によって検出された反射光の強度に基づいて、手指までの距離を検出する。また、非接触センサは、フォトリフレクタ等の光学式のセンサ(光センサ)に限らず、超音波センサ、静電容量センサ等、非接触でセンサから手指までの距離を検出できる近接センサであれば何でもよい。これにより、情報処理装置100は、関節にセンサを取り付けて関節の角度を直接的に検出する代わりに、非接触センサから手指までの距離を検出することで、関節の角度を間接的に(すなわち、非接触に)検出することを可能にする。
【0033】
また、非接触センサ(フォトリフレクタ)は、人差し指、中指、薬指及び小指のうちの少なくとも1つの中節に設けられる。発光素子は、手指の末節及び基節のうちの少なくとも一方に対して光を照射する。受光素子は、手指の末節及び基節のうちの少なくとも一方による光の反射光を検出する。検出部は、反射光の強度に基づいて算出された手指の末節と非接触センサとの距離に基づいて、手指の中節に対する手指の末節の相対角度を手指のDIP関節の角度として算出する。推定部は、手指の中節に対する手指の基節の相対角度を手指のPIP関節の角度として算出し、手指のDIP関節の角度とPIP関節の角度とに基づいて、手指の姿勢を推定する。これにより、情報処理装置100は、手指の末節及び基節にセンサを取り付けることなく、非接触に手指のDIP関節の角度とPIP関節の角度を検出することができる。
【0034】
また、情報処理装置100は、小型の第1センサユニット110A、第2センサユニット110Bを中節に取り付けること、および、小型の9軸姿勢センサ110Cを手背部に張り付けるだけなので、従来技術と比べてPIP関節の角度およびDIP関節の角度を比較的低拘束に計測することができる。
【0035】
次に、
図7を用いて、本開示の第1の実施形態に係る手指の関節角度の算出方法について説明する。
図7は、本開示の第1の実施形態に係る手指の関節角度の算出方法の一例を示す図である。
図7は、手掌、手指の基節、中節、および末節をそれぞれリンクとみなし、手掌と基節との間のMP関節、基節と中節との間のPIP関節、および中節と末節との間のDIP関節をそれぞれリンクの連結部分とみなした1本の手指部分のモデルである。
【0036】
図7に示す角度α
0は、手背部に張り付けられた9軸姿勢センサによって計測される水平面に対する手掌部の絶対角度を示す。また、角度α
1は、中節に取り付けられた9軸姿勢センサによって計測される水平面に対する中節の絶対角度を示す。また、角度θ
0は、手掌部と基節との相対角度であるMP関節の角度を示す。また、角度θ
1は、基節と中節との相対角度であるPIP関節の角度を示す。また、角度θ
2は、中節と末節との相対角度であるDIP関節の角度を示す。このとき、各角度の間には、「α
0-θ
0-θ
1=α
1」の関係が成り立つ。そこで、推定部152は、9軸姿勢センサによって計測された角度α
0および角度α
1とフォトリフレクタによって算出された角度θ
1と「α
0-θ
0-θ
1=α
1」の関係式とに基づいて、センサが取り付けられていないMP関節の角度θ
0を算出する。これにより、情報処理装置100は、手背に取り付けられた9軸姿勢センサと、手指に取り付けられた第1センサユニット110Aとによって、1本の手指の関節の角度すべてを算出することができる。
【0037】
このように、情報処理装置100は、手指の中節の重力方向に対する傾きを検出するための第1姿勢センサ(手指の中節に設けられた9軸姿勢センサ)をさらに備える。推定部は、手指のPIP関節の角度と、第1姿勢センサによって検出された手指の中節の重力方向に対する傾きとに基づいて、手指のMP関節の角度を算出する。また、情報処理装置100は、手背の重力方向に対する傾きを検出するための第2姿勢センサ(9軸姿勢センサ110C)をさらに備える。推定部は、第2姿勢センサによって検出された手背の重力方向に対する傾きに基づいて、手背に対する手指の基節の相対角度をMP関節の角度として算出する。これにより、情報処理装置は、MP関節にセンサを取り付けることなく、非接触にMP関節の角度を算出することができる。
【0038】
次に、
図8を用いて、本開示の第1の実施形態に係る手指の内転・外転角度の算出方法について説明する。
図8は、本開示の第1の実施形態に係る手指の内転・外転角度の算出方法の一例を示す図である。
図8は、
図7と同様に、各手指の節をリンク、各手指の関節をリンクの連結部分とみなした片手全体のモデルである。
【0039】
図8に示す角度β
0は、手背部に張り付けられた9軸姿勢センサによって計測される磁北を軸とした地球方位の座標系に対する手掌部の内転または外転の絶対角度を示す。また、角度φ
1は、手背部に設定した基準座標系に対する手指の内転または外転の相対角度を示す。また、角度β
1は、手指の中節に張り付けられた9軸姿勢センサによって計測される磁北を軸とした地球方位の座標系に対する手指の内転または外転の絶対角度を示す。このとき、各角度の間には、「φ
1=β
1-β
0」の関係が成り立つ。そこで、推定部152は、9軸姿勢センサによって計測された角度β
0および角度β
1と「φ
1=β
1-β
0」の関係式とに基づいて、手背部に設定した基準座標系に対する手指の内転または外転の相対角度φ
1を算出する。
【0040】
このように、第1姿勢センサ(手指の中節に設けられた9軸姿勢センサ)は、手指の内転または外転の重力方向に対する傾きを検出する。第2姿勢センサ(手背部に張り付けられた9軸姿勢センサ)は、掌部の内転または外転の重力方向に対する傾きを検出する。推定部は、第1姿勢センサによって検出された手指の内転または外転の重力方向に対する傾きと、第2姿勢センサによって検出された掌部の内転または外転の重力方向に対する傾きとに基づいて、手背に対する手指の内転または外転の相対角度に関する情報を算出する。これにより、情報処理装置100は、手指の内転または外転の角度を比較的低拘束に推定することができる。
【0041】
続けて、母指の姿勢の算出方法について説明する。姿勢の基準となる手背部の9軸姿勢センサの姿勢は、3×3の回転行列M0として表される。また、母指末節に取り付けられた9軸姿勢センサの姿勢は、3×3の回転行列M1として表される。このとき、M0=RM1となる3×3の回転行列Rが存在する。回転行列Rは、手背部の9軸姿勢センサの姿勢に対する母指末節に取り付けられた9軸姿勢センサの3次元の相対角度を表す回転行列である。また、母指のCM関節は2自由度を持ち、MP関節は1自由度を持っている。そして、母指の各自由度の回転軸の方向が一致することはないため、3次元の回転行列Rから母指の各軸周りの回転角度を算出することができる。具体的には、推定部152は、9軸姿勢センサによって計測された回転行列M0および回転行列M1と「M0=RM1」の関係式とに基づいて、回転行列Rを算出する。
【0042】
また、上述した第1姿勢センサは、3軸方向の加速度と、3軸方向の角速度と、3軸方向の方位とを検出する9軸センサである。また、第2姿勢センサは、3軸方向の加速度と、3軸方向の角速度と、3軸方向の方位とを検出する9軸センサである。これにより、情報処理装置100は、手指の中節の重力方向に対する傾き、および手背の重力方向に対する傾きを適切に検出することができる。
【0043】
(外骨格ロボット120)
外骨格ロボット120は、駆動制御部153の制御に従って、手指センサ110によって検出された手指の動作を再現する。具体的には、外骨格ロボット120は、駆動部121とセンサ122とを備える。
【0044】
(駆動部121)
駆動部121は、外骨格ロボット120による手指の動作を表現する。このため、駆動部121は、外骨格ユニット120Aやモータ121Aを備える。例えば、駆動部121は、1本分の手指に対応する外骨格ユニット120Aと外骨格ユニット120Aを駆動するモータ121Aとを備える。
図1および
図9~
図13に示す例では、駆動部121は、人差し指、中指、薬指および小指にそれぞれ対応する4つの外骨格ユニット120Aと、4つの外骨格ユニット120Aそれぞれを駆動する4つのモータ121Aとを備える。例えば、駆動部121は、駆動制御部153の制御に従って、回転軸AX1の周りに外骨格ユニット120Aを内転または外転させる。また、駆動部121は、駆動制御部153の制御に従って、RCM機構の回転軸の周りに外骨格ユニット120Aを曲げ伸ばしさせる。
【0045】
(センサ122)
センサ122は、外骨格ロボット120の姿勢や動作を検出する。具体的には、センサ122は、9軸姿勢センサによって実現される。例えば、センサ122は、外骨格ユニット120Aのリンクを連結した関節の角度や角速度を検出する。
【0046】
次に、
図9を用いて、本開示の第1の実施形態に係る外骨格ロボットについて説明する。
図9は、本開示の第1の実施形態に係る外骨格ロボットの斜視図である。
図9に示す例では、外骨格ロボット120は、人差し指、中指、薬指および小指の動作をそれぞれ再生するための各手指に対応する4つの外骨格ユニット120Aと、各手指に対応する4つの外骨格ユニット120Aそれぞれを駆動するための4つのモータ121Aとを備える。
【0047】
図9に示すように、外骨格ロボット120は、隣り合う手指のリンクの長さをモータの大きさの分だけ変えることによって、モータとリンク機構との干渉をなくすことを可能にした。
【0048】
従来の外骨格ロボットでは、被装着者が外骨格ロボットを動かそうとしたときに、自由に動かせないことがあった。主な原因は、駆動伝達部の摩擦抵抗が大きいことと、手指の内転・外転の自由度が制限されていたことにある。そこで、本発明に係る外骨格ロボット120は、強力なモータ121A(具体的には、トルクモータ)を減速機なしで用い、1本分の手指に対応する外骨格ユニット120Aのリンクの両端に2つの球ジョイント(第1球ジョイントJ1および第2球ジョイントJ2)を配置してRCM機構リンク部と連結したリンク機構を用いることで、これらの問題を解決した。また、本発明に係る外骨格ロボット120は、従来の外骨格ロボットと異なり、装着者の手指の動作を阻害しにくいため、外骨格ロボット120にセンサを搭載することで、外骨格ロボット120によって手指の運動を記録することもできる。
【0049】
次に、
図10を用いて、開示の第1の実施形態に係る外骨格ロボットについてさらに説明する。
図10は、本開示の第1の実施形態に係る外骨格ロボットの側面図である。
図10に示すように、外骨格ロボット120を片方の側面から見ると、2つのモータ121Aの奥側に1本分の手指に対応する外骨格ユニット120Aが配置されているのが見える。また、1本分の手指に対応する外骨格ユニット120Aは、平行リンクを用いた二重平行四辺形構造のRCM(Remote Center of Motion)機構リンク部を備える。ここで、RCMとは、Remote Center of Motion(遠隔運動中心)の略である。一般的に、RCM機構とは、モータの回転中心から離れた位置に回転中心を配置し、ピボット(不動点)運動を実現する機構のことをいう。例えば、二重平行四辺形構造をとるRCM機構は、二重平行四辺形を含む平面内でRCM機構の回転中心の周りに回転する自由度を備える。また、外骨格ユニット120Aは、RCM機構リンク部が備える2つの平行四辺形構造の連結点PXと対角に位置する第2頂点P2に一方の端が固定された第1リンクL1と、第1リンクL1の他端に第1球ジョイントJ1により一方の端が連結された第2リンクL2と、第2リンクL2の他端に第2球ジョイントJ2により一方の端が連結された第3リンクL3と、を備え、第1リンクL1と第2リンクL2と第3リンクL3とは、4節リンク構造を構成する。また、外骨格ユニット120Aは、モータ121Aをさらに備え、第3リンクL3の他端は、モータ121Aの回転軸に固定される。
【0050】
外骨格ロボット120を装着する装着者は、人差し指、中指、薬指および小指それぞれの手指のMP関節から指先までの範囲がRCM機構リンク部に沿うようにそれぞれの手指に外骨格ユニット120Aを装着する。具体的には、外骨格ユニット120Aは、RCM機構リンク部が備える2つの平行四辺形構造の連結点PXと対角に位置する第1頂点P1に対して固定され、手指を保持する保持部材を備える。そして、外骨格ロボット120の装着者の人差し指、中指、薬指および小指は、それぞれの手指に対応する外骨格ユニット120Aの保持部材それぞれによって保持される。RCM機構リンク部は、装着者が手指を曲げ伸ばしする動作に合わせて伸び縮みする。
【0051】
次に、
図11を用いて、本開示の第1の実施形態に係る外骨格ロボットの1本分の手指に対応する外骨格ユニットについて説明する。
図11は、本開示の第1の実施形態に係る外骨格ロボットの1本分の手指に対応する外骨格ユニットについて説明するための図である。
図11は、
図10とは反対の方向から、1本分の手指に対応する外骨格ユニット120Aを見た図である。
図11示す例では、
図10とは逆に、1本分の手指に対応する外骨格ユニット120Aの奥側にモータ121Aが配置されているのが見える。ここで、モータ121Aは、ダイレクトドライブ、もしくは減速比の小さいモータである。これにより、外骨格ロボット120は、非通電時に、装着者が自分の意志で自由に手指を動かすことが可能になる。
【0052】
図11示すように、外骨格ユニット120Aは、MP関節の位置を調節する機構を備える。このように、外骨格ユニット120Aは、MP関節の位置を調節する機構を備えることにより、各指のMP関節の位置を、装着者の手の形状に合わせて、直行する2自由度で調整することができる。また、外骨格ユニット120Aは、各指のMP関節の位置を装着者の手の形状に合わせて調整した後に、ねじによって位置を固定できる。このように、外骨格ユニット120Aは、各ユニットを指の幅に収めることで、手のサイズに収めることに成功した。また、外骨格ロボット120は、手指の内転または外転の回転に合わせてRCM機構を回転させる回転機構の回転軸を各指のMP関節の上に来るように調整できる。これにより、外骨格ロボット120は、本来の手指の動きをほとんど制限することなく動かすことを可能にした。
【0053】
また、外骨格ユニット120Aは、RCM機構リンク部が備える2つの平行四辺形構造の連結点PXと対角に位置する第1頂点P1に対して固定され、手指を保持する保持部材を備える。また、外骨格ユニット120Aは、
図11の右下に示すような前後のスライダ機構をさらに備えることができる。例えば、外骨格ユニット120Aは、保持部材に手指を固定するリングをスライド可能に保持するスライダ機構を備える。これにより、外骨格ユニット120Aは、装着者の手指の長さの違いに対応することができる。
【0054】
また、外骨格ユニット120Aは、また、
図11に示すように、外骨格ユニット120Aは、第1球ジョイントJ1のちょうど真下に相当する位置に、手指の内転または外転の自由度の回転軸AX1を備える。外骨格ユニット120Aは、回転軸AX1の回転を検出する回転センサを埋めこむことにより、手指の内転または外転を計測することができる。
【0055】
また、
図11に示す回転軸AX1の下端の点Q1は、装着者の手指のMP関節の位置を示す。具体的には、1本分の手指である人差し指の例で説明すると、外骨格ロボット120を装着する装着者は、人差し指のMP関節の位置が
図11に示す回転軸AX1の下端に示す黒丸の位置にくるように外骨格ユニット120Aを装着する。また、装着者は、人差し指のMP関節から指先までの範囲がRCM機構リンク部に沿うように人差し指に外骨格ユニット120Aを装着する。RCM機構リンク部は、装着者が人差し指を曲げ伸ばしする動作に合わせて伸び縮みする。
【0056】
また、外骨格ユニット120Aは、平行リンクを用いた二重平行四辺形構造のRCM機構リンク部を備える。RCM機構リンク部は、RCM機構を備える。例えば、
図11に示すRCM機構リンク部は、平行リンクを組み合わせて、左右対称な2つの平行四辺形(二重平行四辺形ともいう)を形成するようにリンクが連結された構造をとる。また、外骨格ユニット120Aは、RCM機構リンク部が備える2つの平行四辺形構造の連結点PXと対角に位置する第2頂点P2に一方の端が固定された第1リンクL1と、第1リンクL1の他端に第1球ジョイントJ1により一方の端が連結された第2リンクL2と、第2リンクL2の他端に第2球ジョイントJ2により一方の端が連結された第3リンクL3と、を備え、第1リンクL1と第2リンクL2と第3リンクL3とは、4節リンク構造を構成する。また、外骨格ユニット120Aは、モータ121Aをさらに備え、第3リンクL3の他端は、モータ121Aの回転軸に固定される。
【0057】
図11に示すRCM機構リンク部の下方の点Q2は、RCM機構リンク部が備えるRCM機構の回転中心の位置を示す。また、RCM機構の回転中心の位置Q2は、二重平行四辺形の対称軸上に位置する。また、RCM機構の回転中心の位置Q2は、装着者の人差し指のMP関節とPIP関節の間に位置する。このように、外骨格ユニット120Aは、手指のMP関節の位置から所定の範囲内にRCM機構の回転軸と手指の内転または外転の回転に合わせてRCM機構を回転させる回転機構の回転軸とを備える。
【0058】
次に、
図12を用いて、本開示の第1の実施形態に係る外骨格ロボットの1本分の手指に対応する外骨格ユニットが備えるRCM機構について説明する。
図12は、本開示の第1の実施形態に係る外骨格ロボット120の1本分の手指に対応する外骨格ユニット120Aが備えるRCM機構について説明するための図である。
図12の左側は、手指を伸ばした状態を示す。また、
図12の右側は、手指を曲げた状態を示す。
【0059】
図12に示すように、外骨格ユニット120Aは、2つの球ジョイントJ1およびJ2を受ける2つの球軸受による4節リンクを備える。具体的には、外骨格ユニット120Aは、RCM機構リンク部が備える2つの平行四辺形構造の連結点PXと対角に位置する第2頂点P2に一方の端が固定された第1リンクL1と、第1リンクL1の他端に第1球ジョイントJ1により一方の端が連結された第2リンクL2と、第2リンクL2の他端に第2球ジョイントJ2により一方の端が連結された第3リンクL3と、を備え、第1リンクL1と第2リンクL2と第3リンクL3とは、4節リンク構造を構成する。また、外骨格ユニット120Aは、モータ121Aをさらに備え、第3リンクL3の他端は、モータ121Aの回転軸に固定される。また、外骨格ユニット120Aは、球ジョイントJ2のちょうど真下に相当する位置に、手指の内転または外転の自由度の回転軸AX1を備える。また、回転軸AX1の下端の点Q1は、装着者の手指のMP関節の位置に相当する。これにより、外骨格ロボット120は、駆動伝達部の摩擦抵抗を小さくし、手指の内転・外転の自由度を向上させることができるので、外骨格ロボット120の装着者に対してより滑らかで自然な手指の動作を再現することができる。
【0060】
また、RCM機構の回転中心の位置Q2は、装着者の手指のMP関節とPIP関節の間に位置する。言い換えると、RCM機構の回転中心の位置Q2は、装着者の手指のMP関節から所定の範囲内に位置する。このように、外骨格ユニット120Aは、手指のMP関節の位置から所定の範囲内にRCM機構の回転軸と手指の内転または外転の回転に合わせてRCM機構を回転させる回転機構の回転軸とを備える。ここで、外骨格ユニット120Aは、装着者の手首の側から見ると、外手指の内転または外転の自由度の回転軸AX1、RCM機構という順番で装置の自由度が配置されている。一般的に、手指の内転または外転の動きは、手指のMP関節によって回転軸AX1の周りを回転するように行われる。また、手指を曲げ伸ばしする動きは、手指のMP関節、PIP関節およびDIP関節によってRCM機構の回転軸の周りを回転するように行われる。また、手指の自然な動きとは、手指の内転または外転の動きと手指を曲げ伸ばしする動きとの重ね合わせであると考えることができる。したがって、手指の自然な動きは、手首の側から見ると、回転軸AX1の周りを回転する手指の内転または外転の動きと、RCM機構の回転軸の周りを回転する手指を曲げ伸ばしする動きの順に行われると考えることができる。このように考えると、外骨格ユニット120Aは、装着者の手首の側から見ると、外手指の内転または外転の自由度の回転軸AX1、RCM機構という順番で装置の自由度が配置されているため、本来の手指の動きと同じように、手指をガイドすることができる。すなわち、外骨格ユニット120Aは、手指のMP関節に基づく手指の内転または外転の動きと、手指のMP関節やPIP関節、DIP関節に基づく手指を曲げ伸ばしする動きとを、本来の手指の動きと同じようにガイドすることができる。
【0061】
このように、情報処理装置100は、平行リンクを用いた二重平行四辺形構造のRCM機構と、手指の内転または外転の回転に合わせてRCM機構を回転させる回転機構と、RCM機構が備える2つの平行四辺形構造の連結点PXと対角に位置する第1頂点P1に対して固定され、手指を保持する保持部材と、連結点PXと対角に位置する第2頂点P2に一方の端が固定された第1リンクL1と、第1リンクL1の他端に第1球ジョイントJ1により一方の端が連結された第2リンクL2と、第2リンクL2の他端に第2球ジョイントJ2により一方の端が連結された第3リンクL3と、を備え、第1リンクL1と第2リンクL2と第3リンクL3とは、4節リンク構造を構成する、外骨格ロボット120をさらに備える。また、外骨格ロボット120は、モータ121Aをさらに備え、第3リンクL3の他端は、モータ121Aの回転軸に固定される。また、回転機構の回転軸とRCM機構の回転軸とが、外骨格ロボット120の装着者の手首に近い方から回転機構の回転軸、RCM機構の回転軸の順に配置される。また、回転機構の回転軸は、外骨格ロボットの装着者の手指のMP関節に位置し、RCM機構の回転軸は、外骨格ロボットの装着者の手指のMP関節からPIP関節を臨む方向に手指のMP関節から所定の範囲内に位置する。これにより、情報処理装置100は、手首側から見ると、手指の内転または外転の自由度の回転軸、RCM機構の回転軸という順番で装置の自由度が配置されているため、本来の手指の動きと同じように、手指をガイドすることができる。すなわち、情報処理装置は、手指のMP関節に基づく手指の内転または外転の動きと、手指のMP関節やPIP関節、DIP関節に基づく手指を曲げ伸ばしする動きとを、本来の手指の動きと同じようにガイドすることができる。
【0062】
次に、
図13を用いて、本開示の第1の実施形態に係る外骨格ロボットについてさらに説明する。
図13は、本開示の第1の実施形態に係る外骨格ロボットの上面図である。
図13の左側は、
図9を上面から見た図である。
図13の右側は、右手の人差し指に相当する外骨格ユニット120AのMP関節位置調節機構のねじを緩めた状態で、右手の人差し指に相当する外骨格ユニット120Aを移動させた状態を示す。
【0063】
(記憶部130)
記憶部130は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部130は、手指センサ110から取得したセンサ情報を記憶する。また、記憶部130は、推定部152によって算出された手指の特徴量に関する情報を記憶する。
【0064】
(通信部140)
通信部140は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部140は、ネットワークと有線または無線で接続され、例えば、アプリサーバ10や端末装置20との間で情報の送受信を行う。
【0065】
(制御部150)
制御部150は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部150は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
【0066】
図3に示すように、制御部150は、センサ情報処理部151と、推定部152と、駆動制御部153と、送信部154とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部150の内部構成は、
図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
【0067】
(センサ情報処理部151)
センサ情報処理部151は、手指センサ110によってセンシングされた生データを手指センサ110から取得する。センサ情報処理部151は、手指センサ110が検出した信号のサンプリング、ノイズ低減、フィルタ適用、および力を電圧に変換する処理を行う。
【0068】
(推定部152)
推定部152は、センサ情報処理部151から手指センサ110のセンサ情報を取得する。続いて、推定部152は、センサ情報を取得すると、取得したセンサ情報に基づいて、手指の特徴量に関する情報を推定する。具体的には、推定部152は、手指の関節の角度、手指の関節の平均角速度、最大角速度、手指の関節の可動域である手指の特徴量に関する情報を推定する。続いて、推定部152は、手指の特徴量に関する情報を推定すると、推定した手指の特徴量に関する情報を記憶部130に格納する。
【0069】
具体的には、推定部152は、手指センサ110が備えるフォトリフレクタから、手指に照射された光が手指によって反射された反射光の強度に関するセンサ情報を手指センサ110から取得する。例えば、推定部152は、中節上面の延長上に取り付けられたフォトリフレクタから赤外光を照射し、末節の皮膚の表面で反射されて戻ってきた光の強度に関するセンサ情報を取得する。あるいは、推定部152は、光の強度に基づいて計測されたセンサと末節の皮膚間の距離に関するセンサ情報を取得する。続いて、推定部152は、取得したセンサ情報に基づいて、DIP関節の角度θ2を算出する。続いて、推定部152は、DIP関節の角度θ2を時間で微分することにより、DIP関節の角速度を推定する。また、推定部152は、センシング中にDIP関節が動いた範囲の角度θ2の最大値と最小値により、DIP関節の可動域を推定する。このように、推定部(推定部152)は、検出部(フォトリフレクタ)で検出された関節の角度に基づいて、手指の姿勢を推定する。
【0070】
また、推定部152は、中節上面の延長上に取り付けられたフォトリフレクタから赤外光を照射し、基節の皮膚の表面で反射されて戻ってきた光の強度に関するセンサ情報を取得する。あるいは、推定部152は、光の強度に基づいて計測されたセンサと基節の皮膚間の距離に関するセンサ情報を取得する。続いて、推定部152は、取得したセンサ情報に基づいて、PIP関節の角度θ1を算出する。続いて、推定部152は、PIP関節の角度θ1を時間で微分することにより、PIP関節の角速度を推定する。また、推定部152は、PIP関節の角度θ1を時間で積分することにより、PIP関節の可動域を推定する。
【0071】
また、推定部152は、手背部に張り付けられた9軸姿勢センサによって検出された手背部(あるいは手掌部)の姿勢に関するセンサ情報を取得する。続いて、推定部152は、取得したセンサ情報に基づいて、水平面に対する手掌部の絶対角度α0を推定する。
【0072】
また、推定部152は、中節に取り付けられた9軸姿勢センサによって検出された中節の姿勢に関するセンサ情報を取得する。続いて、推定部152は、取得したセンサ情報に基づいて、水平面に対する中節の絶対角度α1を推定する。
【0073】
また、推定部152は、推定した手掌部の絶対角度α
0と中節の絶対角度α
1、および算出したPIP関節の角度θ
1、および
図7で説明した関係式「α
0-θ
0-θ
1=α
1」とに基づいて、MP関節の角度θ
0を算出する。続いて、推定部152は、MP関節の角度θ
0を時間で微分することにより、MP関節の角速度を推定する。また、推定部152は、MP関節の角度θ
0を時間で積分することにより、MP関節の可動域を推定する。
【0074】
なお、推定部152は、外骨格ロボットの状態と、検出部(フォトリフレクタ)で検出された関節の角度に基づいて、手指の姿勢を推定してもよい。これにより、情報処理装置100は、より適切に手指の姿勢を推定することができる。
【0075】
(駆動制御部153)
駆動制御部153は、記憶部130を参照して、推定部152が推定した手指の特徴量に関する情報を取得する。続いて、駆動制御部153は、手指の特徴量に関する情報を取得すると、取得した情報に基づいて、外骨格ロボット120への指令を生成する。続いて、駆動制御部153は、外骨格ロボット120への指令を生成すると、生成した指令に基づいて外骨格ロボット120の駆動を制御する。
【0076】
(送信部154)
送信部154は、推定部152が推定した手指の特徴量に関する情報をアプリサーバ10に送信する。具体的には、送信部154は、アプリサーバ10の要求に応じて、推定部152が推定した手指の特徴量に関する情報を送信する。例えば、送信部154は、記憶部130を参照して、手指のDIP関節、PIP関節、またはMP関節の角度、平均角速度、最大角速度、可動域である手指の特徴量に関する情報を送信する。
【0077】
[1.3.情報処理システムの動作例]
次に、
図14を用いて、本開示の第1の実施形態に係る情報処理手順について説明する。
図14は、本開示の第1の実施形態に係る情報処理手順を示すフローチャートである。
図14に示すように、情報処理装置100は、手指センサ110のセンサ情報を取得する(ステップS101)。続いて、情報処理装置100は、手指センサ110から取得したセンサ情報に基づいて、手指の特徴量を算出する(ステップS102)。続いて、情報処理装置100は、手指の特徴量を算出すると、外骨格ロボット120への指令情報を生成する(ステップS103)。続いて、情報処理装置100は、外骨格ロボット120への指令情報を生成すると、生成した指令情報に基づいて、外骨格ロボット120の動作を制御する(ステップS104)。
【0078】
[1.4.変形例]
[1.4.1.手指センサ]
次に、
図15を用いて、本開示の第1の実施形態の変形例に係る手指センサについて説明する。
図15は、本開示の第1の実施形態の変形例に係る手指センサの一例を示す図である。
図15に示す手指センサ111は、前腕部に手首姿勢計測用の9軸姿勢センサ110Dをさらに備える点が
図4に示す手指センサ110と異なる。手指センサ111を用いると、手背の基準姿勢計測用の9軸姿勢センサ110Cによって検出された手背の絶対角度と手首姿勢計測用の9軸姿勢センサ110Dによって検出された手首の絶対角度との相対角度を手首の傾きとして算出することができる。
【0079】
このように、情報処理装置100は、手首の重力方向に対する傾きを検出するための第3姿勢センサ(9軸姿勢センサ110D)をさらに備える。第3姿勢センサは、3軸方向の加速度と、3軸方向の角速度と、3軸方向の方位とを検出する9軸センサである。これにより、情報処理装置100は、手首の重力方向に対する傾きを適切に検出することができる。推定部は、第3姿勢センサによって検出された手首の重力方向に対する傾きと、第2姿勢センサによって検出された手背の重力方向に対する傾きとに基づいて、手背に対する手首の重力方向に対する傾きを手首の傾き角度として算出する。これにより、情報処理装置100は、手首の姿勢を推定することができるため、手指の姿勢の推定精度をさらに向上させることができる。
【0080】
次に、
図16を用いて、本開示の第1の実施形態の変形例に係る手指センサについて説明する。
図16は、本開示の第1の実施形態の変形例に係る手指センサの一例を示す図である。
図16に示す手指センサ112は、手背部の薬指と小指の基骨の延長上に手掌部の湾曲を計測するための9軸姿勢センサ110Eをさらに備える点が
図4に示す手指センサ110と異なる。手指センサ112を用いると、手背の基準姿勢計測用の9軸姿勢センサ110Cによって検出された手背の絶対角度と手掌部の湾曲を計測するための9軸姿勢センサ110Eよって検出された手掌部の湾曲の絶対角度との相対角度を手掌部の屈曲の度合いとして算出することができる。このとき、薬指と小指の各関節の伸展・屈曲角度算出の際には、掌部湾曲計測用の9軸姿勢センサ110Eの水平面に対する角度を前述のα
0として用いることで、手掌部を湾曲させながらの伸展・屈曲角度の算出の精度を高めることができる。
【0081】
次に、
図17を用いて、本開示の第1の実施形態の変形例に係る手指センサについて説明する。
図17は、本開示の第1の実施形態の変形例に係る手指センサの一例を示す図である。
図17に示す手指センサ113は、第2センサユニット110Bを各手指の基節に取り付ける点が
図4に示す手指センサ110と異なる。手指センサ113を用いると、DIP関節の角度は計測できないが、より拘束の少ない計測を可能とする。また,手指センサ113を用いると、第2センサユニット110Bの9軸姿勢センサと手背の基準姿勢計測用の9軸姿勢センサ110Cとの相対角度から、各手指のMP関節の角度を直接算出することができる。
【0082】
次に、
図18を用いて、本開示の第1の実施形態の変形例に係る手指センサについて説明する。
図18は、本開示の第1の実施形態の変形例に係る手指センサの一例を示す図である。
図18に示す手指センサ114は、第1センサユニット110Aに加えて、第2センサユニット110Bを各手指の基節に取り付ける点が
図4に示す手指センサ110と異なる。手指センサ114を用いると、第2センサユニット110Bの9軸姿勢センサと手背の基準姿勢計測用の9軸姿勢センサ110Cとの相対角度から、各手指のMP関節の角度を直接算出することができる。
【0083】
次に、
図19を用いて、本開示の第1の実施形態の変形例に係る手指センサについて説明する。
図19は、本開示の第1の実施形態の変形例に係る手指センサの一例を示す図である。
図19に示す手指センサ115は、一部のセンサを計測したい関節を挟むように配置された曲げセンサや歪センサなどに置き換える点が
図4に示す手指センサ110と異なる。手指センサ115を用いると、計測したい関節の角度の計測精度を向上させることができる。
【0084】
次に、
図20を用いて、本開示の第1の実施形態の変形例に係る手指センサについて説明する。
図20は、本開示の第1の実施形態の変形例に係る手指センサの一例を示す図である。
図20に示す手指センサ116は、9軸姿勢センサを用いず、MP関節上にもフォトリフレクタを設置する点が
図4に示す手指センサ110と異なる。手指センサ116を用いると、各手指のすべての関節の角度をフォトリフレクタによる計測によって直接算出することができる。
【0085】
[1.4.2.外骨格ロボット]
次に、
図21を用いて、本開示の第1の実施形態の変形例に係る外骨格ロボットについて説明する。
図21は、本開示の第1の実施形態の変形例に係る外骨格ロボットの斜視図である。
図21に示す外骨格ロボットは、親指に相当する外骨格ユニットが付加された点が
図9に示す外骨格ロボット120と異なる。
【0086】
次に、
図22を用いて、本開示の第1の実施形態の変形例に係る外骨格ロボットについてさらに説明する。
図22は、本開示の第1の実施形態の変形例に係る外骨格ロボットの側面図である。
図22は、
図21に示す親指に相当する外骨格ユニットが付加された外骨格ロボットの側面図である。
【0087】
次に、
図23を用いて、本開示の第1の実施形態の変形例に係る外骨格ロボットについてさらに説明する。
図23は、本開示の第1の実施形態の変形例に係る外骨格ロボットの上面図である。
図23は、
図21に示す親指に相当する外骨格ユニットが付加された外骨格ロボットの上面図である。
【0088】
次に、
図24を用いて、本開示の第1の実施形態の変形例に係る外骨格ロボットについてさらに説明する。
図24は、本開示の第1の実施形態の変形例に係る外骨格ロボットの底面図である。
図24は、
図21に示す親指に相当する外骨格ユニットが付加された外骨格ロボットの底面図である。
【0089】
[2.第2の実施形態]
[2.1.情報処理システムの概要]
次に、
図25を用いて、本開示の第2の実施形態に係る情報処理の概要について説明する。
図25は、本開示の第2の実施形態に係る情報処理の一例を示す図である。
図25に示す例では、情報処理装置200が、手指センサ110の代わりに、対象物O1に埋め込まれた対象物センサ210を備える点が
図1の情報処理装置100と異なる。ここで、対象物O1とは、手指による動作の対象物を指す。例えば、手指による動作がピアノの演奏である場合、手指による動作の対象物O1はピアノの鍵盤に相当する。
【0090】
一般的に、外骨格ロボットを制御するには、外骨格ロボット自体に取り付けたセンサを用いるが、技能熟達支援の用途など場合は、手指の動作の対象物にセンサを埋め込むことが可能な場合がある。また、外骨格ロボットにより、装着者の手指を通した対象物への制御を行う場合、後述する
図27に示すように、外骨格ロボットの出力から対象物の間に、装着者の手指のモデルが入るため、正しく制御することが困難な場合がある。
【0091】
そこで、本開示の第2の実施形態に係る情報処理システムでは、手指の動作の対象物に埋め込まれたセンサのセンサ情報を用いて、より高精度で安全に外骨格ロボットを制御する情報処理システム2を提案する。情報処理システム2は、対象物に埋め込まれたセンサの情報も外骨格ロボットにフィードバックすることで、より正確な制御を試みる。具体的には
図25に示す制御ループを100Hz以上で高速に回すことで、安定した制御を行う。なお、外骨格ロボット220内の制御ループなど、一部の制御ループをより高速にしてもよい。なお、情報処理システム2は、情報処理装置100の代わりに情報処理装置200を備える点が
図2に示す情報処理システム1と異なるが、その他の点は同じである。
【0092】
図25に示す例では、情報処理装置200の推定部252は、対象物センサ210からセンサ情報を取得する。例えば、推定部252は、外骨格ロボット220を装着した装着者の手指によって対象物O1が押下されることによって生じた対象物O1の変形の変位、変形の速度、対象物に加わる力等のセンサ情報を取得する。また、推定部252は、対象物O1のモデル情報を取得する。対象物O1のモデル情報とは、例えば、対象物O1がピアノの鍵盤である場合には、ピアノの鍵盤の形状をしたモデルに関する情報を指す。続いて、推定部252は、センサ情報とモデル情報とを取得すると、取得したセンサ情報とモデル情報とに基づいて、対象物O1の状態を推定する。続いて、推定部252は、対象物O1の状態を推定すると、推定した対象物O1の状態に関する情報を駆動制御部253に出力する。
【0093】
また、情報処理装置200の推定部252は、外骨格ロボット120のセンサ122から外骨格ロボット120のセンサ情報を取得する。続いて、推定部252は、外骨格ロボット120のセンサ情報を取得すると、取得したセンサ情報に基づいて、外骨格ロボット120の状態を推定する。続いて、推定部252は、外骨格ロボット120の状態を推定すると、推定した外骨格ロボット120の状態に関する情報を駆動制御部253に出力する。
【0094】
情報処理装置200の駆動制御部253は、対象物O1の状態に関する情報と外骨格ロボット120の状態に関する情報を推定部252から取得する。続いて、駆動制御部253は、対象物O1の状態に関する情報と外骨格ロボット120の状態に関する情報を取得すると、取得した対象物O1の状態に関する情報と外骨格ロボット120の状態に関する情報とに基づいて、外骨格ロボット120の駆動部121(例えば、モータ)の駆動を制御する。
【0095】
[2.2.情報処理装置の構成例]
次に、
図26を用いて、本開示の第2の実施形態に係る情報処理装置の構成について説明する。
図26は、本開示の第2の実施形態に係る情報処理装置の構成例を示す図である。
図26に示すように、第2の実施形態に係る情報処理装置200は、第1の実施形態に係る情報処理装置100と同様に、外骨格ロボット120と、記憶部130と、通信部140とを備える。また、情報処理装置200は、対象物センサ210と、制御部250とを備える点が情報処理装置100と異なる。なお、以下では、情報処理装置100と重複する部分については適宜説明を省略する。
【0096】
(対象物センサ210)
対象物センサ210は、手指による動作の対象物O1に埋め込まれたセンサである。例えば、対象物センサ210は、対象物の内部に搭載された接触センサによって実現される。例えば、対象物センサ210は、外骨格ロボット220を装着した装着者の手指によって対象物O1が押下されることによって生じた対象物O1の変形の変位、変形の速度、対象物に加わる力等を検出する。
【0097】
(制御部250)
制御部250は、コントローラであり、例えば、CPUやMPU等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部250は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
【0098】
図26に示すように、制御部250は、センサ情報処理部251と、推定部252と、駆動制御部253と、送信部154とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部250の内部構成は、
図26に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
【0099】
(センサ情報処理部251)
センサ情報処理部251は、対象物センサ210によってセンシングされた生データを対象物センサ210から取得する。センサ情報処理部251は、対象物センサ210が検出した信号のサンプリング、ノイズ低減、フィルタ適用、および力を電圧に変換する処理を行う。
【0100】
(推定部252)
推定部252は、センサ情報処理部251から対象物センサ210によって検出されたセンサ情報を取得する。例えば、推定部252は、外骨格ロボット220を装着した装着者の手指によって対象物O1が押下されることによって生じた対象物O1の変形の変位、変形の速度、対象物に加わる力等のセンサ情報を取得する。また、推定部252は、対象物O1のモデル情報を取得する。続いて、推定部252は、センサ情報とモデル情報とを取得すると、取得したセンサ情報とモデル情報とに基づいて、対象物O1の状態を推定する。続いて、推定部252は、対象物O1の状態を推定すると、推定した対象物O1の状態に関する情報を駆動制御部253に出力する。
【0101】
また、推定部252は、外骨格ロボット120のセンサ122から外骨格ロボット120のセンサ情報を取得する。続いて、推定部252は、外骨格ロボット120のセンサ情報を取得すると、取得したセンサ情報に基づいて、外骨格ロボット120の状態を推定する。例えば、推定部252は、外骨格ロボット120が加えている力や速度、外骨格ロボット120の装着者が自ら出している力や速度などの情報を推定する。続いて、推定部252は、外骨格ロボット120の状態を推定すると、推定した外骨格ロボット120の状態に関する情報を駆動制御部253に出力する。
【0102】
(駆動制御部253)
駆動制御部253は、対象物O1の状態に関する情報と外骨格ロボット120の状態に関する情報を推定部252から取得する。続いて、駆動制御部253は、対象物O1の状態に関する情報と外骨格ロボット120の状態に関する情報を取得すると、取得した対象物O1の状態に関する情報と外骨格ロボット120の状態に関する情報とに基づいて、目標の力および位置に対して、モータ121Aの出力を再計算する。続いて、駆動制御部253は、モータ121Aの出力を再計算すると、再計算した出力に基づいて、モータ121Aの駆動を制御する。
【0103】
[2.3.情報処理システムの動作例]
次に、
図27を用いて、本開示の第2の実施形態に係る情報処理の流れについて概念的に説明する。
図27は、本開示の第2の実施形態に係る情報処理の流れを概念的に説明するための図である。
図27に示すように、第2の実施形態に係るピアノの鍵盤などの動作の対象物と装着者の手指との間では、物理的に力を加えたり、加えられたりする。また、装着者の手指と外骨格ロボットとの間でも、同様に、物理的に力を加えたり、加えられたりする。
【0104】
また、推定部252は、対象物に埋め込まれた対象物センサのセンサ情報と対象物のモデル情報とに基づいて、対象物に加わる力や対象物の位置などの対象物の状態を推定する。また、推定部252は、外骨格ロボットのセンサ情報に基づいて、外骨格ロボットの関節の角度や力などの外骨格ロボットの状態を推定する。
【0105】
続いて、駆動制御部253は、あらかじめ取得した外骨格ロボットの目標状態と、推定部252が推定した対象物の状態と外骨格ロボットの状態とに基づいて、外骨格ロボットのアクチュエータの駆動を制御する。例えば、駆動制御部253は、外骨格ロボットのモータの駆動を制御する。また、駆動制御部253は、モータの駆動を制御することにより、外骨格ロボットのリンク部分の駆動を制御する。
【0106】
次に、
図28を用いて、本開示の第2の実施形態に係る情報処理手順について説明する。
図28は、本開示の第2の実施形態に係る情報処理手順を示すフローチャートである。
図28に示すように、推定部252は、対象物センサ210のセンサ情報を取得する(ステップS201)。続いて、推定部252は、対象物O1のモデル情報を取得する(ステップS202)。続いて、推定部252は、センサ情報とモデル情報とに基づいて、対象物O1の状態に関する情報を推定する(ステップS203)。続いて、推定部252は、対象物O1の状態に関する情報を駆動制御部253に出力する(ステップS204)。
【0107】
次に、
図29を用いて、本開示の第2の実施形態に係る情報処理手順についてさらに説明する。
図29は、本開示の第2の実施形態に係る情報処理手順を示すフローチャートである。
図29に示すように、推定部252は、外骨格ロボット220のセンサ情報を取得する(ステップS301)。続いて、推定部252は、センサ情報に基づいて、外骨格ロボット220の状態に関する情報を推定する(ステップS302)。続いて、推定部252は、外骨格ロボット220の状態に関する情報を駆動制御部253に出力する(ステップS303)。
【0108】
次に、
図30を用いて、本開示の第2の実施形態に係る情報処理手順についてさらに説明する。
図30は、本開示の第2の実施形態に係る情報処理手順を示すフローチャートである。
図30に示すように、駆動制御部253は、対象物O1の状態に関する情報と外骨格ロボット220の状態に関する情報とを推定部252から取得する(ステップS401)。続いて、駆動制御部253は、対象物O1の状態に関する情報と、外骨格ロボット220の状態に関する情報と、外骨格ロボット220の目標状態に関する情報とに基づいて、外骨格ロボット220の動作を制御する(ステップS402)。
【0109】
[3.その他]
次に、
図31を用いて、実施形態に係る処理結果を利用者の端末装置に表示する際の画面例について説明する。
図31は、実施形態に係る処理結果を利用者の端末装置に表示する際の画面の一例を示す図である。
図31に示す例では、端末装置20は、情報処理装置100によって推定されたユーザの手指の姿勢や位置に関する情報と、お手本となる手指の姿勢や位置に関する情報とを比較可能に表示する。
図31では、端末装置20の画面の左側の「You」で示される手の画像が、ユーザの手指の姿勢や位置に関する情報に相当する。また、端末装置20の画面の右側の「Teacher」で示される手の画像が、お手本となる手指の姿勢や位置に関する情報に相当する。また、端末装置20は、情報処理装置100によって推定されたユーザの手指の姿勢や位置に関する情報と、過去のユーザの手指の姿勢や位置に関する情報とを比較可能に表示してもよい。例えば、端末装置20は、情報処理装置100によって推定されたユーザの手指の姿勢や位置に関する画像を画面の左側に表示し、過去のユーザの手指の姿勢や位置に関する画像を画面の右側に表示する。また、端末装置20は、動作中の手指の動画を比較可能に表示してもよいし、ある瞬間の手指の静止画を比較可能に表示してもよい。このように、端末装置20は、情報処理装置100によって推定されたユーザの手指の姿勢や位置に関する情報を表示する。
【0110】
次に、
図32を用いて、実施形態に係る処理結果を利用者の端末装置に表示する際の画面例について説明する。
図32は、実施形態に係る処理結果を利用者の端末装置に表示する際の画面の一例を示す図である。
図32に示す例では、例えば、端末装置20は、情報処理装置100によって推定されたユーザの手指の動作とお手本となる手指の動作との差分を動画像によって表示する。また、端末装置20は、情報処理装置100によって推定されたユーザの手指の先端の速度などの3次元特徴量と、お手本となる手指の先端の速度などの3次元特徴量とを比較可能に表示する。また、端末装置20は、情報処理装置100によって推定されたユーザの手指の動作と過去のユーザの手指の動作との差分を動画像によって表示してもよい。例えば、端末装置20は、情報処理装置100によって推定されたユーザの手指の先端の速度などの3次元特徴量と、過去のユーザの手指の先端の速度などの3次元特徴量とを比較可能に表示する。また、端末装置20は、AR(Augmented Reality)グラスやHMD(Head Mounted Display)であってもよい。ユーザはARグラスやHMDである端末装置20を装着する。そして、端末装置20は、お手本となる手指の動作や過去のユーザの手指の動作の画像を実際に動作するユーザの手指にARによって重畳して表示する。これにより、端末装置20は、より具体的にユーザに対して情報を提示することができる。
【0111】
[4.効果]
上述したように、第1の実施形態及び第2の実施形態及び変形例に係る情報処理装置は、検出部と推定部を備える。検出部は、手指の少なくとも一部の関節の角度を非接触で検出する。推定部は、検出部で検出された関節の角度に基づいて、手指の姿勢を推定する。
【0112】
これにより、情報処理装置は、非接触で検出するため、指先の細かな感覚や手指の巧緻動作を阻害することなく、手指の関節の角度を検出することができる。したがって、情報処理装置は、手指の動作を適切に計測することができる。
【0113】
また、検出部は、非接触センサを含み、関節の角度に応じて変化する非接触センサから手指までの距離を検出し、検出した距離に基づいて関節の角度を検出する。また、非接触センサは、光を照射する発光素子と、光の反射光を検出する受光素子とを備える。発光素子は、手指の節に対して光を照射する。受光素子は、手指の節による光の反射光を検出する。検出部は、受光素子によって検出された反射光の強度に基づいて、手指までの距離を検出する。
【0114】
これにより、情報処理装置は、関節にセンサを取り付けて関節の角度を直接的に検出する代わりに、非接触センサから手指までの距離を検出することで、関節の角度を間接的に(すなわち、非接触に)検出することを可能にする。
【0115】
また、非接触センサは、人差し指、中指、薬指及び小指のうちの少なくとも1つの中節に設けられる。発光素子は、手指の末節及び基節のうちの少なくとも一方に対して光を照射する。受光素子は、手指の末節及び基節のうちの少なくとも一方による光の反射光を検出する。検出部は、反射光の強度に基づいて算出された手指の末節と非接触センサとの距離に基づいて、手指の中節に対する手指の末節の相対角度を手指のDIP関節の角度として算出する。推定部は、手指の中節に対する手指の基節の相対角度を手指のPIP関節の角度として算出し、手指のDIP関節の角度とPIP関節の角度とに基づいて、手指の姿勢を推定する。
【0116】
これにより、情報処理装置は、手指の末節及び基節にセンサを取り付けることなく、非接触に手指のDIP関節の角度とPIP関節の角度を検出することができる。
【0117】
また、情報処理装置は、手指の中節の重力方向に対する傾きを検出するための第1姿勢センサをさらに備える。推定部は、手指のPIP関節の角度と、第1姿勢センサによって検出された手指の中節の重力方向に対する傾きとに基づいて、手指のMP関節の角度を算出する。また、情報処理装置は、手背の重力方向に対する傾きを検出するための第2姿勢センサをさらに備える。推定部は、第2姿勢センサによって検出された手背の重力方向に対する傾きに基づいて、手背に対する手指の基節の相対角度をMP関節の角度として算出する。
【0118】
これにより、情報処理装置は、MP関節にセンサを取り付けることなく、非接触にMP関節の角度を算出することができる。
【0119】
また、第2姿勢センサは、手背のうち、人差し指と中指の基骨上であって、MP関節から手首の間の領域に設けられる。
【0120】
これにより、情報処理装置は、掌部の湾曲や親指の動作の影響を受けないように手背の重力方向に対する傾きを検出することができる。
【0121】
また、情報処理装置は、手首の重力方向に対する傾きを検出するための第3姿勢センサをさらに備える。推定部は、第3姿勢センサによって検出された手首の重力方向に対する傾きと、第2姿勢センサによって検出された手背の重力方向に対する傾きとに基づいて、手背に対する手首の重力方向に対する傾きを手首の傾き角度として算出する。
【0122】
これにより、情報処理装置は、手首の姿勢を推定することができるため、手指の姿勢の推定精度をさらに向上させることができる。
【0123】
また、第1姿勢センサは、手指の内転または外転の重力方向に対する傾きを検出する。第2姿勢センサは、掌部の内転または外転の重力方向に対する傾きを検出する。推定部は、第1姿勢センサによって検出された手指の内転または外転の重力方向に対する傾きと、第2姿勢センサによって検出された掌部の内転または外転の重力方向に対する傾きとに基づいて、手背に対する手指の内転または外転の相対角度に関する情報を算出する。
【0124】
これにより、情報処理装置は、手指の内転または外転の角度を比較的低拘束に推定することができる。
【0125】
また、第1姿勢センサは、9軸センサである。また、第2姿勢センサは、9軸センサである。また、第3姿勢センサは、9軸センサである。
【0126】
これにより、情報処理装置は、手指の中節の重力方向に対する傾き、手背の重力方向に対する傾き、および手首の重力方向に対する傾きを適切に検出することができる。
【0127】
また、情報処理装置は、平行リンクを用いた二重平行四辺形構造のRCM(Remote Center of Motion)機構と、手指の内転または外転の回転に合わせてRCM機構を回転させる回転機構と、RCM機構が備える2つの平行四辺形構造の連結点と対角に位置する第1頂点に対して固定され、手指を保持する保持部材と、連結点と対角に位置する第2頂点に一方の端が固定された第1リンクと、第1リンクの他端に第1球ジョイントにより一方の端が連結された第2リンクと、第2リンクの他端に第2球ジョイントにより一方の端が連結された第3リンクと、を備え、第1リンクと第2リンクと第3リンクとは、4節リンク構造を構成する、外骨格ロボットをさらに備える。また、外骨格ロボットは、モータをさらに備え、第3リンクの他端は、モータの回転軸に固定される。
【0128】
これにより、情報処理装置は、外骨格ロボットの駆動伝達部の摩擦抵抗を小さくし、手指の内転・外転の自由度を向上させることができるので、外骨格ロボットの装着者に対してより滑らかで自然な手指の動作を再現することができる。したがって、情報処理装置は、手指の動作を適切に計測したうえで、計測した手指の動作をユーザに対して適切に再現することができる。
【0129】
また、回転機構の回転軸とRCM機構の回転軸とが、外骨格ロボットの装着者の手首に近い方から回転機構の回転軸、RCM機構の回転軸の順に配置される。また、回転機構の回転軸は、外骨格ロボットの装着者の手指のMP関節に位置し、RCM機構の回転軸は、外骨格ロボットの装着者の手指のMP関節からPIP関節を臨む方向に手指のMP関節から所定の範囲内に位置する。
【0130】
これにより、情報処理装置は、手首側から見ると、手指の内転または外転の自由度の回転軸、RCM機構という順番で装置の自由度が配置されているため、本来の手指の動きと同じように、手指をガイドすることができる。すなわち、情報処理装置は、手指のMP関節に基づく手指の内転または外転の動きと、手指のMP関節やPIP関節、DIP関節に基づく手指を曲げ伸ばしする動きとを、本来の手指の動きと同じようにガイドすることができる。
【0131】
また、推定部は、外骨格ロボットの状態と、検出部で検出された関節の角度に基づいて、手指の姿勢を推定する。
【0132】
これにより、情報処理装置は、より適切に手指の姿勢を推定することができる。
【0133】
[5.ハードウェア構成]
上述してきた実施形態や変形例に係る情報処理装置100等の情報機器は、例えば
図33に示すような構成のコンピュータ1000によって実現される。
図33は、情報処理装置100等の情報処理装置の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。以下、上述の実施形態又はその変形例に係る情報処理装置100を例に挙げて説明する。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
【0134】
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
【0135】
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
【0136】
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1350の一例である本開示の一実施形態又はその変形例に係る情報処理プログラムを記録する記録媒体である。
【0137】
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
【0138】
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
【0139】
例えば、コンピュータ1000が上述の実施形態又はその変形例に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、制御部150等の機能を実現する。また、HDD1400には、本開示の一実施形態又はその変形例に係る情報処理プログラムや、記憶部130内のデータが格納される。なお、CPU1100は、プログラムデータ1350をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
【0140】
なお、本技術は以下のような構成も取ることができる。
(1)
手指の少なくとも一部の関節の角度を非接触で検出する検出部と、
前記検出部で検出された前記関節の角度に基づいて、前記手指の姿勢を推定する推定部と、
を備える情報処理装置。
(2)
前記検出部は、非接触センサを含み、前記関節の角度に応じて変化する前記非接触センサから前記手指までの距離を検出し、検出した前記距離に基づいて前記関節の角度を検出する、
前記(1)に記載の情報処理装置。
(3)
前記非接触センサは、光を照射する発光素子と、前記光の反射光を検出する受光素子とを備え、
前記発光素子は、前記手指の節に対して光を照射し、
前記受光素子は、前記手指の節による前記光の反射光を検出し、
前記検出部は、
前記受光素子によって検出された反射光の強度に基づいて、前記手指までの距離を検出する、
前記(2)に記載の情報処理装置。
(4)
前記非接触センサは、人差し指、中指、薬指及び小指のうちの少なくとも1つの中節に設けられ、
前記発光素子は、前記手指の末節及び基節のうちの少なくとも一方に対して光を照射し、
前記受光素子は、前記手指の末節及び基節のうちの少なくとも一方による前記光の反射光を検出し、
前記検出部は、
前記反射光の強度に基づいて算出された前記手指の末節と前記非接触センサとの距離に基づいて、前記手指の中節に対する前記手指の末節の相対角度を前記手指のDIP関節の角度として算出し、
前記推定部は、
前記手指の中節に対する前記手指の基節の相対角度を前記手指のPIP関節の角度として算出し、前記手指の前記DIP関節の角度と前記PIP関節の角度とに基づいて、前記手指の姿勢を推定する、
前記(3)に記載の情報処理装置。
(5)
前記手指の中節の重力方向に対する傾きを検出するための第1姿勢センサをさらに備え、
前記推定部は、
前記手指のPIP関節の角度と、前記第1姿勢センサによって検出された前記手指の中節の前記重力方向に対する傾きとに基づいて、前記手指のMP関節の角度を算出する、
前記(4)に記載の情報処理装置。
(6)
手背の重力方向に対する傾きを検出するための第2姿勢センサをさらに備え、
前記推定部は、
前記第2姿勢センサによって検出された前記手背の前記重力方向に対する傾きに基づいて、前記手背に対する前記手指の基節の相対角度を前記MP関節の角度として算出する、
前記(5)に記載の情報処理装置。
(7)
前記第2姿勢センサは、手背のうち、人差し指と中指の基骨上であって、MP関節から手首の間の領域に設けられる、
前記(6)に記載の情報処理装置。
(8)
手首の重力方向に対する傾きを検出するための第3姿勢センサをさらに備え、
前記推定部は、
前記第3姿勢センサによって検出された前記手首の重力方向に対する傾きと、前記第2姿勢センサによって検出された前記手背の重力方向に対する傾きとに基づいて、前記手背に対する前記手首の重力方向に対する傾きを前記手首の傾き角度として算出する、
前記(6)に記載の情報処理装置。
(9)
前記第1姿勢センサは、前記手指の内転または外転の前記重力方向に対する傾きを検出し、
前記第2姿勢センサは、掌部の内転または外転の前記重力方向に対する傾きを検出し、
前記推定部は、
前記第1姿勢センサによって検出された前記手指の内転または外転の前記重力方向に対する傾きと、前記第2姿勢センサによって検出された前記掌部の内転または外転の前記重力方向に対する傾きとに基づいて、前記手背に対する前記手指の内転または外転の相対角度に関する情報を算出する、
前記(6)に記載の情報処理装置。
(10)
前記第1姿勢センサは、9軸センサである
前記(5)~(9)のいずれか1つに記載の情報処理装置。
(11)
前記第2姿勢センサは、9軸センサである
前記(6)~(9)のいずれか1つに記載の情報処理装置。
(12)
前記第3姿勢センサは、9軸センサである
前記(8)に記載の情報処理装置。
(13)
平行リンクを用いた二重平行四辺形構造のRCM(Remote Center of Motion)機構と、
手指の内転または外転の回転に合わせて前記RCM機構を回転させる回転機構と、
前記RCM機構が備える2つの平行四辺形構造の連結点と対角に位置する第1頂点に対して固定され、手指を保持する保持部材と、
前記連結点と対角に位置する第2頂点に一方の端が固定された第1リンクと、
前記第1リンクの他端に第1球ジョイントにより一方の端が連結された第2リンクと、
前記第2リンクの他端に第2球ジョイントにより一方の端が連結された第3リンクと、
を備え、
前記第1リンクと前記第2リンクと前記第3リンクとは、4節リンク構造を構成する、
外骨格ロボットをさらに備える、
前記(1)~(12)のいずれか1つに記載の情報処理装置。
(14)
前記外骨格ロボットは、モータをさらに備え、
前記第3リンクの他端は、前記モータの回転軸に固定される、
前記(13)に記載の情報処理装置。
(15)
前記回転機構の回転軸と前記RCM機構の回転軸とが、前記外骨格ロボットの装着者の手首に近い方から前記回転機構の回転軸、前記RCM機構の回転軸の順に配置される、
前記(13)または(14)に記載の情報処理装置。
(16)
前記回転機構の回転軸は、前記外骨格ロボットの装着者の手指のMP関節に位置し、
前記RCM機構の回転軸は、前記外骨格ロボットの装着者の手指のMP関節からPIP関節を臨む方向に前記手指のMP関節から所定の範囲内に位置する、
前記(13)~(15)のいずれか1つに記載の情報処理装置。
(17)
前記推定部は、前記外骨格ロボットの状態と、前記検出部で検出された前記関節の角度に基づいて、前記手指の姿勢を推定する
前記(13)~(16)のいずれか1つに記載の情報処理装置。
(18)
手指の少なくとも一部の関節の角度を非接触で検出し、
検出した前記関節の角度に基づいて、前記手指の姿勢を推定する
ことを含む情報処理方法。
(19)
手指の少なくとも一部の関節の角度を非接触で検出する検出処理と、
前記検出処理で検出された前記関節の角度に基づいて、前記手指の姿勢を推定する推定処理と、
をコンピュータに実行させるための情報処理プログラム。
【符号の説明】
【0141】
1 情報処理システム
10 アプリサーバ
20 端末装置
100 情報処理装置
110 手指センサ
120 外骨格ロボット
121 駆動部
122 センサ
130 記憶部
140 通信部
150 制御部
151 センサ情報処理部
152 推定部
153 駆動制御部
154 送信部