【実施例1】
【0011】
図1は、本実施例に係る眼鏡型ウェアラブル装置の外形の説明図であり、
図1(a)は上面図、
図1(b)は正面図である。眼鏡型ウェアラブル装置1は、可視光カメラ2と、デプスカメラ3と、加速度センサー4とを備える。可視光カメラ2とデプスカメラ3は、眼鏡型ウェアラブル装置1の前面に配置する。加速度センサー4は、患者にとって眼鏡型ウェアラブル装置1の装着の邪魔にならない場所(たとえば眼鏡型ウェアラブル装置1の前面)に配置する。
【0012】
図2は、本実施例に係る眼鏡型ウェアラブル装置のハードウェア構成を示すブロック図である。眼鏡型ウェアラブル装置1は、CPU201と、RAM202と、ROM203と、液晶表示素子204と、可視光カメラ2と、デプスカメラ3と、加速度センサー4とを備える。これらの構成要素は共通のバスを介して互いに接続されている。
CPU201と、RAM202と、ROM203は、互いにデータを送受信することが可能である。CPU201は、ROM203に格納されている各種プログラムをRAM202に展開し、当該展開したプログラムを実行する。これによりCPU201は、各構成要素を統括的に統御し、眼鏡型ウェアラブル装置1を動作させる。
CPU201はRAM202上に展開されたプログラムを実行する過程で、可視光カメラ2やデプスカメラ3や加速度センサー4を制御し、可視光カメラ2からは可視光画像を、デプスカメラ3からは奥行き画像を、加速度センサー4からは加速度の方向と大きさとを示すデータを取得する。当該取得したデータは、RAM202やROM203に保存される。
また、CPU201はRAM202上に展開されたプログラムを実行する過程で、RAM202上に視覚的目印の画像データを作成し、当該作成した画像データに基づき液晶表示素子204に視覚的目印を表示する。
【0013】
図3は、本実施例におけるソフトウェアモジュールの構成を示すブロック図である。
可視光画像データ取得部301は、可視光カメラ2を制御して撮像を行い、可視光画像データを取得する。当該取得した可視光画像データは、RAM202上の領域に保存され、足部領域検出部304に渡される。
奥行き画像データ取得部302は、デプスカメラ3を制御して撮像を行い、奥行き画像データを取得する。当該取得した奥行き画像データは、RAM202上の領域に保存され、足部領域検出部304と床面検出部305とに渡される。
加速度情報取得部303は、加速度センサー4を制御し、加速度の方向と大きさとを示すデータを取得する。当該取得したデータは、RAM202上の領域に保存され、床面検出部305に渡される。
足部領域検出部304は、可視光画像データ取得部301から可視光画像データ、および、奥行き画像データ取得部302から奥行き画像データを受け取る。そして、足部領域検出部304は、あらかじめROM202上に登録されていた患者の足部画像データを利用して、可視光画像および奥行き画像における患者の足部に相当する領域(以下、足部領域とする)を検出する(詳細は後述する)。可視光画像における足部領域を示す情報は視覚的目印描画部306へ渡され、奥行き画像における足部領域を示す情報は床面検出部305へ渡される。
床面検出部305は、奥行き画像データ取得部302から奥行き画像データを、加速度情報取得部303から加速度の方向と大きさとを示すデータのアドレスを受け取り、これらのデータに基づいて、奥行き画像における床面領域を検出する(詳細は後述する)。当該領域を示す情報は視覚的目印描画部306へ渡される。
視覚的目印描画部306は、足部領域検出部304から可視光画像における患者の足部領域を示す情報(位置)を、床面検出部305から奥行き画像における床面領域を示す情報(位置)を受け取り、これらの情報に基づいて、患者の足部前方の床面に限定して、視覚的目印(例えば、患者の進行方向に対して垂直方向に伸長する線分)を表示する。
【0014】
図4は、本実施例における視覚的目印表示に至る処理のフローチャートである。
ステップS401において、可視光画像データ、奥行き画像データ、および加速度の方向と大きさとを示すデータを取得する。即ち、可視光画像データ取得部301は、可視光カメラ2を制御して撮像を行い、可視光画像データを取得する。また、奥行き画像データ取得部302は、デプスカメラ3を制御して撮像を行い、奥行き画像データを取得する。さらに、加速度情報取得部303は、加速度センサー4を制御し、加速度の方向と大きさとを示すデータを取得する。
ステップS402において、足部領域検出部304は、可視光画像データおよび奥行き画像データ、ならびに、あらかじめROM202上に登録されていた患者の足部画像データに基づき、足部領域の検出を試みる。具体的には、ROM202上に登録されていたテンプレートとなる患者の足部画像データを、可視光画像データ、および、奥行画像データの中から検索し、可視光画像における足部領域、および、奥行き画像における足部領域の検出を試みる。
ステップS403において、足部領域検出部304は、患者の視野内に足部領域を検出したか否かを判定する。当該判定の結果、足部領域を検出した場合、ステップS404に進む。一方、当該判定の結果、足部領域を検出しなかった場合、一連の処理は終了する。
ステップS404において、床面検出部305は、奥行き画像データ、および、加速度の方向と大きさとを示すデータに基づき、床面領域を検出する。加速度センサーを用いて取得した加速度の方向は、近似的に重力加速度の方向と同じであるとみなすことができる。奥行き画像データは各画素が距離値を持つ画像データであり、その数学的な実体は三次元空間上の点群である。奥行き画像内部の平面を抽出するためには、例えばRANSAC(Random Sample Consensus)法と呼ばれる、三次元空間上の点群から、任意の方程式系によって定まる図形の上に存在する点の集合を取得する方法を用いることができる。本実施例では奥行き画像データに対してRANSAC法を繰り返し適用し、奥行き画像データ内部に存在する平面をすべて抽出する。抽出した平面群から、重力加速度の方向に垂直な平面を選び出すことで、患者の視野内に存在する水平面リスト(床面や机、棚など)が得られる。最後に、当該水平面リストの中から、足部領域検出部304から受け取った奥行き画像データに基づき、奥行き画像における患者足部領域の位置情報を利用して、患者足部と奥行き距離が最も近い水平面を選択することで、奥行き画像データ内部で床面の領域を検出することができる。
ステップS405において、視覚的目印描画部306は、可視光画像における足部領域の情報(位置)と、奥行き画像における床面領域の情報(位置)とに基づいて、患者の足部前方の床面に限定して、視覚的目印(患者の進行方向に垂直な線分)を描画する。この視覚的目印は、眼鏡型ウェアラブル装置1を透過して患者が見ている視界の像に重ね書き(オーバーレイ)して表示される。
【0015】
図4のフローチャートに示す述べた視覚的目印表示処理を、ビデオレートで繰り返すことで、患者の移動や頭の動きに追随して、リアルタイムに視覚的目印の表示を更新する。
【0016】
図5に、本実施例に係る眼鏡型ウェアラブル装置の使用の状況を説明するイラストを示す。
図5(a)は、装置使用時の患者の姿勢と周囲の環境の例である。
図5(b)は、
図5(a)の状況で眼鏡型ウェアラブル装置1を装着しない場合の患者の視界である。
図5(b)の下端には、患者の両足つま先が見えている。
図5(c)は、
図5(a)の状況で眼鏡型ウェアラブル装置1を装着した場合の患者の視界であり、患者の足元の進行方向には、視界に重ね書き(オーバーレイ)して表示された視覚的目印(患者の進行方向に対して垂直方向に伸長する線分)が見えている。
【0017】
本発明では、奇異性歩行を誘発するための視覚的目印を、患者の視野内において患者の足元の床面上に自動表示し、且つ、その表示の内容を患者の移動や頭の動きに従ってリアルタイムに更新する。これにより、パーキンソン病患者が歩行する際に、奇異性歩行が誘発され、パーキンソン病患者の歩行障害が改善する。
本発明の眼鏡型ウェアラブル装置により、奇異性歩行を誘発する視覚的目印を、患者の操作を必要とせずに自動で、患者の視界に表示できる。
また本発明では、患者の進行方向の床面と患者の足部は、デプスカメラと可視光カメラによってリアルタイムに検出され、当該検出結果に基づいて、奇異性歩行を誘発するのに必要なタイミング(例えば歩行中に足を踏み出す直前)でのみ視覚的目印を表示することが可能である。従って、歩行する患者の足部前方の狭い床面以外の場所に視覚的目印が表示されることはなく、患者の視界を遮ることがない。
さらに、デプスカメラは患者の頭に装着する眼鏡型ウェアラブル装置に固定されているため、患者が移動したり、頭を動かしたりしても、患者の動きに追随して患者の見ている視野内の最適な場所にのみ、視覚的目印を表示できる 。