(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0029】
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
また、本発明は、以下に説明する電子眼鏡に限定されるものではなく、他の入出力装置、表示装置、テレビジョン、モニタ、プロジェクタ等にも適用することができる。
【0030】
(電子眼鏡の構成概略)
図1は、本実施の形態にかかる電子眼鏡100の基本構成の一例を示す模式的外観正面図であり、
図2は、電子眼鏡100の一例を示す模式的外観斜視図である。
【0031】
図1または
図2に示すように、電子眼鏡100は、眼鏡型の表示装置である。当該電子眼鏡100は、後述するように、ユーザの顔に装着して使用される。
【0032】
図1および
図2に示すように、電子眼鏡100は、主に、眼鏡ユニット200、通信システム300および操作システム400からなる。
【0033】
(眼鏡ユニット200)
図1および
図2に示すように、眼鏡ユニット200は、眼鏡フレーム210、一対の没入型ディスプレイ220および一対の表示調整機構600からなる。眼鏡フレーム210は、主にリムユニット211、テンプルユニット212を含む。
眼鏡フレーム210のリムユニット211により一対の没入型ディスプレイ220が支持される。また、リムユニット211には、一対の表示調整機構600が設けられる。さらに、リムユニット211には、赤外線検知ユニット410およびユニット調整機構500が設けられる。ユニット調整機構500の詳細については後述する。
一対の表示調整機構600は、後述するように一対の没入型ディスプレイ220の角度および位置を調整することができる。一対の表示調整機構600の詳細については、後述する。
【0034】
本実施の形態においては、電子眼鏡100には、リムユニット211の一対の表示調整機構600に一対の没入型ディスプレイ220を設けることとしているが、これに限定されず、電子眼鏡100のリムユニット211の一対の表示調整機構600に通常のサングラスレンズ、紫外線カットレンズ、または眼鏡レンズなどのレンズ類を設け、別に1個の没入型ディスプレイ220または一対の没入型ディスプレイ220を設けてもよい。
【0035】
また、当該レンズ類の一部に、没入型ディスプレイ220を埋め込んで設けてもよい。
また、一対の表示調整機構600を没入型ディスプレイ220の側部に設けているが、これに限定されず、没入型ディスプレイ220の周囲または内部に設けてもよい。
【0036】
さらに、本実施の形態は、眼鏡タイプに限定するものではなく、人体に装着し、装着者の視野に配設できるタイプであれば、帽子タイプその他任意のヘッドマウントディスプレイ装置に使用することができる。
さらに、本実施の形態においては、眼鏡形状の電子眼鏡100を例示したが、これに限定されず、1個または1対の鏡筒状の部材内に電子眼鏡100の機能を含めて形成してもよい。また、当該鏡筒状の部材は、取り外し可能であってもよい。
【0037】
(通信システム300)
次に、通信システム300について説明を行なう。
通信システム300は、バッテリーユニット301、アンテナモジュール302、カメラユニット303、スピーカユニット304、GPS(Global Positioning System)ユニット307、マイクユニット308、SIM(Subscriber Identity Module Card)ユニット309およびメインユニット310を含む。
【0038】
なお、カメラユニット303にはCCDセンサが備えられてもよい。スピーカユニット304は、ノーマルイヤホンであってもよいし、骨伝導イヤホンであってもよい。SIMユニット309には、NFC(Near Field Communication:近距離無線通信)ユニットおよび他の接触式ICカードユニット、ならびに非接触式ICカードユニットを含んでもよい。
また、マイクユニット308は、音声マイクのみならず、骨伝導マイクであってもよく、両者を含んでもよい。さらに、マイクユニット308は、電子眼鏡100から取り外し可能に設けられていてもよい。
【0039】
以上のように、本実施の形態にかかる通信システム300は、少なくとも携帯電話、スマートフォンおよびタブレット端末のいずれかの機能を含むものである。具体的には、電話機能、インターネット機能、ブラウザ機能、メール機能、および撮像機能(録画機能を含む)等を含むものである。
したがって、ユーザは、電子眼鏡100を用いて、通信装置、スピーカおよびマイクにより、携帯電話と同様の通話機能を使用することができる。また、眼鏡型であるので、両手を利用せず、通話を行なうことができる。
【0040】
なお、本実施の形態においては、電話機能、インターネット機能、ブラウザ機能、メール機能、および撮像機能(録画機能を含む)等を含むこととしているが、これに限定されず、通信により外部に当該機能を有する外部機器を有してもよい。
【0041】
また、当該通信機能を用いて、他の電子眼鏡100の画像を表示させることができる画像共有機能を設けてもよい。すなわち、リアルタイム画像の出力および画像を他の電子眼鏡100と共有することができる機能を有してもよい。
【0042】
(操作システム400)
続いて、操作システム400は、赤外線検知ユニット410、ジャイロセンサユニット420、加速度検知ユニット430および制御ユニット450からなる。赤外線検知ユニット410は、主に赤外線照射素子411および赤外線検知カメラ412からなる。
【0043】
なお、本実施の形態においては、赤外線照射素子411および赤外線検知カメラ412からなることとしているが、これに限定されず、近赤外線照射素子および近赤外線検知カメラを設けてもよい。
さらに、その他、近赤外線、赤外線に限定されず、他の周波数の照射素子、他の周波数の検知カメラを設けてもよく、また、特定の波長設定が可能な照射素子、特定の波長設定が可能な検知カメラを設けてもよい。
【0044】
(ユニット調整機構500)
図2に示すように、ユニット調整機構500は、赤外線検知ユニット410の角度を調整することができる。具体的には、ユニット調整機構500は、矢印V5の水平軸周り、および、矢印H5の垂直軸周り、に赤外線検知ユニット410の角度を調整可能な構造である。
【0045】
ユニット調整機構500は、制御ユニット450からの指示により赤外線検知ユニット410を矢印V5および矢印H5の方向に移動調整する。
例えば、制御ユニット450により所定のジェスチャを認識した場合に、ユニット調整機構500を所定の角度で動作させてもよい。その場合、ユーザは、所定のジェスチャを行うことにより赤外線検知ユニット410の角度の調整を行うことができる。
【0046】
なお、本実施の形態においては制御ユニット450によりユニット調整機構500が動作することとしているが、これに限定されず、手動により
図1の調整部520を操作して、矢印V5の方向および矢印H5の方向に移動調整できることとしてもよい。
【0047】
続いて、操作システム400の構成、処理の流れおよび概念について説明を行なう。
図3は、操作システム400の制御ユニット450の構成の一例を示す模式図である。
【0048】
図3に示すように、制御ユニット450は、イメージセンサ演算ユニット451、デプスマップ演算ユニット452、イメージ処理ユニット453、解剖学的認識ユニット454、ジェスチャデータ記録ユニット455、ジェスチャ識別ユニット456、キャリブレーションデータ記録ユニット457、合成演算ユニット458、アプリケーションソフトユニット459、イベントサービスユニット460、キャリブレーションサービスユニット461、表示サービスユニット462、グラフィック演算ユニット463、ディスプレイ演算ユニット464、6軸駆動ドライバユニット465、赤外線照射ユニット466、赤外線撮影ユニット467、音声認識ユニット468、および骨伝導装置ユニット469を含む。
【0049】
なお、制御ユニット450は、上記の全てを含む必要はなく、適宜必要な1または複数のユニットを含んでもよい。例えば、ジェスチャデータ記録ユニット455およびキャリブレーションデータ記録ユニット457は、クラウド上に配置してもよく、合成演算ユニット458を特に設けなくてもよい。
【0050】
次に、
図4は、操作システム400における処理の流れを示すフローチャートであり、
図5は一対の没入型ディスプレイで表示される画像の一例を示す模式図である。
【0051】
まず、
図4に示すように、赤外線検知ユニット410から対象のデータを取得し、デプスマップ演算ユニット452により深さ演算を行なう(ステップS1)。次に、イメージ処理ユニット453により外形イメージデータを処理する(ステップS2)。
【0052】
次いで、解剖学的認識ユニット454により、標準的な人体の構造に基づき、ステップS2において処理された外形イメージデータから、解剖学的特徴を識別する。これにより、人体の手または腕、指などの外形が認識される(ステップS3)。
【0053】
さらに、ジェスチャ識別ユニット456により、ステップS3で得た解剖学的特徴に基づいてジェスチャを識別する(ステップS4)。
ジェスチャ識別ユニット456は、ジェスチャデータ記録ユニット455に記録されたジェスチャデータを参照し、解剖学的特徴が識別された外形からジェスチャの識別を行なう。なお、ジェスチャ識別ユニット456は、ジェスチャデータ記録ユニット455からのジェスチャデータを参照することとしているが、参照することに限定されず、他の任意のデータを参照してもよく、全く参照することなく処理してもよい。
以上の処理により、
図5(a)に示すように、手H1のジェスチャを認識する。
【0054】
続いて、アプリケーションソフトユニット459およびイベントサービスユニット460は、ジェスチャ識別ユニット456により判定されたジェスチャに応じて所定のイベントを実施する(ステップS5)。
例えば、上述した
図5(a)の手H1を認識した後の一部の画像ZMの領域部分(図中点線)の設定である。
その他、
図5(b)に示すように、決定された一部の画像ZMが、ジェスチャに応じて拡大または縮小して表示される。具体的には、
図5(a)と比較して、
図5(b)では、植物が拡大して表示されている。
【0055】
最後に、表示サービスユニット462、キャリブレーションサービスユニット461、グラフィック演算ユニット463、ディスプレイ演算ユニット464および合成演算ユニット458により、没入型ディスプレイ220に、
図5(a)に示したように、画像ZMの周囲の画像領域OZMにおいて、ジェスチャを示す手H1の外郭を示す表示が行われる。また、ステップS5の処理の後、イメージ仮想表示が行われる(ステップS6)。
その他、ステップS5の処理に応じて、後述する3次元立体モデルDD等の表示が行なわれる。
【0056】
なお、6軸駆動ドライバユニット465は、常にジャイロセンサユニット420、加速度検知ユニット430からの信号を検知し、ディスプレイ演算ユニット464に姿勢状況を伝達する。
【0057】
電子眼鏡100を装着したユーザが電子眼鏡100を傾斜させた場合には、6軸駆動ドライバユニット465は、常にジャイロセンサユニット420、加速度検知ユニット430からの信号を受信し、イメージの表示の制御を行なう。当該制御においては、イメージの表示を水平に維持させてもよいし、イメージの表示を傾斜にあわせて調整してもよい。
また、6軸駆動ドライバユニット465は、画像ZMのぶれ抑制を行う。すなわち、画像ZM内で縮小した画像表示の場合には、ぶれ補正の効果が、大きく必要ではないが、画像ZM内で拡大した画像表示の場合には、ぶれ補正を行わないと、常に画像ZMが揺れて表示されるため、ユーザにとって不快感が生じる問題となるからである。
【0058】
(検知領域と仮想表示領域との一例)
次に、操作システム400の赤外線検知ユニット410の検知領域と、一対の没入型ディスプレイ220の仮想表示領域との関係について説明を行なう。
図6は、赤外線検知ユニット410の検知領域と、一対の没入型ディスプレイ220の仮想表示領域とを説明するための模式的斜視図であり、
図7は
図6の上面図であり、
図8は、
図6の側面図である。
【0059】
以下において、説明の便宜上、
図6に示すように、x軸、y軸およびz軸からなる三次元直交座標系が定義される。以下の図におけるx軸の矢印は、水平方向を指す。y軸の矢印は、鉛直方向またはユーザの体の長軸方向を指す。z軸の矢印は、深度方向を指す。z軸正方向は、より大きい深度の方向を指す。それぞれの矢印の向きは、他の図においても同じである。
【0060】
図6から
図8に示すように、電子眼鏡100は操作システム400の赤外線検知ユニット410により検知可能な三次元空間検知領域(3Dスペース)4103Dを有する。
三次元空間検知領域4103Dは、赤外線検知ユニット410からの円錐状または角錐状の三次元空間からなる。
【0061】
すなわち、赤外線検知ユニット410は、赤外線照射素子411から、照射された赤外線を、赤外線検知カメラ412により検知できるので、三次元空間検知領域4103D内のジェスチャを認識することができる。
また、本実施の形態においては、赤外線検知ユニット410を1個設けることとしているが、これに限定されず、赤外線検知ユニット410を複数個設けてもよいし、赤外線照射素子411を1個、赤外線検知カメラ412を複数個設けてもよい。
【0062】
続いて、
図6から
図8に示すように一対の没入型ディスプレイ220は、ユーザに、実際に設けられた電子眼鏡100の部分ではなく、電子眼鏡100から離れた場所となる仮想イメージ表示領域2203Dに、奥行きを持って仮想表示されたものとして視認させる。当該奥行きは、仮想イメージ表示領域2203Dが有する仮想立体形状の深度方向(z軸方向)の厚みに対応する。したがって、当該仮想立体形状の深度方向(z軸方向)の厚みに応じて奥行きが設けられる。
すなわち、実際には電子眼鏡100の没入型ディスプレイ220に表示されるものの、ユーザは、右目のイメージは右目側の没入型ディスプレイ220により三次元空間領域2203DRで認識し、左目のイメージは左目側の没入型ディスプレイ220により三次元空間領域2203DLで認識する。その結果、認識された両イメージがユーザの脳内で合成されることにより、仮想イメージ表示領域2203Dで仮想イメージとして認識することができる。
【0063】
また、仮想イメージ表示領域2203Dは、フレーム・シーケンシャル方式、偏光方式、直線偏光方式、円偏光方式、トップ・アンド・ボトム方式、サイド・バイ・サイド方式、アナグリフ方式、レンチキュラ方式、パララックス・バリア方式、液晶パララックス・バリア方式、2視差方式および3視差以上を利用する多視差方式のいずれかを利用して表示されてもよい。
【0064】
また、本実施の形態においては、仮想イメージ表示領域2203Dは、三次元空間検知領域4103Dと共有する空間領域を有する。特に、
図6および
図7に示すように、三次元空間検知領域4103Dの内部に、仮想イメージ表示領域2203Dが存在するため、仮想イメージ表示領域2203Dが共有領域となる。
【0065】
なお、仮想イメージ表示領域2203Dの形状およびサイズについては、一対の没入型ディスプレイ220への表示方法により任意に調整することができる。
また、
図8に示すように、一対の没入型ディスプレイ220よりも赤外線検知ユニット410が上方(y軸正方向)に配設されている場合について説明しているが、鉛直方向(y軸方向)に対して、赤外線検知ユニット410の配設位置が没入型ディスプレイ220よりも下方(y軸負方向)または没入型ディスプレイ220と同位置であっても、同様に、仮想イメージ表示領域2203Dは、三次元空間検知領域4103Dと共有する空間領域を有する。
【0066】
(操作領域とジェスチャ領域)
続いて、検知領域における操作領域とジェスチャ領域とについて説明する。
図9および
図10は、検知領域における操作領域と、ジェスチャ領域との一例を示す模式図である。
【0067】
まず、
図9に示すように、一般的に、ユーザは、右肩関節RPおよび左肩関節LPの両肩関節を回転中心として両手を水平移動させるため、両手の移動できる領域は、点線で囲まれた移動領域Lおよび移動領域Rとなる。
【0068】
また、
図10に示すように、一般的に、ユーザは、右肩関節RPおよび左肩関節LPの両肩関節を回転中心として両手を鉛直移動させるため、両手の移動できる領域は、点線で囲まれた移動領域Lおよび移動領域Rとなる。
【0069】
すなわち、
図9および
図10に示すように、ユーザは、両手を右肩関節RPおよび左肩関節LPをそれぞれ回転中心とした欠球状(深度方向に凸のアーチ状曲面を有する)の立体空間内で移動させることができる。
【0070】
次に、赤外線検知ユニット410による三次元空間検知領域4103Dと、仮想イメージ表示領域が存在しうる領域(
図9では仮想イメージ表示領域2203Dを例示)と、腕の移動領域Lおよび移動領域Rを合わせた領域との全てが重なる空間領域を、操作領域410cとして設定する。
また、三次元空間検知領域4103D内における操作領域410c以外の部分で、かつ腕の移動領域Lおよび移動領域Rを合わせた領域と重なる部分をジェスチャ領域410gとして設定する。
【0071】
ここで、操作領域410cが、深度方向に最も遠い面が深度方向(z軸正方向)に凸のアーチ状に湾曲した曲面である立体形状を有することに対し、仮想イメージ表示領域2203Dは、深度方向に最も遠い面が平面である立体形状を有する。このように両領域の間で当該面の形状が異なることに起因し、ユーザは、当該操作において体感的に違和感を覚える。当該違和感を取り除くためにキャリブレーション処理で調整を行なう。また、キャリブレーション処理の詳細については、後述する。
【0072】
(キャリブレーションの説明)
次いで、キャリブレーション処理について説明を行なう。
図11は、キャリブレーション処理の説明を行なうためのフローチャートである。
【0073】
図9および
図10に示したように、ユーザが仮想イメージ表示領域2203Dに沿って手を動かそうとすると、補助のない平面に沿って動作させる必要がある。したがって、後述する認識処理により仮想イメージ表示領域2203Dにおいて、操作をし易くするためにキャリブレーション処理を行なう。
また、キャリブレーション処理には、ユーザの個々で異なる指の長さ、手の長さ、腕の長さの調整も行なう。
【0074】
以下、
図11を用いて説明を行なう。まず、ユーザが、電子眼鏡100を装着し、両腕を最大限に伸張する。その結果、赤外線検知ユニット410が、操作領域410cの最大領域を認識する(ステップS11)。
すなわち、ユーザによりユーザの個々で異なる指の長さ、手の長さ、腕の長さが異なるので、操作領域410cの調整を行なうものである。
【0075】
次に、電子眼鏡100においては、仮想イメージ表示領域2203Dの表示位置を決定する(ステップS12)。すなわち、仮想イメージ表示領域2203Dを操作領域410cの外側に配置するとユーザによる操作が不可能となるため、操作領域410cの内部に配置する。
【0076】
続いて、電子眼鏡100の赤外線検知ユニット410の三次元空間検知領域4103D内で、かつ仮想イメージ表示領域2203Dの表示位置と重ならない位置に、ジェスチャ領域410gの最大領域を設定する(ステップS13)。
なお、ジェスチャ領域410gは、仮想イメージ表示領域2203Dと重ならないように配置しかつ深さ方向(z軸正方向)に厚みを持たせることが好ましい。
【0077】
本実施の形態においては、以上の手法により、操作領域410c、仮想イメージ表示領域2203D、ジェスチャ領域410gが設定される。
【0078】
続いて、操作領域410c内における仮想イメージ表示領域2203Dのキャリブレーションについて説明する。
【0079】
操作領域410c内の仮想イメージ表示領域2203Dの外部周囲にユーザの指、手、または腕が存在すると判定された場合に、あたかも仮想イメージ表示領域2203Dの内部に存在するように、丸め込みを行なう(ステップS14)。
【0080】
図9および
図10に示すように、没入型ディスプレイ220により仮想表示されたイメージの中央部近辺では、両腕を最大限に伸ばした状態にすると、両手先が仮想イメージ表示領域2203D内に留まることなく深さ方向(z軸正方向)の外部へ外れてしまう。また、仮想表示されたイメージの端部においては、両腕を最大限に伸ばさない限り、両手先が仮想イメージ表示領域2203D内に存在すると判定されない。
そのため、赤外線検知ユニット410からの信号を無処理のまま使用すると、ユーザは、手先が仮想イメージ表示領域2203Dから外れたとしても、そのような状態であることを体感しにくい。
【0081】
したがって、本実施の形態におけるステップS14の処理においては、仮想イメージ表示領域2203Dから外部へ突き出た手先が、仮想イメージ表示領域2203D内にあるものとして補正すべく、赤外線検知ユニット410からの信号を処理する。
その結果、ユーザは、両腕を最大限に伸ばした状態、または少し曲げた状態で、奥行きのある平面状の仮想イメージ表示領域2203D内の中央部から端部まで操作することができる。
【0082】
なお、本実施の形態においては、仮想イメージ表示領域2203Dを、深度方向に最も遠い面が平面である三次元空間領域からなることとしているが、これに限定されず、深度方向に最も遠い面領域L,Rの深度方向に最も遠い面に沿った形状の曲面である三次元空間領域からなることとしてもよい。
その結果、ユーザは、両腕を最大限に伸ばした状態、または少し曲げた状態で、奥行きのある平面状の仮想イメージ表示領域2203D内の中央部から端部まで操作することができる。
【0083】
さらに、没入型ディスプレイ220は、仮想イメージ表示領域2203Dに矩形状の像を表示させる(ステップS15)。
続いて、没入型ディスプレイ220に、像の周囲を指で囲んでくださいと、表示を行なう(ステップS16)。ここで、像の近傍に指の形の像を薄く表示してもよいし、没入型ディスプレイ220に表示を行なう代わりにスピーカから音声により指示をユーザに伝えてもよい。
【0084】
ユーザは、指示に従い指を像の見える部分にあわせる。そして、仮想イメージ表示領域2203Dの表示領域と、赤外線検知ユニット410との相関関係が自動調整される(ステップS17)。
なお、上記においては、指で矩形を形作り、そのように定められた矩形と、像の外縁の矩形にあわせる。このことによって、指により定められた矩形の視認サイズおよび位置と像の外縁の矩形の視認サイズ及び位置とを合わせることとした。
しかしながら、指によって形状を定める手法はこれに限定されず、表示された像の外縁を指でなぞる手法、表示された像の外縁上の複数の点を指で指し示す手法等、他の任意の手法であってもよい。また、これらの手法を複数のサイズの像について行ってもよい。
【0085】
なお、上記のキャリブレーション処理の説明においては、電子眼鏡100の場合についてのみ説明を行ったが、他の入出力装置の場合には、ステップS11の処理において、像を表示させ、ステップS17の処理の当該像と赤外線検知ユニット410との相関関係を調整してもよい。
【0086】
(指、掌、腕認識)
次いで、指認識について説明を行い、その後掌認識、腕認識の順で説明を行なう。
図12は、指認識の一例を示す模式図である。
図12において、(A)は指の先端付近の拡大図であり、(B)は指の根元付近の拡大図である。
図13は、指認識の処理の一例を示すフローチャートである。
【0087】
図13に示すように、本実施の形態においては、デバイスの初期化を行なう(ステップS21)。次に、赤外線照射素子411から照射され、手に反射した赤外線が、赤外線検知カメラ412により検出される(ステップS22)。
次に、赤外線検知ユニット410により画像データをピクセル単位で距離に置き換える(ステップS23)。この場合、赤外線の明るさは、距離の三乗に反比例する。これを利用し、デプスマップを作成する(ステップS24)。
【0088】
次いで、作成したデプスマップに適切な閾値を設ける。そして、画像データを二値化する(ステップS25)。すなわち、デプスマップのノイズを除去する。
続いて、二値化した画像データから約100個の頂点を持つポリゴンを作成する(ステップS26)。そして、頂点が滑らかになるようにローパスフィルタ(LPF)により、より多くの頂点p
nを有する新たな多角形を作成することによって、
図12に示す手の外形OFを抽出する(ステップS27)。
なお、本実施の形態においては、ステップS26において二値化したデータからポリゴンを作成するために抽出する頂点の数を約100個としているが、これに限定されず、1000個、その他の任意の個数であってもよい。
【0089】
ステップS27で作成した新たな多角形の頂点p
nの集合から、Convex Hullを用いて、凸包を抽出する(ステップS28)。
その後、ステップS27で作成された新たな多角形と、ステップS28で作成された凸包との共有の頂点p
0を抽出する(ステップS29)。このように抽出された共有の頂点p
0自体を指の先端点として用いることができる。
さらに、頂点p
0の位置に基づいて算出される他の点を指の先端点として用いてもよい。例えば、
図12(A)に示すように頂点p
0における外形OFの内接円の中心を先端点P0として算出することもできる。
【0090】
そして、
図12に示すように、頂点p
0に隣接する左右一対の頂点p
1を通る基準線分PP
1のベクトルを算出する。その後、頂点p
1と、隣接する頂点p
2とを結ぶ辺pp
2を選択し、そのベクトルを算出する。同様に、外形OFを構成する頂点p
nを用い、辺のベクトルを求める処理を外形OFの外周に沿って繰り返す。各辺の向きと基準線分PP
1の向きとを調べ、基準線分PP
1と平行に近くなる辺pp
kが指の股の位置に存在すると判定する。そして、辺pp
kの位置に基づき、指の根元点P1を算出する(ステップS30)。指の先端点P0と指の根元点P1とを直線で結ぶことで、指のスケルトンが得られる(ステップS31)。指のスケルトンを得ることで、指の延在方向を認識することができる。
全ての指について同様の処理を行なうことで、全ての指のスケルトンを得る。これにより、手のポーズを認識することができる。すなわち、親指、人差し指、中指、薬指、小指のいずれの指が広げられ、いずれの指が握られているかを認識することができる。
【0091】
続いて、直前に実施した数フレームの画像データと比較して、手のポーズの違いを検知する(ステップS32)。すなわち、直前の数フレームの画像データと比較することにより、手の動きを認識することができる。
【0092】
次いで、認識した手の形状を、ジェスチャデータとしてイベントサービスユニット460へイベント配送する(ステップS33)。
【0093】
次いで、アプリケーションソフトユニット459によりイベントに応じた振る舞いを実施する(ステップS34)。
【0094】
続いて、表示サービスユニット462により、三次元空間に描画を要求する(ステップS35)。
グラフィック演算ユニット463は、キャリブレーションサービスユニット461を用いてキャリブレーションデータ記録ユニット457を参照し、表示の補正を行なう(ステップS36)。
最後に、ディスプレイ演算ユニット464により没入型ディスプレイ220に表示を行なう(ステップS37)。
【0095】
なお、本実施の形態においては、ステップS30の処理およびステップS31の処理により指の根元点を検出したが、根元点の検出方法はこれに限定されない。例えば、まず、頂点p
0の一方の側と他方の側において隣接する一対の頂点p
1を結ぶ基準線分PP
1の長さを算出する。
次に、当該一方の側と他方の側における一対の頂点p
2間を結ぶ線分の長さを算出する。同様に、当該一方の側と他方の側における一対の頂点間を結ぶ線分の長さを、頂点p
0により近い位置にある頂点からより遠い位置にある頂点への順で算出していく。
【0096】
このような線分は、外形OF内で交わることなく、互いにおおよそ平行となる。当該線分の両端の頂点が指の部分にある場合は、線分の長さは指の幅に相当するため、その変化量は小さい。一方、線分の両端の頂点の少なくともいずれかが指の股の部分に達した場合は、当該長さの変化量が大きくなる。
したがって、当該長さの変化量が所定量を超えずかつ頂点p
0から最も遠い線分を検知し、検知された線分上の1点を抽出することによって、根元点を決定することができる。
【0097】
(掌認識)
次いで、
図14は、掌認識の一例を示す模式図である。
【0098】
図14に示すように、指認識を実施した後、画像データの外形OFに内接する最大内接円Cを抽出する。当該最大内接円Cの位置が、掌の位置として認識できる。
【0099】
次いで、
図15は、親指認識の一例を示す模式図である。
【0100】
図15に示すように、親指は、人差し指、中指、薬指、および小指の他の4指とは異なる特徴を有する。例えば、掌の位置を示す最大内接円Cの中心と各指の根元点P1とを結ぶ直線が相互になす角度θ1,θ2,θ3,θ4のうち、親指が関与するθ1が最も大きい傾向にある。
また、各指の先端点P0と各指の根元点P1とを結んだ直線が相互になす角度θ11,θ12,θ13,θ14のうち、親指が関与するθ11が最も大きい傾向にある。このような傾向に基づき親指の判定を行なう。その結果、右手か左手か、または掌の表か裏かを判定することができる。
【0101】
(腕認識)
次いで、腕認識について説明を行なう。本実施の形態において、腕認識は、指、掌および親指のいずれかを認識した後に実施する。なお、腕認識は、指、掌および親指のいずれかを認識する前、またはそれらの少なくともいずれかと同時に実施してもよい。
【0102】
本実施の形態においては、画像データの手の形のポリゴンよりも大きな領域でポリゴンを抽出する。例えば、長さ5cm以上100cm以下の範囲、より好ましくは、10cm以上40cm以下の範囲で、ステップS21からS27の処理を実施し、外形を抽出する。
その後、抽出した外形に外接する四角枠を選定する。本実施の形態においては、当該四角枠は、平行四辺形または長方形からなる。
この場合、平行四辺形または長方形は、対向する長辺を有するので、長辺の延在方向から腕の延在方向を認識することができ、長辺の向きから腕の向きを判定することが出来る。なお、ステップS32の処理と同様に、直前の数フレームの画像データと比較して、腕の動きを検知させてもよい。
【0103】
なお、上記の説明においては、2次元像から指、掌、親指、腕を検出することとしているが、上記に限定されず、赤外線検知ユニット410をさらに増設してもよく、赤外線検知カメラ412のみをさらに増設し、2次元像から、3次元像を認識させてもよい。その結果、さらに認識確度を高めることができる。
【0104】
(没入型ディスプレイの表示例)
次に、
図16、17は、電子眼鏡100の没入型ディスプレイ220の表示の一例を示す模式図であり、
図18は、手術時における電子眼鏡100の処理の一例を示すフローチャートである。以下、電子眼鏡100を手術時に使用する場合について説明する。
【0105】
まず、
図18に示すように、制御ユニット450は、ユーザの手H1を認識し、表示された画像の一部領域を決定する。具体的には、
図5(a)に示した画像ZMの周囲の点線枠を決定する(ステップS51)。
続いて、制御ユニット450は、ユーザの手H1のジェスチャを認識し、画像ZMを拡大または縮小する(ステップS52)。具体的には、
図5(a)に示した画像ZMを
図5(b)に示した画像ZMのように、拡大表示させる。本実施の形態においては、
図5(b)に示したように、ユーザの手H1を矢印XYの方向へ移動することにより、当該一部の画像ZMを拡大することができる。なお、この場合、当該一部の画像ZMの周囲の画像領域については、拡大処理が行われない。
さらに、ユーザの手H1を矢印XYの方向と逆方向へ移動させることにより、当該一部の画像ZMを縮小することができる。
【0106】
次に、制御ユニット450は、画像ZMに対してぶれ抑制処理を行う(ステップS53)。本実施の形態においては、当該処理は、自動的に実施される。なお、本実施の形態においては、自動的に実施されることとしているが、これに限定されず、所定のジェスチャにより処理が開始されてもよい。
【0107】
続いて、制御ユニット450は、手H1のジェスチャにより、特定の周波数フィルタ処理を行う(ステップS54)。具体的には、
図16に示すように、ユーザが手H1で所定のジェスチャを行うことにより、赤外線撮影ユニット467および赤外線照射ユニット466が機能を開始する。その結果、ユーザは、手術時に明確に表示された血管Bd等を容易に認識できるようになる。
次いで、制御ユニット450は、手H1のジェスチャにより、画像ZMの周囲の画像領域OZMに3次元立体モデルDDを表示する(ステップS55)。具体的には、
図17に示すように、当該一部の画像ZMの周囲の画像領域OZMに、当該3次元立体モデルDDを表示させる。3次元立体モデルDDは、当該ジェスチャにより、鉛直軸周りに回転させたり、水平軸周りに回転させたりすることができることが好ましい。
なお、3次元立体モデルDDは、手術または治療における試作モデルまたはシミュレーションモデルを表示させることが望ましい。その結果、ユーザは、安心して手術または治療を行うことができる。特に、3次元立体モデルDDが、手術または治療のガイドとして機能させることができる。
【0108】
なお、上記の例においては、全ての処理をユーザの手H1のジェスチャにより機能させる、例えば、ステップS51からS55の処理を行うこととしているが、これに限定されず、音声認識ユニット468、または骨伝導装置ユニット469、図示していないフットペダル等、任意の装置により機能させてもよい。
【0109】
(操作領域410cの詳細)
図19から
図22は、
図9から
図11において説明した操作領域410cの他の例を示す模式図である。
図19および
図20は、ユーザを上方から視認した状態を示す模式図であり、
図21および
図22は、ユーザを側方から視認した状態を示す模式図である。
【0110】
図19は、ユーザは、腕arm1、腕arm2および手H1を伸ばし切った場合を示し、この場合の手H1は、右肩関節RPを中心に移動軌跡RL1を通過する。この場合、移動軌跡RL1の曲率半径はrad1である。
【0111】
一方、
図20は、ユーザは、腕arm1および腕arm2を屈曲させた場合を示し、この場合の手H1は、移動軌跡RL2を通過する。
すなわち、
図20においては、ユーザが水平方向に手H1を移動させようとしているが、直線に近い移動軌跡RL2を通ることとなる。この場合、移動軌跡RL2の曲率半径はrad2である。ここで、人間工学に基づいて、当然のことながら、曲率半径rad1は、曲率半径rad2よりも小さい値となる。
【0112】
この場合、制御ユニット450は、赤外線ユニット410から移動軌跡RL1を検知した場合でも、直線移動であるとキャリブレーションする。同様に、制御ユニット450は、移動軌跡RL2を検知した場合でも、直線移動であるとキャリブレーションする。
【0113】
次いで、
図21は、ユーザは、腕arm1、腕arm2および手H1を伸ばし切った場合を示し、この場合の手H1は、右肩関節RPを中心に移動軌跡RL3を通過する。この場合、移動軌跡RL3の曲率半径はrad3である。
【0114】
一方、
図22に示すように、ユーザは、腕arm1および腕arm2を屈曲させた場合を示し、この場合の手H1は、移動軌跡RL4を通過する。
すなわち、
図22においては、ユーザが鉛直方向に手H1を移動させようとしているが、直線に近い移動軌跡RL4を通ることとなる。この場合、移動軌跡RL4の曲率半径はrad4である。ここで、人間工学に基づいて、当然のことながら、曲率半径rad3は、曲率半径rad4よりも小さい値となる。
【0115】
この場合、制御ユニット450は、赤外線ユニット410から移動軌跡RL3を検知した場合でも、直線移動であるとキャリブレーションする。同様に、制御ユニット450は、移動軌跡RL4を検知した場合でも、直線移動であるとキャリブレーションする。
【0116】
以上のように、
図19から
図22においては、一方の腕の場合について説明したが、他方の腕の場合も同じように、キャリブレーションが実施され、両腕の場合も複数のキャリブレーションが同時に行われる。
【0117】
また、移動軌跡RL1および移動軌跡RL2の間を通る任意の軌跡に対して、キャリブレーションを実施してもよい。同様に、移動軌跡RL3および移動軌跡RL4の間を通る任意の軌跡に対して、キャリブレーションを実施してもよい。
【0118】
その結果、人間工学に基づいて、ユーザが直線に手H1を移動させる軌跡が湾曲していても、制御ユニット450によりキャリブレーションされて認識されるとともに、一対の光透過ディスプレイ220には、直線で表示されるとともに、直線で移動した軌跡で表示される。
【0119】
次に、
図23は、電子眼鏡100の他の例を示す模式図である。
【0120】
図23に示すように、電子眼鏡100aは、
図1および
図2と異なり、鏡筒部610を有する。鏡筒部610は、内部に光学ズーム機能を有する。また、鏡筒部610は、ヒンジ部を有しており、電子眼鏡100aの上方に跳ね上げることができる。また、電子眼鏡100aの鏡筒部610の内部には、一対の没入型ディスプレイ220aが配設されている。
電子眼鏡100aは、上述した
図1および
図2の電子眼鏡100と同様の機能および表示を有する。
【0121】
また、電子眼鏡100aは、外部のフットペダル690を有する。また、図示しないが、外部のダイヤル機能を含んでもよい。
【0122】
さらに、電子眼鏡100aは、外部出力端子698を有してもよい。当該外部出力端子698は、外部の録画装置699と接続されてもよい。
【0123】
また、
図23における電子眼鏡100aは、通信システム300、操作システム400、および鏡筒部610のみ取り外し可能であってもよく、通常の眼鏡に取り付け可能であってもよい。
【0124】
以上のように、本発明に係る電子眼鏡100は、カメラユニット303により対象物が撮像され、没入型ディスプレイ220に2次元および3次元の少なくとも一方の画像が表示される。また、制御ユニット450は、画像ZMのみの表示倍率を調整することができる。その結果、画像ZMのみの倍率を拡大または縮小させることができるため、ユーザは、細かな部分または全体部分を容易に認識することができる。
【0125】
また、画像ZMの周囲の表示倍率は、1倍となる。その結果、周囲を確認することにより、全体の特徴を認識することができ、画像ZMを確認することにより細かな部分を認識したり、全体を認識したりすることができる。
【0126】
赤外線検知ユニット410により人体の一部H1までの距離が測定され、当該測定結果に応じて没入型ディスプレイ220に表示された画像ZMの表示倍率が制御ユニット450により調整される。
【0127】
また、操作システム400は、音声認識ユニット468および骨伝導装置ユニット469の少なくとも一方を含むので、ユーザは、両手が使えない場合でも、声により操作システム400の操作を行うことができる。また、骨伝導を用いることで、騒がしい環境下、または静かな環境下であっても操作システム400の操作を行うことができる。
なお、音声認識ユニット468および骨伝導装置ユニット469は、電子眼鏡100から取り外しできるよう形成されていてもよい。
【0128】
さらに、赤外線照射ユニット466により赤外線を照射しつつ、赤外線撮影ユニット467により撮像することができるので、人体の血管を明確に視認することができる。
また、電子眼鏡100は、容易に携帯可能となる。また、ヘッドマウントディスプレイは小型であるので、汎用性および利便性を高めることができる。
【0129】
なお、電子眼鏡100は、軽量化の為に、必須な部品および機能のみ装備させ、バッテリ等の重量物をケーブル等で電子眼鏡100の外側に設けてもよい。
【0130】
本発明においては、電子眼鏡100が「電子眼鏡」に相当し、カメラユニット303が「撮像装置」に相当し、一対の没入型ディスプレイ220が「1または複数の表示装置」に相当し、画像ZMが「画像の一部」に相当し、制御ユニット450が「制御部」に相当し、操作システム400が「操作部」に相当し、赤外線検知ユニット410が「深度センサ」に相当し、手H1が「人体の一部または前記人体の一部の外郭」に相当し、音声認識ユニット468が「音声認識部」に相当し、骨伝導装置ユニット469が「骨伝導認識部」に相当し、赤外線照射ユニット466が「照射部」に相当し、赤外線撮影ユニット467が「赤外線カメラ」に相当し、
図18が「電子眼鏡の制御方法」に相当する。
【0131】
本発明の好ましい一実施の形態は上記の通りであるが、本発明はそれだけに制限されない。本発明の精神と範囲から逸脱することのない様々な実施形態が他になされることは理解されよう。さらに、本実施形態において、本発明の構成による作用および効果を述べているが、これら作用および効果は、一例であり、本発明を限定するものではない。