(58)【調査した分野】(Int.Cl.,DB名)
前記輝度取得部では、複数の前記撮像素子、あるいは、異なる波長で撮影された前記肌領域の輝度の平均値を取得して、前記生体計測部に入力する請求項1に記載の生体情報計測装置。
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1記載の発明では、眉間を特定するために、顔画像上全体の二次元座標あるいは三次元座標を取得し、座標上の3つの特徴点により、眉間を特定している。
【0005】
しかしながら、特許文献1の手法では顔画像全体から眉間算出を行うため制御部への負担が非常に大きくなると考えられる。また、3つの特徴点から眉間を検出するが、対象者によっては特徴点が表れにくい人もいると考えられ、かかる場合には、眉間検出が困難となり、ひいては生体情報の計測誤差や計測エラーに繋がる。
【0006】
そこで本発明は上記従来の課題を解決するものであり、特に、従来に比べて高精度にかつ安定して生体情報を計測できる生体情報計測装置及びそれを用いた入力装置を提供することを目的としている。
【課題を解決するための手段】
【0007】
本発明における入力装置は、対象者の瞳孔を検出することが可能な撮像部と、
前記撮像部により得られた画像データから瞳孔領域を検出することが可能な検出部と、前記瞳孔領域の周囲の少なくとも一部の肌領域の輝度を取得する輝度取得部と、前記肌領域の輝度から前記対象者の生体情報を計測する生体計測部と、を有することを特徴とするものである。
【0008】
本発明では、瞳孔領域を基準として輝度検知に供される肌領域を特定するため、肌領域を安定して得ることができ、それに伴い、肌領域の輝度を高精度にかつ安定して得ることができる。したがって、肌領域の輝度に基づいて得られる生体情報も高精度でかつ安定して得ることができる。瞳孔は対象者の顔の他の部位と違って必ず正確に検出できるから、逆に瞳孔が検出できない場合は、対象者が横を向いているか、居眠りしていると断定できる。したがって瞳孔が検出できない場合には警告を発するなどして対象者の姿勢を正すこともできる。
【0009】
また本発明によれば特許文献1に記載されているような顔画像全体から3次元データを構築するといったことが必要ではない。したがって従来に比べて装置に対する制御負担(算出負担)を低減でき、スムースに生体情報の計測まで行うことができる。
【0010】
本発明では、前記撮像部は、撮像素子と、前記対象者に向けて光を照射可能な発光素子と、を有して構成されることが好ましい。これにより適切に対象者の瞳孔を検出することができる。
【0011】
また本発明では、前記撮像素子は、複数設けられることが好ましい。これにより、三角法に基づいて前記撮像部と対象者との距離を求めることができる。
【0012】
また本発明では、前記発光素子は、第1の波長を有する赤外線を照射する第1の発光素子と、前記第1の波長よりも長い第2の波長を有する赤外線を照射する第2の発光素子と、を有し、前記第1の波長を有する赤外線を照射した条件で明瞳孔画像が撮像され、前記第2の波長を有する赤外線を照射して、あるいは前記赤外線を照射せずに暗瞳孔画像が撮像され、前記検出部では、前記明瞳孔画像と前記暗瞳孔画像との差分画像により前記瞳孔領域を検出することが好ましい。上記により簡単かつ安定して瞳孔領域を検出することができる。また例えば暗瞳孔画像を、肌領域を特定するための画像として用いることも可能である。また赤外線を用いたことで夜間でも生体情報検出が可能になる。
【0013】
また本発明では、前記検出部では、角膜反射像を検出可能であることが好ましい。光を照射した状態で得られた顔画像には角膜反射像も写し出されているので、適切かつ簡単に角膜反射像を得ることができる。そして角膜反射像を用いて対象者の視線等を検知することが可能になる。
【0014】
また、前記輝度取得部では、複数の前記撮像素子、あるいは、異なる波長で撮影された前記肌領域の輝度の平均値を取得して、前記生体計測部に入力することが好ましい。このように肌領域の輝度の平均値を取得して、生体情報の計測に供することで、精度よく生体情報の計測を実行することができる。
【0015】
また、前記検出部では、瞳孔追跡が実行されることが好ましい。瞳孔追跡を行うことで対象者の視線等の測定を精度よく行うことができる。
【0016】
また、前記検出部では、前記対象者の視線を検出することができる。
また、前記検出部では、前記対象者の顔の向きを検出することができる。
【0017】
また、前記輝度取得部では、前記瞳孔領域の下側に位置する前記肌領域の輝度を取得することが好ましい。瞳孔領域の下側に位置する肌領域は、瞳孔領域の上側と違って、瞬きによる肌領域の変化が起こりにくく、輝度を安定して取得できる。
【0018】
また本発明では、前記対象者の両目の前記瞳孔領域を取得した際に、前記輝度取得部が前記肌領域の輝度を取得することが好ましい。片目の瞳孔領域しか得られない場合には、対象者が前方(撮像部側)を向いていないと判断でき、かかる場合には、よそ見をしていると注意を喚起するなどできる。両目の瞳孔領域が得られた場合は、対象者が前方を向いた状態であり、かかる場合に、肌領域の輝度を取得し、生体情報を計測するようにすることで、対象者の姿勢を正すとともに、安定して生体情報の計測を行うことができる。
【0019】
また本発明では、前記生体情報計測装置が車両内に配置される構成にできる。このように生体情報計測装置を、車両内に配置することで例えば運転中に運転者の生体情報を得ることができ、それに基づいて運転支援等を行うことが可能である。
【0020】
また本発明における入力装置は、上記に記載の生体情報計測装置と、入力操作部と、を有し、前記生体情報計測装置からの情報に基づいて、所定の入力操作あるいは所定の情報発信が実行されることを特徴とするものである。
【0021】
本発明では、前記入力操作は、前記対象者の行動を予測して実行されることが好ましい。
また、前記入力操作は運転支援に供されることが好ましい。
【0022】
本発明では、生体情報計測装置からの情報(生体情報や瞳孔情報、視線情報など)に基づいて、対象者の行動を予測し、この予測をもとに、所定の入力操作を発揮させることができる。これにより、手などの操作体が直接、操作部に触れなくても、スピーディに入力操作を実行できる。例えば本発明の生体情報計測装置が車両内に配置される構成であれば、瞳孔の大きさから周囲の明るさを判断して、オートライトの応答を早めることができる。また、居眠りをしているか否かを判断でき、居眠りをしていると判断された場合には、音声で注意を促すこと等ができ安全性を高めることができる。
【発明の効果】
【0023】
本発明によれば、瞳孔領域を基準として輝度検知に供される肌領域を特定するため、肌領域を安定して得ることができ、肌領域の輝度を高精度にかつ安定して得ることができる。したがって、肌領域の輝度に基づいて得られる生体情報も高精度でかつ安定して得ることができる。瞳孔は対象者の顔の他の部位と違って必ず正確に検出できるから、逆に瞳孔が検出できない場合は、対象者が横を向いているとか、居眠りしていると断定できる。したがって瞳孔が検出できない場合には警告を発するなどして対象者の姿勢を正すこともできる。
【0024】
また本発明によれば特許文献1に記載されているような顔画全体から3次元データを構築するといったことが必要ではない。したがって従来に比べて装置に対する制御負担(算出負担)を低減でき、スムースに生体情報の計測まで行うことができる。
【発明を実施するための形態】
【0026】
図1は、近赤外線カメラ(撮像部)により運転者(対象者)を撮像している状態を示す模式図である。本実施形態では
図1に示すように近赤外線カメラ2を用いて、車両の運転席に座席した運転者1を撮像し、その画像データを用いて、運転者1の瞳孔を検出する。
【0027】
近赤外線カメラ2は、運転席正面に配置されており、例えば、インストルメント・パネルに配置されている。あるいは、ステアリング支持部3の部分に設置されていてもよい。
【0028】
図2(a)に示すように近赤外線カメラ2a,2bは2台、設けられている。
図2(a)(b)に示すように、近赤外線カメラ2a,2bはそれぞれ、レンズ4と、複数の第1の発光素子5と、複数の第2の発光素子6と、レンズ4の後方に位置する撮像素子(センサ基板)7と、レンズ4、各発光素子5,6及び撮像素子7を支持するシャーシ8とを有して構成される。
【0029】
ここで第1の発光素子5は、870nmLEDであり、第2の発光素子6は940nmLEDである。なお波長については一例であり、これ以外の波長であってもよい。
【0030】
各発光素子5,6は基板9に設置されており、基板9上に発光素子5,6が配置されたLED基板と撮像素子7とは平行に配置されている。また、2台の近赤外線カメラ2a,2bを同期させて用いる。
【0031】
図5のブロック図に示すように、本実施形態における生体情報計測装置10は、近赤外線カメラ2a,2bと、検出部11と、輝度取得部12と、生体計測部13と、モニタ14とを有して構成される。また検出部11、輝度取得部12、生体計測部13を合わせて制御部15が構成される。
【0032】
図5に示すように検出部11には、瞳孔検出部16、肌領域検出部17、及び視線検出部23が設けられる。
【0033】
瞳孔検出部16では、明瞳孔画像と暗瞳孔画像との差分画像を作成する。明瞳孔画像、及び暗瞳孔画像について以下に説明する。
【0034】
図3(a)は、運転者(対象者)1の明瞳孔画像18であり、
図3(b)は、運転者(対象者)1の暗瞳孔画像19である。
【0035】
まず第1の発光素子5により波長870nmの近赤外線を運転者1の顔に照射した状態で撮像素子7により顔画像を撮影する。このようにして撮影された顔画像では、
図3(a)に示すように瞳孔20が他の部位よりも特に明るく撮影された明瞳孔画像18が得られる。一方、第2の発光素子6により波長940nmの近赤外線を運転者1の顔に照射した状態で撮像素子7により顔画像を撮影する。このようにして撮影された顔画像では、
図3(b)に示すように瞳孔20が
図3(a)の明瞳孔画像18に比べて暗く撮影された暗瞳孔画像19が得られる。発光素子の波長については、明瞳孔及び暗瞳孔が得られる波長とされる。
【0036】
明瞳孔画像18の撮影と、暗瞳孔画像19の撮影とは時分割で行われる。また本実施形態では、近赤外線カメラ2a,2bは2台あるので、近赤外線カメラ2a及び近赤外線カメラ2bのそれぞれにて、明瞳孔画像18及び暗瞳孔画像19を取得する。
【0037】
図5に示す瞳孔検出部16では、明瞳孔画像18と暗瞳孔画像19との差分画像を作成する。差分画像21が
図3(c)に示されている。差分画像21は、例えば、明瞳孔画像18の各画素の輝度値から暗瞳孔画像19の各画素の輝度値を減算することで得ることができる。
【0038】
図3(c)に示すように、差分画像21では運転者(対象者)1の瞳孔20が周囲に比べて明るい画像として残される。
図3(c)に示す明るい部分を瞳孔領域22と特定する。ここで
図3(c)に示すように瞳孔領域22を、2つ取得できる。上記してきた明瞳孔画像、及び暗瞳孔画像については、特開2008−125619号公報に類似した手法を用いて説明したものである。上記した手法で瞳孔領域を得た結果、仮にひとつの瞳孔領域22しか得られない場合は、片目の瞳孔領域しか取得できない状態であり、運転者1が前方(撮像部側)を向いていないと判断でき、かかる場合には、よそ見をしていると注意を喚起するなどできる。両目の瞳孔領域22を取得できて初めて、生体情報の計測を行うように制御できる。
【0039】
上記では、差分画像21を得るのに使用する暗瞳孔画像19を、波長940nmの近赤外線を照射して撮影した顔画像としたが、例えば、赤外線などの光を照射せずに撮影した顔画像を暗瞳孔画像19とすることもできる。
【0040】
次に肌領域検出部17では、瞳孔領域22に基づいて、生体情報の測定に供するための肌領域を取得する。
【0041】
図4(a)は、例えば、暗瞳孔画像19に示される目の付近を拡大した模式図である。
図3(c)により瞳孔領域22が特定されたので、その瞳孔領域22の周囲に、輝度を取得するための肌領域24を特定する。肌領域24は、瞳孔領域22から外側に所定距離だけ離れた位置に特定する。
【0042】
また瞳孔領域22から瞳(黒目部分)の領域25を特定し、瞳の領域25から輝度を取得するための肌領域24を特定してもよい。
【0043】
瞳孔領域22を特定できれば、瞳孔領域22の周囲の画像の輝度等によって目の領域を推測でき、したがって瞳孔領域22から離れた肌領域24を検出するのに検出部11の負担を小さく抑えることができる。
【0044】
なお検出部11では、二値化処理、ラベリング処理、ふるいがけ処理等が適宜実行される。
【0045】
図5に示す輝度取得部12では、肌領域24の輝度を取得する。このとき、例えば、近赤外線カメラ2aと近赤外線カメラ2bのそれぞれにて撮影した画像から、あるいは異なる波長で撮影した画像から得られた輝度の平均値を連続的に取得する。また、この際、肌領域24の全画素の輝度を取得しなくてもよい。このように肌領域24の一部分から輝度を取得する場合には、
図4(b)に示すように、瞳孔領域22よりも下側に位置する肌領域26の輝度を取得することが好ましい。瞳孔領域22の上側は瞼側であり、瞬きにより安定した輝度を得にくいため、瞳孔領域22の下側に位置する涙袋側の肌領域26の輝度を取得することで輝度を安定して取得することができる。
【0046】
図5に示す生体計測部13では、輝度取得部12より得られた肌領域の輝度から運転者(対象者)1の生体情報を計測する。この生体情報の計測は、一定時間における肌領域の輝度変化値を用意する。次に、体の動きなどによる低周波雑音を取り除き、独立成分分析法により独立信号を取り出す。この独立信号のパワースペクトルを算出し、心拍や呼吸数付近の周波数ピークを持つ信号を取得することで、これを出力信号する手法がある。しかし、ここで生体情報やその計測方法について特に限定するものではない。
【0047】
図5に示すように入力装置30は、生体情報計測装置10と、入力操作部31とを有して構成される。ここで、入力操作部31はモニタ14を兼ねていてもよい。よって、生体情報計測装置10の構成要素としてモニタ14はあってもなくてもよい。
【0048】
入力操作部31に生体計測部13から生体情報が送信される。あるいは、
図5に示す検出部11からの情報(瞳孔情報や視線情報など)が送信される。入力操作部31では、生体情報計測装置10から送信されるこれらの情報に基づいて、所定の入力操作や所定の情報発信が実行される。どのような入力操作や情報発信がされるのかについては後述する。
【0049】
入力操作部31では、運転者(対象者)1の行動を予測して入力操作を実行することができる。例えば運転者1の視線に着目して、視線の方向に基づいて行動予測をし、その行動予測に基づく入力操作を実行する。
【0050】
本実施形態における
図5に示す入力装置30は、車両内に搭載されるものであり、
図5に示す生体情報計測装置10からの情報に基づく入力操作は、運転支援に供されるものであることが好適である。例えば運転者1の瞳孔の大きさから判断して、オートライトの応答を早めるがごとくである。
【0051】
本実施形態では肌領域24,26を特定するために瞳孔領域22を基準としているため、肌領域24,26を安定して得ることができ、肌領域24,26の輝度を高精度にかつ安定して得ることができる。したがって、輝度に基づいて得られる生体情報も高精度でかつ安定して得ることができる。瞳孔は対象者の顔の他の部位と違って必ず正確に検出できるから、逆に瞳孔が検出できない場合は、対象者が横を向いているか、居眠りしていると断定できる。したがって瞳孔が検出できない場合には対象者に目を開いて前方(近赤外線カメラ2側)を向くように注意を促すこともできる。
【0052】
また本実施形態によれば特許文献1に記載されているような顔画全体から3次元データを構築するといったことが必要ではない。したがって従来に比べて装置に対する制御負担(算出負担)を低減でき、スムースに生体情報の計測まで行うことができる。
【0053】
次に
図6に示すフローチャートを用いて、画像の取得から入力操作の起動までのステップを説明する。
【0054】
図6(a)のステップST1では、明瞳孔画像18及び暗瞳孔画像19を取得する(
図3(a)(b)参照)。
図7にも示すように、第1の発光素子5により波長870nmの近赤外線を照射した条件で撮影することで明瞳孔画像18を得ることができる。また第2の発光素子6により波長940nmの近赤外線を照射した条件で撮影することで暗瞳孔画像19を得ることができる。なお暗瞳孔画像19は、発光素子から光を照射しないで撮影したものであってもよい。
【0055】
次に
図6(a)のステップST2では、
図3(a)の明瞳孔画像18と
図3(b)の暗瞳孔画像19との差分画像21により瞳孔領域22を特定する。
【0056】
次に
図6(a)に示すようにステップST3で、角膜反射像を取得する。
図7に示すように角膜反射像を例えば、波長940nmの近赤外線を照射した条件にて撮影された暗瞳孔画像19により取得することができる。
【0057】
図8には、角膜反射像35が示されている。
図8は暗瞳孔画像の瞳孔部分を拡大して示したものである。暗瞳孔画像に示すように暗く映る瞳孔36よりも明るい角膜反射像35が映し出されていることがわかる。角膜反射像35は、運転者1の角膜で反射した光源の反射像である。
【0058】
続いて
図6(a)に示すステップST4で視線演算を行う。視線演算は
図7に示すように瞳孔領域と角膜反射像とを用いて行うことが可能である。視線演算のアルゴリズムについて
図9を用いて説明する。ここで、
図9に示す視線演算のアルゴリズムはWO2012−20760号に類似した手法を用いて説明する。
【0059】
図9(a)に示すように、運転者(対象者)1の前方に視対象平面40があるとする。この視対象平面40は例えばディスプレイである。この視対象平面40はXY平面に平行な面であるとする。符号Pは運転者(対象者)1の瞳孔中心であり、PTが視線ベクトルである。Qが注視点である。
【0060】
近赤外線カメラ2はX´Y´平面と平行な面である仮想視点平面41と平行に設置される。すなわち仮想視点平面41の直交方向がカメラの光軸方向である。Tは仮想視点平面41上の注視点である。PT´はカメラ瞳孔ベクトルである。
【0061】
図9(a)に示すように、視線ベクトルPTとカメラ瞳孔ベクトルPT´との間の角度はθである。また、カメラ中心から仮想視点平面41上の注視点Tへの方向とX´軸との間の角度はφである。
【0062】
図9(b)は瞳孔周辺画像の模式図である。Gは角膜反射像である。角膜反射像Gと瞳孔中心Pとを直線状に結んだ線とX軸との間の角度はφ´である。
【0063】
図9(c−1)〜(c−3)に示すEは運転者(対象者)1の眼球を模式図的に示したものである。
図9(c−1)〜(c−3)では眼球の向きが異なっている。
図9(c−1)では、視線ベクトルPTとカメラ瞳孔ベクトルPT´との方向が一致している。すなわち
図9(a)に示すθはゼロである。このとき
図9(d−1)の画像では、瞳孔中心Pと角膜反射像Gとが一致している。すなわち、瞳孔中心Pと角膜反射像Gとの間隔|r
0|=0である。
【0064】
次に、
図9(c−2)では、視線ベクトルPTとカメラ瞳孔ベクトルPT´とが一致せず、視線ベクトルPTとカメラ瞳孔ベクトルPT´との間に角度θが生じている。このとき
図9(d−2)の画像では、瞳孔中心Pと角膜反射像Gとの間に、間隔|r
1|が生じている。
【0065】
また、
図9(c−3)では、視線ベクトルPTとカメラ瞳孔ベクトルPT´との間の角度θが、
図9(c−2)よりも大きくなっている。このとき
図9(d−3)の画像では、瞳孔中心Pと角膜反射像Gとの間に、間隔|r
2|が生じ、この間隔|r
2|は、
図9(d−2)に示す間隔|r
1|よりも大きくなっている。
【0066】
ここで
図9(a)(c)に示す(θ,φ)と、
図9(b)(d)に示す(|r|,φ´)との関係は一対一に対応している。
【0067】
すなわち視線がカメラ光軸から離れるほど(θが大きくなるほど)、瞳孔中心Pと角膜反射像Gとの間の間隔(距離)|r|は大きくなる。したがって、θと|r|との間には
図9(e)に示す関係がある。この関係に基づいて視線を推定することができる。
【0068】
具体的には、
図6(b)(図
6(a)のステップST4の具体的ステップ)に示すステップST10で、角膜反射像のずれ量の算出を行う。角膜反射像のずれ量は、
図9(d−1)〜(d−3)に示す瞳孔中心Pと角膜反射像Gとの間の間隔(距離)|r|として示される。
【0069】
なお高分解能化による瞳孔追跡を実行して瞳孔中心Pを決定することができる(ステップST11)。
【0070】
また
図6(b)のステップST12では、瞳孔中心P、角膜反射像GをXY座標系に変換する。続いて、
図6(b)に示すステップST13では、瞳孔中心P−角膜反射像Gのベクトルを算出し、
図9(a)(b)の関係図に示すように三角法に基づいて、仮想視点平面41上の注視点Tを算出する(ステップST14)。そしてステップST15にて視線ベクトルPTを算出する。
【0071】
また
図6(a)のステップST4では、顔向きを推定することも可能である。
図10は、運転者(対象者)1の顔を斜め前方から見た斜視図である。
図6(a)のステップST1,ST2により検出された瞳孔45の位置から鼻孔の存在範囲を推定し、その存在範囲(領域)から左右の鼻孔47,48を検出する(
図6(c)のステップST20)。このとき、片方の鼻孔のみを検出してもよい。なお前画像(前フレーム)で鼻孔を検出したら、その次の画像についても、前画像の鼻孔位置から推定して鼻孔位置を追跡する。また前画像で鼻孔を検出していないときは、画像全体から鼻孔の探索を実行する。
【0072】
さて鼻孔47,48の検出であるが、瞳孔45の位置から鼻孔の存在範囲を大凡、決めることができ、その範囲内での輝度測定により鼻孔を確定することができる。また画像に対して2値化処理を行うことで鼻孔が検出しやすくなる。
【0073】
続いて、鼻孔47,48を結ぶ中点43と中点瞳孔45との3次元座標をステレオ計算により算出する(
図6(c)に示すステップST21)。
【0074】
そして
図10に示すように、左右両側の瞳孔45,
45と中点43とを結ぶ三角形の法線44を求め、この法線44を顔の向きとして推定する(
図6(c)のステップST22)。
【0075】
続いて、
図6(a)のステップST5では、瞳孔領域22周辺の肌領域24を特定する(
図4参照)。
図4(b)に示すように、肌領域26は瞳孔領域22の周囲の一部であってもよく、その場合は、瞳孔領域22の下側の位置の肌領域26を選択することが好適である。そして、
図6(a)のステップST6では、肌領域24,26の輝度を取得する。輝度は平均値であることが好適である。輝度の平均値は、複数の撮像素子で撮影された肌領域の輝度の平均、あるいは異なる波長で撮影された肌領域の輝度の平均で求めることができる。そして、ステップST7では、肌領域の輝度に基づいて生体情報を計測する。本実施形態によれば、心拍、呼吸数、脈拍等の生体情報を得ることが可能である。
【0076】
そして
図6(a)に示すステップST8では、生体情報がモニタ14に送られ、モニタ14に表示がなされる。モニタ14は例えば、
図2(a)に示す近赤外線カメラ2a,2bの中間部に設けられている。あるいは、モニタ14は、入力装置30を構成する操作パネル等であってもよい。操作パネルとしては、センターコンソールに配置されるカーナビゲーション装置のタッチパネル等が該当する。
【0077】
また
図6(a)のステップST9に示すように、生体情報は、入力装置30を構成する入力操作部31に送信される。また、ステップST1で取得した顔画像(明瞳孔画像、暗瞳孔画像)、ステップST2で取得した瞳孔領域、ステップST3で取得した角膜反射像、及びステップST4で取得した視線方向や
図6(c)での顔向き等の情報が入力操作部31に送信される。入力操作部31に送信される情報は1つであってもよいし複数であってもよい。
【0078】
入力操作部31では、生体情報計測装置10からの情報に基づいて、所定の入力操作あるいは所定の情報発信が実行される。以下、具体例を示す。
【0079】
まず、
図6(a)のステップST4で得られた視線方向に基づいて、入力補助(運転支援)を行うことができる。例えば、視線検知による入力として、ステアリングスイッチを押している間は、視線で音量などを設定可能とする。また視線による選択として、視線で制御機器を選択などできるようにする。また、方向指示器補助として、例えば、サイドミラーを見たらウインカーを出し、また左後方画面をモニタに映す。またサイドミラーを見ずにウインカーを出したら警告音を出す。またモニタに警告表示をした後、運転者1がそれを見たらアラート解除を実行する。また周囲を見る頻度が少なくなったら、「周囲に注意してください」、「休憩してください」などの警告を発したり、シートを震わせるなどの処置をとることができる。
【0080】
また瞳孔検知による入力として、瞳孔サイズから周囲の明るさを判断し、オートライトの応答を早める。また瞳孔サイズでミラー角度をコントロールする。また瞳孔サイズでフロントガラスの透過率を調整する。
【0081】
また瞳孔が確認できない場合には居眠りをしている恐れがあるので、メータ等に警告を表示した後、その表示を見たかどうかをその後の瞳孔検出により確認できる。
【0082】
また、瞳孔の位置から口唇を検出し、口唇の動きにより音声入力
精度を向上させることもできる。
【0083】
また片目の瞳孔しか確認できない場合等、よそ見、わき見を検知したら、安全性を高めるために、警告音を発したり、視線ナビゲートを実行する。
【0084】
またそのほかに、視線方向に基づいて、メータ等の表示高さを調整したり、座席高さやハンドル高さの調整等が自動で行われるようにできる。また左右瞳孔間の距離や鼻孔との距離、鼻孔の形などで個人認証を実行することもできる。
【0085】
本実施形態では、近赤外線カメラ2a,2bが2台、設けられている。本実施形態では、近赤外線カメラを1台としてもよいが、近赤外線カメラ2a,2bを複数(最低2台)、設置することで、三角法により、運転者(対象者)1との距離を求めることができる。
図11に示すように近赤外線カメラ2aにより対象物Rを映した画像50による見え方と、近赤外線カメラ2bにより対象物Rを映した画像51による見え方とは異なっている。この見え方のずれから三角法により対象物Rの位置を特定できる。したがって本実施形態においても近赤外線カメラ2a,2bにより撮影された画像から三角法を用いて運転者(対象者)1との距離を求めることが可能である。
【0086】
また
図6(a)の実施形態において、ステップST3,4,8,9は必須でなく選択的なステップである。
【0087】
上記した実施形態(第1の実施形態)では、
図6(a)のステップST2で瞳孔領域を特定し、この瞳孔領域に基づいて輝度を測定するための肌領域を特定した。
【0088】
これに対して
図12に示す第2の実施形態では、ステップST30で角膜反射像35を取得し、ステップST31で、角膜反射像35に基づいて肌領域24を特定している。角膜反射像35は
図7に示す通り、例えば暗瞳孔画像19により得ることができる。
【0089】
この第2の実施形態では、第1の実施形態と異なって、瞳孔領域22の取得を必須とはしていないが、その代わりに角膜反射像35の取得を必須とする。そして
図13に示すように、角膜反射像35の周囲に肌領域24を特定する。肌領域24は角膜反射像35から所定距離離れた位置に設定される。角膜反射像35から対象者の目の領域を画像の輝度等により特定でき、特定された目の周りに肌領域24を設定することができる。
【0090】
図12に示すステップST32は
図6(a)のステップST6に該当し、
図12のステップST33は、
図6(a)のステップST7に該当し、
図12のステップST34は、
図6(a)のステップST8に該当し、
図12のステップST35は、
図6(a)のステップST9に該当する。
【0091】
なお
図12に示す第2実施形態においても、
図6(a)のステップST1,ST2に示すように、明瞳孔画像18と暗瞳孔画像19との差分画像により瞳孔領域22を特定することができる。かかる場合には
図7に示すように視線演算等を行うことが可能になる。
【0092】
本実施形態の生体情報計測装置10及びそれを用いた入力装置30は、車両用に限定するものでないが、車両用として使用することで、運転中に運転者の生体情報を得ることができ、それに基づいて運転支援等を行うことができる。
行動予測は、例えば瞳孔を追跡し、その追跡結果に基づいて判断することができる。
【0093】
また、生体情報計測装置10から得られる情報(瞳孔情報、視線情報、生体情報等)に基づいて、例えば居眠りをしているか否かの判断ができ、かかる場合、早めに音声等で注意を喚起でき、また運転者(対象者)の行動を予測して、所定の入力操作を実行することも可能である。
【0094】
上記の実施形態では、運転者を、生体情報を計測する対象者としたが、運転者に限るものでなく、助手席の乗員等を対象者としてもよい。