IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本精機株式会社の特許一覧

<>
  • 特開-視点検出システム 図1
  • 特開-視点検出システム 図2
  • 特開-視点検出システム 図3
  • 特開-視点検出システム 図4
  • 特開-視点検出システム 図5
  • 特開-視点検出システム 図6
  • 特開-視点検出システム 図7
  • 特開-視点検出システム 図8
  • 特開-視点検出システム 図9
  • 特開-視点検出システム 図10
  • 特開-視点検出システム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023176251
(43)【公開日】2023-12-13
(54)【発明の名称】視点検出システム
(51)【国際特許分類】
   G06T 7/70 20170101AFI20231206BHJP
   G06T 7/00 20170101ALI20231206BHJP
【FI】
G06T7/70 A
G06T7/00 660A
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022088431
(22)【出願日】2022-05-31
(71)【出願人】
【識別番号】000231512
【氏名又は名称】日本精機株式会社
(72)【発明者】
【氏名】猪坂 雄治
(72)【発明者】
【氏名】濱田 一成
(72)【発明者】
【氏名】西澤 幸蔵
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096AA09
5L096BA04
5L096CA04
5L096FA09
5L096FA62
5L096FA64
5L096FA66
5L096FA67
5L096FA69
(57)【要約】
【課題】眼鏡着用時においても好適に視点を検出できる視点検出システムを提供する。
【解決手段】本実施形態における視点検出システムは、撮影領域内の被検出者の左目及び右目近傍を少なくとも含む画像を撮影する撮影部と、画像における被検出者の左目の黒目の中心及び右目の黒目の中心の中点である視点位置を所定の方法で検出する視点位置検出部と、所定の方法で視点位置が検出できず且つ被検出者の着用する眼鏡の特徴点を画像から抽出できる場合、眼鏡の特徴点に基づいて視点位置を推定する視点位置推定部と、視点位置検出部により検出された視点位置及び視点位置推定部により推定された視点位置から所定の三次元直交座標系における視点座標を算出する視点座標算出部と、を備える。
【選択図】 図5
【特許請求の範囲】
【請求項1】
撮影領域内の被検出者の左目及び右目近傍を少なくとも含む画像を撮影する撮影部と、
前記画像における前記被検出者の前記左目の黒目の中心及び前記右目の黒目の中心の中点である視点位置を所定の方法で検出する視点位置検出部と、
前記所定の方法で前記視点位置が検出できず且つ前記被検出者の着用する眼鏡の特徴点を前記画像から抽出できる場合、前記眼鏡の特徴点に基づいて前記視点位置を推定する視点位置推定部と、
前記視点位置検出部により検出された前記視点位置及び前記視点位置推定部により推定された前記視点位置から所定の三次元直交座標系における視点座標を算出する視点座標算出部と、を備える視点検出システム。
【請求項2】
前記視点位置推定部は、前記画像から前記眼鏡の縦幅を検出するため複数の前記眼鏡の特徴点を抽出し、検出された前記眼鏡の前記縦幅の中点からなる横直線を算出し、前記横直線が前記視点位置を含むと推定する、請求項1記載の視点検出システム。
【請求項3】
前記視点位置推定部は、前記画像から前記眼鏡の横幅を検出するため複数の前記眼鏡の特徴点を抽出し、検出された前記眼鏡の前記横幅の中点からなる縦直線を算出し、前記縦直線が前記視点位置を含むと推定する、請求項1記載の視点検出システム。
【請求項4】
前記視点位置推定部は、前記画像から前記左目又は前記右目に含まれる目の特徴点を抽出し、前記目の特徴点から前記左目及び前記右目の前記黒目の中心を含む横直線を算出し、前記横直線が前記視点位置を含むと推定する、請求項3記載の視点検出システム。
【請求項5】
前記視点位置推定部は、
前記画像から前記被検出者の顔の複数の特徴点を抽出し前記顔の水平線を算出し、
前記画像から前記被検出者の前記左目又は前記右目の目尻、及び前記左目又は前記右目の目頭の組み合わせからなる特徴点を抽出し、前記目尻を通り前記顔の水平線に平行な目尻直線と、前記目頭を通り前記顔の水平線に平行な目頭直線と、を算出し、
前記画像から前記眼鏡の横幅を推定するため複数の前記眼鏡の特徴点を抽出し、前記眼鏡の特徴点から前記眼鏡の前記横幅の中点を算出し、前記中点を通り前記顔の水平線に垂直な縦直線を算出し、
前記目尻直線と前記縦直線との交点及び前記目頭直線と前記縦直線との交点からなる二つの点の中点を前記視点位置と推定する、請求項1記載の視点検出システム。
【請求項6】
前記視点位置推定部は、
前記画像から前記被検出者の顔の複数の特徴点を抽出し前記顔の水平線を検出し、
前記画像から前記被検出者の前記左目又は前記右目の上目蓋、及び前記左目又は前記右目の下目蓋の組み合わせからなる特徴点を抽出し、前記上目蓋を通り前記顔の水平線に平行な上目蓋直線と、前記下目蓋を通り前記顔の水平線に平行な下目蓋直線と、を算出し、
前記画像から前記眼鏡の横幅を検出するため複数の前記眼鏡の特徴点を抽出し、前記眼鏡の特徴点から前記眼鏡の横幅の中点を算出し、前記中点を通り前記顔の水平線に垂直な縦直線を算出し、
前記上目蓋直線と前記縦直線との交点及び前記下目蓋直線と前記縦直線との交点からなる二つの交点の中点を前記視点位置と推定する、請求項1記載の視点検出システム。
【請求項7】
前記視点位置推定部は、
前記画像から前記被検出者の顔の複数の特徴点を抽出し前記顔の水平線を検出し、
前記画像から前記被検出者の前記左目又は前記右目の目尻、及び前記左目又は前記右目の目頭の組み合わせからなる特徴点を抽出し、前記目尻を通り前記顔の水平線に平行な目尻直線と、前記目頭を通り前記顔の水平線に平行な目頭直線と、を算出し、
前記画像から前記眼鏡の左レンズ及び右レンズの少なくとも一方の横幅を検出するため複数の前記眼鏡の特徴点を抽出し、前記眼鏡の特徴点から前記左レンズ及び前記右レンズの少なくとも一方の前記横幅の中点を算出し、前記中点を通り前記顔の水平線に垂直な縦直線を算出し、
前記目尻直線と前記縦直線との交点及び前記目頭直線と前記縦直線との交点からなる二つの点の中点を前記横幅が推定された前記左目及び前記右目の少なくとも一方の前記黒目の中心として前記視点位置を推定する、請求項1記載の視点検出システム。
【請求項8】
前記三次元直交座標系は、水平軸、垂直軸及び奥行軸からなり、
前記視点検出システムは、車両の前方に前記被検出者に視認させる虚像を視認させるヘッドアップディスプレイを搭載する車両に配置され、
前記視点座標算出部は、
前記視点位置推定部により推定された前記視点位置に基づいて算出された水平座標、垂直座標及び奥行座標からなる前記視点座標、既知の前記左目の黒目の中心及び前記右目の黒目の中心の間の距離、及び既知の眼球の直径に基づいて、前記左目及び前記右目の眼球の中心と、前記虚像の表示の中心と、に係る前記三次元直交座標系における座標を算出し、
前記虚像の表示の中心の座標と、前記左目の眼球の中心の座標と、を結ぶ直線、及び前記虚像の表示の中心の座標と、前記右目の眼球の中心の座標と、を結ぶ直線と、を算出し、前記算出された二本の前記直線の中間を通る中間直線を算出し、
前記視点座標の前記奥行座標を含み前記奥行座標に直交する奥行座標面と前記中間直線との交点からなる点を、新たな視点座標として算出する、請求項1記載の視点検出システム。
【請求項9】
前記視点座標算出部は、前記三次元直交座標系における前記眼鏡の縦幅の距離に関する情報、前記三次元直交座標系における前記眼鏡の横幅の距離に関する情報、前記三次元直交座標系における前記左目及び前記右目の目頭の距離に関する情報、又は前記三次元直交座標系における前記左目及び前記右目の目尻の距離に関する情報を予め記憶し、前記情報から前記視点位置を前記三次元直交座標系における前記視点座標に変換する、請求項1記載の視点検出システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、被検出者の視点位置を検出する視点検出システムに関する。
【背景技術】
【0002】
従来、車両の運転者の顔や目を撮影した画像から、運転者の状態を検出する技術が知られている。検出された運転者の状態は、居眠り等に対する警報の要否の判断や、ヘッドアップディスプレイにおける虚像の表示位置の決定に用いられる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平6-255388号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
運転者の目の画像から運転者の状態を検出する場合、運転者が眼鏡を着用していると、眼鏡に光が反射し、目の状態が適切に撮影できない虞がある。この場合、運転者の状態の検出が困難となる。特に、運転者の目の特徴から視点位置を正確に検出しようとした場合には、眼鏡における反射により正確な検出が困難である。
【0005】
本開示はこのような事情を考慮してなされたもので、眼鏡着用時においても好適に視点を検出できる視点検出システムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示の視点検出システムは、上述した課題を解決するために、撮影領域内の被検出者の左目及び右目近傍を少なくとも含む画像を撮影する撮影部と、前記画像における前記被検出者の前記左目の黒目の中心及び前記右目の黒目の中心の中点である視点位置を所定の方法で検出する視点位置検出部と、前記所定の方法で前記視点位置が検出できず且つ前記被検出者の着用する眼鏡の特徴点を前記画像から抽出できる場合、前記眼鏡の特徴点に基づいて前記視点位置を推定する視点位置推定部と、前記視点位置検出部により検出された前記視点位置及び前記視点位置推定部により推定された前記視点位置から所定の三次元直交座標系における視点座標を算出する視点座標算出部と、を備える。
【発明の効果】
【0007】
本開示の視点検出システムにおいては、眼鏡着用時においても好適に視点を検出できる。
【図面の簡単な説明】
【0008】
図1】本実施形態における視点検出システムが搭載されたHUDを示す図。
図2】視点位置の説明図。
図3】視点位置検出部が所定の方法で視点位置を検出できない場合の説明図。
図4】カメラ座標としての三次元直交座標系の説明図。
図5】第一視点位置推定処理により視点位置を推定する際の概念的な説明図。
図6】第一視点位置推定処理を説明するフローチャート。
図7】補正後視点座標を算出する際の概念的な説明図。
図8】第二視点位置推定処理により視点位置を推定する際の概念的な説明図。
図9】第二視点位置推定処理を説明するフローチャート。
図10】第三視点位置推定処理により視点位置を推定する際の概念的な説明図。
図11】第三視点位置推定処理を説明するフローチャート。
【発明を実施するための形態】
【0009】
本開示の視点検出システムの実施形態を添付図面に基づいて説明する。本開示の視点検出システムは、例えば自動車や二輪車等の車両や、船舶、農業機械、建設機械に搭載される視点検出システムに適用することができる。本実施形態においては、視点検出システムがヘッドアップディスプレイ(HUD、Head Up Display)に搭載される例を適用して説明する。
【0010】
図1は、本実施形態における視点検出システムが搭載されたHUD1を示す図である。
【0011】
以下の説明において、「前」、「後」、「上」及び「下」は、図1における定義「Fr.」、「Re.」、「To.」、及び「Bo.」に従う。「左」及び「右」(水平方向)は前後及び上下方向(垂直方向)に直交する方向とする。
【0012】
HUD1は、車両2のステアリングホイール5の前方のインストルメントパネル内に搭載される。HUD1は、表示器11と、平面鏡12と、凹面鏡13と、撮影ユニット15と、筐体16と、制御部30と、を有する。
【0013】
表示器11は、四角形状の表示面に画像を表示し、画像を示す表示光Lを平面鏡12に向けて出射する。表示器11は、例えばTFT(Thin Film Transistor)型の液晶表示器や有機EL(Electroluminescence)表示器である。尚、表示器11はプロジェクタ及び表示面を構成するスクリーンを有するものであってもよい。
【0014】
平面鏡12は、表示器11が出射した表示光Lを、凹面鏡13に向けて反射させる。凹面鏡13は、平面鏡12で反射した表示光Lを更に反射させ、ウインドシールド3に向けて出射する。凹面鏡13は、拡大鏡としての機能を有し、表示器11に表示された画像を拡大してウインドシールド3(投影部材)側へ反射する。運転者4が視認する虚像Vは、表示器11に表示された画像が拡大された像である。
【0015】
表示光Lは、ウインドシールド3を照射する。車両2の運転者(被検出者)4は、ウインドシールド3における表示光Lの反射光を、車両2の前方所定位置で虚像Vとして視認する。すなわち、画像は、ウインドシールド3を介して(ウインドシールド3の前方で)運転者4に視認される実景と重なる、仮想的な領域に表示される。また、実景は、画像の背景となり得る。
【0016】
撮影ユニット15(撮影部)は、カメラと、近赤外線光源と、を有する。カメラは、赤外線イメージセンサを有する。カメラは、撮影領域内の運転者4の左目及び右目近傍を含む顔で反射した近赤外線IRを検出し、運転者4の画像を撮影する。近赤外線光源は、近赤外線IRを照射し、ウインドシールド3で反射させて運転者4を照射する。近赤外線光源は、カメラの撮影タイミングと同期して発光する。尚、カメラが検出する波長は、近赤外に限らず、短波赤外であってもよい。また、カメラは、可視光を検出して画像を撮影してもよい。
【0017】
筐体16は、筐体16の内部に、平面鏡12及び凹面鏡13を取付部材を介して固定する。また、筐体16は、表示器11、及び制御部30が実装された制御基板を取付部材を介して固定する。
【0018】
制御部30は、特に、後述する車両2の車両ECU41等から取得する情報に基づいて、表示器11を制御したり、撮影ユニット15を制御したり、撮影ユニット15から取得した情報に基づいて演算処理を行う。具体的には、制御部30は、画像生成部31と、表示制御部32と、記憶部33と、撮影制御部34と、視点位置検出部35と、視点位置推定部36と、視点座標算出部37と、を有する。制御部30は、マイクロプロセッサ、マイクロコントローラ、グラフィックコントローラ、集積回路等であり、制御部30内の各部31~37を実現し、所定の処理を実行する。
【0019】
画像生成部31は、記憶部33より必要な情報を読み出し、表示器11に表示される画像の描画処理を実行し、画像を生成する。
【0020】
表示制御部32は、画像生成部31により生成された画像を表示器11に表示するための制御を行う。表示制御部32は、視点座標算出部37により算出された運転者4の視点位置に基づいて、虚像Vの表示位置を決定する。
【0021】
記憶部33は、RAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリ等であり、所要のプログラムやデータを記憶する。記憶部33は、視点座標算出部37が視点位置を算出する際に必要な情報も記憶する。
【0022】
撮影制御部34は、撮影ユニット15を制御する。具体的には、撮影制御部34は、カメラの撮影タイミングや近赤外線光源の発光タイミングを制御する。
【0023】
視点位置検出部35は、カメラにより撮影された画像における運転者4の視点位置を所定の方法で検出する。ここで、図2は、視点位置55の説明図である。視点位置55は、運転者4の左目51の黒目中心51b及び右目53の黒目中心53bの中点である。視点位置検出部35は、所定の方法として、例えば公知の画像認識技術を用いて黒目51a、53aの位置を検出する。例えば、視点位置検出部35は、各目の目頭51c、53cや、目尻51d、53dを画像から検出し、黒目51a、53aの位置を特定し得る。
【0024】
視点位置推定部36は、視点位置検出部35が所定の方法で視点位置55が検出できず、且つ運転者4の着用する眼鏡の特徴点を画像から抽出できる場合、眼鏡の特徴点に基づいて視点位置55を推定する。ここで図3は、視点位置検出部35が所定の方法で視点位置55を検出できない場合の説明図である。
【0025】
視点位置検出部35は、上述したとおり黒目中心51b、53bに基づいて視点位置55を検出する。しかしながら、カメラにより眼鏡60のレンズ61、63の反射光Fが撮影されてしまうことにより、視点位置検出部35は黒目中心51b、53bの少なくとも一方が検出できない場合が起こり得る。この場合、視点位置推定部36は、運転者4が着用している眼鏡60の特徴点に基づいて、視点位置55を推定する。視点位置推定部36の視点位置55の推定の詳細については、後述する。
【0026】
視点座標算出部37は、視点位置検出部35により検出された視点位置55及び視点位置推定部36により推定された視点位置55から所定の三次元直交座標系における視点位置(以下、「視点座標」という場合がある。)を算出する。
【0027】
ここで、図4は、カメラ座標C1としての三次元直交座標系の説明図である。座標系C1は、撮影ユニット15のカメラの位置を原点とする三次元直交座標系(以下、カメラ座標C1という。)で定義される。Z軸は、カメラの光軸OAに一致する。座標系C2は、撮影ユニット15により撮影された画像(画像面)Pの領域内に定義される二次元直交座標軸(以下、画像座標C2という。)である。x軸はカメラ座標C1のX軸と平行であり、y軸はY軸と平行である。以下、X軸、x軸を水平軸、Y軸、y軸を垂直軸、Z軸を奥行軸という場合がある。
【0028】
視点座標算出部37は、公知の方法を用いて、画像P内の視点位置55である画像座標C2内の座標をカメラ座標C1内の三次元座標に変換する。視点座標算出部37は、予め記憶部33に記憶された既知の対象物の寸法(カメラ座標C1内の距離)と画像座標C2内における既知の対象物の寸法(ピクセル数)とを関連付けて、例えば1ピクセルの寸法(mm)を算出する。視点座標算出部37は、算出された1ピクセルあたりの寸法に基づいて、画像座標C2の座標から、対象物の奥行軸における座標(奥行座標)、水平軸における座標(水平座標)及び垂直軸における座標(垂直座標)を算出する。
【0029】
視点座標算出部37は、既知の対象物の寸法として、例えば黒目中心51b、53b間の距離である眼間距離PD(瞳孔間距離、例えば65mm)を予め保有する。視点座標算出部37は、画像座標C2における眼間距離PD(ピクセル数)を算出し、実際の眼間距離PDから1ピクセルの寸法を算出した後、画像座標C2における視点位置55等の座標からカメラ座標C1における座標(水平座標、垂直座標、奥行座標)を算出する。以下の説明においては、既知の対象物の寸法が眼間距離PDである例を用いて説明する。
【0030】
視点座標算出部37により算出された視点座標は、例えば表示制御部32による虚像Vに係る画像の描画位置を決定するために利用される。また、視点座標は、表示制御部32により表示光Lの出射方向を制御するため凹面鏡13の姿勢を決定するために利用される。また、視点座標は、制御部30により後述する車両ECU41等に出力されることにより、車両2のサイドミラーの位置を調整するために利用される。
【0031】
車両2は、HUD1の他に、車両ECU(Electronic Control Unit)41等の車両2の走行に必要な機能を有する。車両ECU41と制御部30とは、例えばCAN(Controller Area Network)バス42を介して接続されている。車両ECU41は、車両2に設けられた各種センサから車速やエンジン回転数等の車両2の走行に必要な車両情報を取得し、車両2の動作を制御する。
【0032】
次に、制御部30による視点位置55の推定処理について詳細に説明する。
【0033】
視点位置推定部36は、視点位置検出部35が所定の方法で視点位置55を検出できない場合に、推定処理を実行する。視点位置推定部36は、例えば第一から第三視点位置推定処理を実行することにより、視点位置55を推定する。
【0034】
第一視点位置推定処理は、眼鏡60の特徴点から眼鏡60の縦幅及び横幅を検出し、眼鏡60の縦幅から視点位置55を含む横方向に延びる横直線を、眼鏡60の横幅から視点位置55を含む縦方向に延びる縦直線を算出し、横直線及び縦直線の交点から視点位置55を推定する処理である。尚、縦方向及び横方向は互いに直交する方向である。
【0035】
第二視点位置推定処理は、眼鏡60の特徴点及び目51、53の特徴点から眼鏡60の横幅、目頭51c、53c、目尻51d、53d等を検出し、眼鏡60の横幅から視点位置55を含む縦直線を、目頭51c、53c、目尻51d、53d等から視点位置55を含む横直線を求め、縦直線及び横直線の交点から視点位置55を推定する処理である。
【0036】
第三視点位置推定処理は、眼鏡60の特徴点及び目51、53の特徴点から各レンズ61、63の横幅、目頭51c、53c、目尻51d、53d等を検出し、各レンズ61、63の横幅、目頭51c、53c、目尻51d、53d等から黒目中心51b、53bを推定し、黒目中心51b、53bの中点から視点位置55を推定する処理である。
【0037】
これらの第一から第三視点位置推定処理は、例えば視点位置検出部35により黒目中心51b及び黒目中心53bの少なくとも一方が検出されない場合に実行される。視点位置推定部36は、画像Pから抽出可能な眼鏡60や目51、53の特徴点に応じて、第一から第三視点位置推定処理のいずれかを選択して実行してもよい。以下、第一視点位置推定処理の詳細を説明する。
【0038】
図5は、第一視点位置推定処理により視点位置55を推定する際の概念的な説明図である。図6は、第一視点位置推定処理を説明するフローチャートである。
【0039】
ステップS1において、視点位置推定部36は、画像Pから眼鏡60の縦幅d1及び横幅d2を検出するため、複数の眼鏡60の特徴点70を抽出する。視点位置推定部36は、例えばy軸正負方向の最外縁に位置する眼鏡60のフレーム65の特徴点70から縦幅d1を検出する。視点位置推定部36は、例えばx軸正負方向の最外縁に位置するフレーム65の特徴点70から横幅d2を検出する。眼鏡60の縦幅d1及び横幅d2は、それぞれ最低2点の特徴点70から検出され得る。尚、フレーム65のない眼鏡60(フレームレス眼鏡)である場合、視点位置推定部36は、例えばy軸正負方向の最外縁に位置する眼鏡60のレンズ61、63の特徴点70から縦幅d1を検出し、x軸正負方向の最外縁に位置するフレーム65の特徴点70から横幅d2を検出してもよい。
【0040】
ステップS2において、視点位置推定部36は、検出された眼鏡60の縦幅d1の中点からなる横直線L1を算出する。また、視点位置推定部36は、検出された眼鏡60の横幅d2の中点からなる縦直線L2を算出する。
【0041】
ステップS3において、視点位置推定部36は、横直線L1及び縦直線L2の交点を視点位置55と推定する。
【0042】
ステップS4において、視点座標算出部37は、得られた視点位置55から視点座標(水平座標、垂直座標及び奥行座標)を算出する。ここで、上述したとおり、視点座標算出部37は、既知の眼間距離PDを画像P内の対象物の寸法(ピクセル数)と関連付けて、画像座標C2の座標をカメラ座標C1に変換する。しかしながら、視点位置検出部35が反射光Fにより眼間距離PDを検出できない場合、視点位置55を視点座標に変換できない。このため、視点座標算出部37は、眼鏡60の縦幅d1、横幅d2に関する情報を既知の対象物の寸法として予め記憶部33に記憶し、眼間距離PDに変えて、これらの情報から視点位置55を視点座標に変換する。
【0043】
具体的には、視点座標算出部37は、眼鏡60の縦幅d1、横幅d2に関する情報を、反射光Fが発生しておらず画像Pから眼間距離PD及び眼鏡60の縦幅d1、横幅d2が取得可能なタイミングで、画像Pから算出し、記憶する。具体的には、視点座標算出部37は、画像Pにおける眼間距離PDのピクセル数と、既知の眼間距離PDとの関係に基づいて、画像Pにおける眼鏡60の縦幅d1、横幅d2のピクセル数から実際の眼鏡60の縦幅d1、横幅d2を算出する。ステップS4においては、この記憶された眼鏡60の縦幅d1又は横幅d2に基づいて、視点位置55から視点座標を算出する。
【0044】
尚、視点座標算出部37は、眼鏡60の縦幅d1及び横幅d2に限らず、画像Pから検出可能な他の距離を既知の対象物の寸法として予め取得及び記憶しておき、これに基づいて視点位置55を視点座標に変換してもよい。例えば、視点座標算出部37は、既知の対象物の寸法として、画像Pから目頭51c、53c間の距離に関する情報や、目尻51d、53d間の距離に関する情報を予め記憶し、視点座標の算出に用いてもよい。
【0045】
ステップS5において、ステップS4で得られた視点座標の精度を更に向上させるため、ステップS4で得られた視点座標を補正する。ここで、図7は、補正後視点座標を算出する際の概念的な説明図である。
【0046】
視点座標算出部37は、表示制御部32より、虚像Vの中心Vcに関する座標を取得する。視点座標算出部37は、この中心Vcのカメラ座標C1における座標を取得する。視点座標算出部37は、視点座標、既知の眼間距離PD及び既知の眼球の直径(例えば24mm)に基づいて、左目眼球51g、右目眼球53gの眼球中心51h、53hのカメラ座標C1における座標(水平座標、垂直座標、奥行座標)を算出する。具体的には、視点座標算出部37は、視点座標及び眼間距離PDから黒目中心51b、53bの座標を求め、その座標を奥行軸において眼球の中心距離(例えば12mm)だけずらした位置を眼球中心51h、53hの座標とする。
【0047】
また、視点座標算出部37は、虚像Vの中心Vcの座標と、左目眼球中心51hの座標とを結ぶ直線L3を算出する。視点座標算出部37は、虚像Vの中心Vcの座標と、右目眼球中心53hの座標とを結ぶ直線L4を算出する。さらに、視点座標算出部37は、算出された二本の直線L3、L4の中間を通る中間直線L5を算出する。
【0048】
視点座標算出部37は、視点座標の奥行座標を含み奥行座標に直交する奥行座標面と、中間直線L5との交点からなる点を、新たな視点位置155(補正後視点座標)として算出する。すなわち、視点座標算出部37は、ステップS4で算出した視点座標に基づいて得られる眼球中心51h、53hの位置と、HUD1が表示する虚像Vの中心Vcとの間に補正後の黒目中心151b、153bがあるとみなす。これにより、視点座標算出部37は、視点位置55をより正確に求めることができる。以上で第一視点位置推定処理は終了する。
【0049】
次に、第二視点位置推定処理の詳細を説明する。図8は、第二視点位置推定処理により視点位置55を推定する際の概念的な説明図である。図9は、第二視点位置推定処理を説明するフローチャートである。
【0050】
ステップS11において、視点位置推定部36は、画像Pから顔の水平線を算出するため複数の顔の特徴点を抽出する。顔の水平線は、例えば左目目頭51cと右目目頭53cとを結んだ線、左目目尻51dと右目目尻53dとを結んだ線、唇の左右両端を結んだ線等で定義され、顔を正対したときに水平方向に平行となる線である。例えば、顔が傾いている場合(奥行軸周りに回転している場合)には、顔の水平線は水平軸に対して傾きを有する。図8の例においては、視点位置推定部36は、左目51の目頭51cと右目53の目頭53cとを結んだ直線L7から、顔の水平線を算出する。
【0051】
ステップS12において、視点位置推定部36は、画像Pから左目51又は右目53に含まれる特徴点を抽出する。具体的には、視点位置推定部36は、画像Pから運転者4の左目51又は右目53の目尻51d、53d及び目頭51c、53cの組み合わせからなる特徴点を抽出する。視点位置推定部36は、例えば、左目目頭51cと、右目目尻53dの組み合わせからなる特徴点を抽出する。
【0052】
尚、図8の例のように、ステップS11において、左目目頭51c及び右目目頭53cを用いて顔の水平線を算出した場合には、ステップS12においては検出可能である右目目尻53dを検出するための特徴点を抽出すればよい。その他、左目目尻51d及び右目目尻53dを用いて顔の水平線を検出した場合には、ステップS12においては左目目頭51c又は右目目頭53cを抽出すればよい。
【0053】
ステップS13において、視点位置推定部36は、目尻53dを通り、ステップS11で算出した顔の水平線に平行な目尻直線L8と、目頭51c、53cを通り顔の水平線に平行な目頭直線L9と、を算出する。
【0054】
ステップS14において、視点位置推定部36は、眼鏡60の特徴点71から眼鏡60の横幅d2を検出する。ステップS14は、図6のステップS1とほぼ同様であるため、詳細な説明を省略する。
【0055】
ステップS15において、視点位置推定部36は、検出された眼鏡60の横幅d2の中点66を算出する。また、視点位置推定部36は、眼鏡60の横幅d2の中点66を通り、顔の水平線に垂直な縦直線L10を算出する。ステップS16において、視点位置推定部36は、目尻直線L8及び目頭直線L9と縦直線L10との交点72、72を算出する。また、視点位置推定部36は、二つの交点72、72の中点を、視点位置55と推定する。すなわち、視点位置推定部36は、ステップS12及びS13において顔の水平線に平行な目尻直線L8及び目頭直線L9を算出することにより、その中間に位置する横直線L11に黒目中心51b、53bがあると推定し、この横直線L11と縦直線とL10との交点を視点位置55として推定しているといえる。
【0056】
ステップS17及びステップS18は、図6のステップS4及びS5と同様であるため、説明を省略する。
【0057】
尚、視点位置推定部36は、ステップS12において、運転者4の左目51又は右目53の上目蓋及び下目蓋の組み合わせからなる特徴点を抽出し、ステップS13において上目蓋を通り、顔の水平線に平行な上目蓋直線と、下目蓋を通り顔の水平線に平行な下目蓋直線と、を算出してもよい。また、ステップS16において、上目蓋直線と縦直線との交点及び下目蓋直線と縦直線との交点からなる二つの交点の中点を視点位置55と推定してもよい。
【0058】
また、視点位置推定部36は、目尻直線L8及び目頭直線L9の中間を通る横直線L11を算出し、この横直線L11を黒目中心51b、53bを含む直線とみなすことにより、横直線L11が視点位置55を含む、と推定してもよい。この場合、視点座標の水平座標は、任意の方法で求めればよい。
【0059】
次に、第三視点位置推定処理の詳細を説明する。図10は、第三視点位置推定処理により視点位置55を推定する際の概念的な説明図である。図11は、第三視点位置推定処理を説明するフローチャートである。
【0060】
第三視点位置推定処理は、例えば黒目中心51b、53bの少なくとも一方が検出できない場合に実行され得る。例えば、図10の例においては、右目53の黒目中心53bは検出でき、左目51の黒目中心51bが検出できない例が示されている。
【0061】
ステップS21からS23は、図9のステップS11からS13と同様であるため、説明を省略する。
【0062】
ステップS24において、視点位置推定部36は、画像Pから眼鏡60の左レンズ61及び右レンズ63の少なくとも一方の横幅d3を検出するため、複数の眼鏡60の特徴点73を抽出する。視点位置推定部36は、黒目中心51b、53bが検出できない左目51及び右目53の少なくとも一方のレンズ61、63の横幅d3を検出する。視点位置推定部36は、例えばx軸正負方向の最外縁に位置するレンズ61、63の特徴点73から横幅d3を検出する。眼鏡60のレンズ61、63の横幅d3は、最低2点の特徴点73から検出され得る。図10の例においては、黒目中心51bが検出されない側の目である左目51のレンズ61の特徴点73から、横幅d3を検出する。
【0063】
ステップS25において、視点位置推定部36は、検出されたレンズ61、63の横幅d3の中点67を算出する。また、視点位置推定部36は、レンズ61、63の横幅d3の中点67を通り、顔の水平線に垂直な縦直線L12を算出する。ステップS26において、視点位置推定部36は、目尻直線L8及び目頭直線L9と縦直線L12との交点74、74を算出する。また、視点位置推定部36は、二つの交点74、74の中点を、レンズ61、63の横幅d3を検出した左目51の黒目中心51b及び右目53の黒目中心53bの少なくとも一方であると推定する。
【0064】
視点位置推定部36は、黒目中心51b、53bの中点を、視点位置55と推定する。図10の例においては、視点位置推定部36は、レンズ61の横幅d3より推定した左目51の黒目中心51b、及び検出された右目53の黒目中心53bの中点を、視点位置55と推定する。
【0065】
ステップS27及びステップS28は、図6のステップS4及びS5と同様であるため、説明を省略する。
【0066】
尚、視点位置推定部36は、ステップS22において、運転者4の左目51又は右目53の上目蓋及び下目蓋の組み合わせからなる特徴点を抽出し、ステップS23において上目蓋を通り、顔の水平線に平行な上目蓋直線と、下目蓋を通り顔の水平線に平行な下目蓋直線と、を算出してもよい。また、ステップS26において、上目蓋直線と縦直線との交点及び下目蓋直線と縦直線との交点からなる二つの交点の中点を、黒目中心51b、53bと推定してもよい。
【0067】
このような第一から第三視点位置推定処理を実行するHUD1は、運転者4の眼鏡着用時においても好適に視点位置55を検出できる。これにより、HUD1は、運転者4の状態によらずに安定した視点検出精度を得ることが実行できる。
【0068】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【0069】
例えば、HUD1の投影部材がウインドシールド3である例を説明したが、これに代えてコンバイナであってもよい。
【0070】
撮影ユニット15、視点位置検出部35、視点位置推定部36及び視点座標算出部37がHUD1内に設けられる例を説明したが、HUD1とは独立していてもよい。この場合、例えば撮影ユニット15は、インストルメントパネルや、表示ディスプレイ、リヤビューミラー等に適宜配置される。
【符号の説明】
【0071】
1 ヘッドアップディスプレイ(HUD)
2 車両
3 ウインドシールド
4 運転者(被検出者)
5 ステアリングホイール
11 表示器
12 平面鏡
13 凹面鏡
15 撮影ユニット
16 筐体
30 制御部
31 画像生成部
32 表示制御部
33 記憶部
34 撮影制御部
35 視点位置検出部
36 視点位置推定部
37 視点座標算出部
41 車両ECU
42 CANバス
51 左目、目
51a 黒目
51b 黒目中心
51c 左目目頭、目頭
51d 左目目尻、目尻
51g 左目眼球
51h 左目眼球中心、眼球中心
53 右目、目
53a 黒目
53b 黒目中心
53c 右目目頭、目頭
53d 右目目尻、目尻
53g 右目眼球
53h 右目眼球中心、眼球中心
55、155 視点位置
60 眼鏡
61 左レンズ、レンズ
63 右レンズ、レンズ
65 フレーム
66、67 中点
70、71、73 特徴点
72、74 交点
C1 カメラ座標、座標系
C2 画像座標、座標系
F 反射光
IR 近赤外線
L 表示光
L1、L11 横直線
L2、L10、L12 縦直線
L3、L4、L7 直線
L5 中間直線
L8 目尻直線
L9 目頭直線
OA 光軸
P 画像
PD 眼間距離
V 虚像
Vc 中心
d1 縦幅
d2、d3 横幅
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11