(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0013】
以下に添付図面を参照して、本発明に係る投影制御装置、ヘッドアップディスプレイ装置(以下、「HUD装置」という。)、投影制御方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。以下の説明において、本発明を車両用として使用する場合について説明する。また、視認者が運転者であるものとして説明する。
【0014】
[第一実施形態]
図1は、第一実施形態に係る車両用投影制御装置の構成例を示すブロック図である。
図2は、第一実施形態に係るヘッドアップディスプレイ装置の構成例の一例を示す概略図である。HUD装置10は、通常使用時は、例えば、経路案内映像または速度情報映像を含む表示映像200を投影して、表示映像200の虚像を自車両の前方に視認させる。HUD装置10は、位置調整時は、基準位置判定用映像100の映像表示光を運転者Mの顔面に投射することによって、運転者Mの瞳孔位置を検出して、虚像の表示位置を調整可能である。HUD装置10は、カメラ20と、投影ユニット30と、車両用投影制御装置40とを有する。本実施形態では、カメラ20と投影ユニット30と車両用投影制御装置40とは、一体として、車両のダッシュボードDの下側に配置されている。
【0015】
カメラ20は、運転席に着座している運転者Mの顔面を撮影する。より詳しくは、カメラ20は、運転者Mの顔面に向けて投射され、運転者Mの顔面に投影された基準位置判定用映像100を撮影映像データとして撮影する。言い換えると、カメラ20が撮影した撮影映像データは、運転者Mの顔面と基準位置判定用映像100とが映されている。カメラ20は、撮影した撮影映像データを車両用投影制御装置40の映像データ取得部42へ出力する。
【0016】
投影ユニット30は、表示映像200または基準位置判定用映像100を投影する。本実施形態では、投影ユニット30は、表示部31と、凹面鏡32と、反射部とを有する。本実施形態では、反射部は、ウィンドシールドSである。投影ユニット30は、通常使用時は、表示映像200の映像表示光を、ウィンドシールドSにおいて反射させて運転者Mに虚像として視認させる。また、投影ユニット30は、位置調整時は、基準位置判定用映像100の映像表示光を、ウィンドシールドSにおいて反射させて運転者Mの顔面に投射する。投影ユニット30は、通常使用時と位置調整時とで、同一の光路を通過させて、同じ投影位置に投影させる。
【0017】
表示部31は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro‐Luminescence)ディスプレイなどを含むディスプレイである。表示部31は、通常使用時は、車両用投影制御装置40の投影制御部45からの映像信号に基づいて表示面に表示映像200を表示する。表示部31は、位置調整時は、車両用投影制御装置40の投影制御部45からの映像信号に基づいて表示面に基準位置判定用映像100を表示する。表示部31の表示面に表示された表示映像200または基準位置判定用映像100の映像表示光は、凹面鏡32に入射する。
【0018】
凹面鏡32は、表示部31の表示面とウィンドシールドSと向かい合って配置されている。凹面鏡32は、車両の進行方向前方に凸状に湾曲している。凹面鏡32は、表示部31の表示面から入射した映像表示光を、ウィンドシールドSに向けて反射する。
【0019】
ウィンドシールドSは、運転席の進行方向前方に配置されている。ウィンドシールドSは、車両の進行方向前方に凸状に湾曲している。ウィンドシールドSは、通常使用時は、凹面鏡32から入射した表示映像200の映像表示光を反射させて運転者Mに虚像として認識させる。ウィンドシールドSは、位置調整時は、凹面鏡32から入射した基準位置判定用映像100の映像表示光を反射させて運転者Mの顔面に基準位置判定用映像100を投影する。
【0020】
車両用投影制御装置40は、投影ユニット30による表示映像200または基準位置判定用映像100の投影を制御する。車両用投影制御装置40は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。車両用投影制御装置40は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。車両用投影制御装置40は、基準位置判定用映像生成部41と、映像データ取得部42と、検出部43と、調整量取得部44と、投影制御部45とを有する。車両用投影制御装置40には図示しない内部メモリが含まれ、内部メモリは車両用投影制御装置40におけるデータの一時記憶などに用いられる。
【0021】
基準位置判定用映像生成部41は、HUD装置10の投影ユニット30によって投影される、基準位置判定用映像100を生成する。
【0022】
基準位置判定用映像100は、運転者Mの瞳孔位置の検出に使用する基準となる位置を示す目印の映像である。基準位置判定用映像100は、通常使用時における表示映像200の映像表示光の光路と同一の光路を通過して、表示映像200の投影位置と同じ位置に投影される。基準位置判定用映像100は、表示映像200よりも高い輝度の映像である。より詳しくは、基準位置判定用映像100は、映像表示光がウィンドシールドSにおいて反射して運転者Mの顔面に投射する程度の輝度である。
【0023】
基準位置判定用映像100は、表示映像200の虚像に対する運転者Mの瞳孔位置の相対的な位置関係を検出するために使用される映像である。より詳しくは、基準位置判定用映像100は、表示映像200の虚像に対して、運転者Mの瞳孔位置の上下方向の位置または左右方向の位置の少なくともいずれかを検出するために使用される映像である。基準位置判定用映像100は、上下方向の基準位置を示す第一基準位置判定用映像101と左右方向の基準位置を示す第二基準位置判定用映像102との少なくともいずれかを含む。基準位置判定用映像100は、例えば、枠状または格子状または線状である。
【0024】
図3、
図4を参照して、基準位置判定用映像100について説明する。
図3は、第一実施形態に係る車両用投影制御装置によって表示される基準位置判定用映像の一例を示す図である。
図4は、第一実施形態に係る車両用投影制御装置によって表示される基準位置判定用映像の他の例を示す図である。
図3に示すように、基準位置判定用映像100は、一対の第一基準位置判定用映像101と、4本の第二基準位置判定用映像102とで形成された格子状としてもよい。
図4に示すように、基準位置判定用映像100は、一対の第一基準位置判定用映像101と、1本の第二基準位置判定用映像102とで形成されたエの字形状としてもよい。
【0025】
映像データ取得部42は、カメラ20が出力した撮影映像データを取得する。映像データ取得部42は、取得した撮影映像データを検出部43に出力する。
【0026】
検出部43は、撮影映像データに対して画像処理を行って、基準位置判定用映像100と運転者Mの瞳孔との相対的な位置関係を検出する。より詳しくは、検出部43は、撮影映像データにおける運転者Mの瞳孔位置と基準位置判定用映像100とに基づいて、表示映像200の虚像に対する運転者Mの瞳孔位置の上下方向または左右方向の位置の少なくともいずれかを検出する。このようにして、検出部43は、表示映像200の虚像に対する運転者Mの瞳孔位置の相対的な位置関係を検出する。
【0027】
図3ないし
図6を参照して、表示映像200の虚像に対する運転者Mの瞳孔位置の相対的な位置関係について説明する。
図5は、第一実施形態に係る車両用投影制御装置によって検出される運転者の瞳孔位置の一例を示す図である。
図6は、第一実施形態に係る車両用投影制御装置によって検出される運転者の瞳孔位置の他の例を示す図である。
図3は、基準位置判定用映像100に対して、運転者Mの瞳孔位置がズレを生じていない状態である。
図3に示すように、基準位置判定用映像100が格子状である場合、検出部43は、運転者Mの瞳孔が一対の第一基準位置判定用映像101の中間部に位置し、運転者Mの瞳孔が中央の2本の第二基準位置判定用映像102に重なって位置しているとき、運転者Mの瞳孔位置がズレを生じていないとして検出する。また、検出部43は、運転者Mの瞳孔が一対の第一基準位置判定用映像101の中間部に位置せず、または、運転者Mの瞳孔が中央の2本の第二基準位置判定用映像102に重なって位置していないとき、運転者Mの瞳孔位置がズレを生じているとして検出する。さらに、検出部43は、運転者Mの瞳孔位置のズレ量を検出する。
【0028】
図4は、基準位置判定用映像100に対して、運転者Mの瞳孔位置がズレを生じていない状態である。
図4に示すように、基準位置判定用映像100がエの字形状である場合、検出部43は、運転者Mの瞳孔が一対の第一基準位置判定用映像101の中間部に位置し、運転者Mの瞳孔間の中間部に1本の第二基準位置判定用映像102が位置しているとき、運転者Mの瞳孔位置がズレを生じていないとして検出する。また、検出部43は、運転者Mの瞳孔が一対の第一基準位置判定用映像101の中間部に位置せず、または、運転者Mの瞳孔間の中間部に1本の第二基準位置判定用映像102が位置していないとき、運転者Mの瞳孔位置がズレを生じているとして検出する。さらに、検出部43は、運転者Mの瞳孔位置のズレ量を検出する。
【0029】
このように、
図3、
図4に示す状態のとき、検出部43は、基準位置判定用映像100に対して、運転者Mの瞳孔位置は上下方向および左右方向にズレが生じていないとして検出する。基準位置判定用映像100と同じ位置に投影される表示映像200の虚像に対しても、運転者Mの瞳孔位置は上下方向および左右方向にズレを生じない。
【0030】
図5は、基準位置判定用映像100に対して、運転者Mの瞳孔位置がズレを生じている状態である。破線は、運転者Mの瞳孔位置に対して適切な位置にある基準位置判定用映像100を示す。検出部43は、運転者Mの瞳孔が一対の第一基準位置判定用映像101の中間部に位置していないので、運転者Mの瞳孔位置は上下方向にズレを生じているとして検出する。基準位置判定用映像100と同じ位置に投影される表示映像200の虚像に対しても、運転者Mの瞳孔位置は上下方向にズレを生じる。
【0031】
図6は、基準位置判定用映像100に対して、運転者Mの瞳孔位置がズレを生じている状態である。破線は、運転者Mの瞳孔位置に対して適切な位置にある基準位置判定用映像100を示す。検出部43は、運転者Mの瞳孔が中央の2本の第二基準位置判定用映像102に重なって位置していないので、運転者Mの瞳孔位置は左右方向にズレを生じているとして検出する。基準位置判定用映像100と同じ位置に投影される表示映像200の虚像に対しても、運転者Mの瞳孔位置は左右方向にズレを生じる。
【0032】
調整量取得部44は、検出部43で検出した運転者Mの瞳孔位置のズレ量に基づいて、表示映像200の投影位置の調整量を取得する。より詳しくは、
図5に示すように、運転者Mの瞳孔位置が基準位置判定用映像100に対して上方に位置している場合、調整量取得部44は、投影位置を上方にずらして適切な位置にする調整量を取得する。
図6に示すように、運転者Mの瞳孔位置が基準位置判定用映像100に対して運転者Mの左手方向に位置している場合、調整量取得部44は、投影位置を運転者Mの左手方向にずらして適切な位置にする調整量を取得する。
【0033】
投影制御部45は、通常使用時は、自車両の前方に、表示映像200の虚像が視認されるように、表示映像200の投影を制御する。投影制御部45は、位置調整時は、基準位置判定用映像100の映像表示光を運転者Mの顔面に投射するように、基準位置判定用映像100の投影を制御する。投影制御部45は、表示映像200と基準位置判定用映像100とを同じ光路で投影する。
【0034】
図7に示すように、投影制御部45は、例えば、1秒間のうち、1フレームは基準位置判定用映像100を投影し、残りのフレームは表示映像200を投影するように制御してもよい。
図7は、第一実施形態に係る車両用投影制御装置によって投影される映像を説明する図である。1秒間のうちの1フレームのみ基準位置判定用映像100を投影するので、運転者Mの顔面に表示映像200の映像表示光が投射されていることを運転者Mに意識させることなく、位置調整が可能である。本実施形態では、投影制御部45は、1秒間のうちの1フレームのみ基準位置判定用映像100を投影するものとする。
【0035】
または、投影制御部45は、例えば、運転開始時において運転者Mが位置調整の開始操作を実行すると位置調整時として、基準位置判定用映像100を投影するようにしてもよい。また、投影制御部45は、運転者Mによる操作がされない間は通常使用時として、表示映像200を投影するよう制御する。
【0036】
次に、
図8を用いて、車両用投影制御装置40における処理の流れについて説明する。
図8は、第一実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。本実施形態では、HUD装置10の起動中、車両用投影制御装置40は、1秒間のうち1フレームにおいて基準位置判定用映像100を投影して、1秒間のうち残りのフレームにおいて表示映像200を投影するものとして説明する。
【0037】
車両用投影制御装置40は、基準位置判定用映像100の投影タイミングであるか否かを判定する(ステップS11)。より詳しくは、車両用投影制御装置40は、1秒間におけるフレームをカウントして基準位置判定用映像100を投影するタイミングであるか否かを判定する。車両用投影制御装置40は、基準位置判定用映像100を投影するタイミングである場合(ステップS11でYes)、ステップS12に進む。車両用投影制御装置40は、基準位置判定用映像100を投影するタイミングではない場合(ステップS11でNo)、ステップS11の処理を再度実行する。
【0038】
基準位置判定用映像100を投影するタイミングであると判定された場合(ステップS11でYes)、車両用投影制御装置40は、基準位置判定用映像100を投影する(ステップS12)。より詳しくは、車両用投影制御装置40は、投影制御部45によって、基準位置判定用映像生成部41が生成した基準位置判定用映像100を投影する制御信号を出力する。車両用投影制御装置40は、ステップS13に進む。
【0039】
車両用投影制御装置40は、カメラ20によって撮影する(ステップS13)。より詳しくは、車両用投影制御装置40は、カメラ20によって、運転者Mの顔面に投影された基準位置判定用映像100を撮影映像データとして撮影する。車両用投影制御装置40は、ステップS14に進む。
【0040】
車両用投影制御装置40は、撮影映像データを取得する(ステップS14)。より詳しくは、車両用投影制御装置40は、映像データ取得部42によって、カメラ20が撮影した撮影映像データを取得する。車両用投影制御装置40は、ステップS15に進む。
【0041】
車両用投影制御装置40は、瞳孔位置を検出する(ステップS15)。より詳しくは、車両用投影制御装置40は、検出部43によって、撮影映像データに対して画像処理を行って、基準位置判定用映像100と運転者Mの瞳孔との相対的な位置関係を検出する。車両用投影制御装置40は、検出部43によって、運転者Mの瞳孔位置のズレ量を検出する。車両用投影制御装置40は、ステップS16に進む。
【0042】
車両用投影制御装置40は、瞳孔位置が上下方向または左右方向に閾値以上のズレを有するか否かを判定する(ステップS16)。より詳しくは、車両用投影制御装置40は、検出部43が検出した運転者Mの瞳孔位置の上下方向または左右方向のズレ量が閾値以上である場合(ステップS16でYes)、ステップS17に進む。車両用投影制御装置40は、検出部43が検出した運転者Mの瞳孔位置の上下方向または左右方向のズレ量が閾値以上ではない場合(ステップS16でNo)、ステップS19に進む。
【0043】
運転者Mの瞳孔位置の上下方向または左右方向のズレ量が閾値以上であると判定された場合(ステップS16でYes)、車両用投影制御装置40は、虚像位置の調整量を取得する(ステップS17)。より詳しくは、車両用投影制御装置40は、調整量取得部44によって、検出部43で検出した運転者Mの瞳孔位置のズレ量に基づいて、表示映像200の投影位置の調整量を取得する。車両用投影制御装置40は、ステップS18に進む。
【0044】
車両用投影制御装置40は、虚像の投影位置を調整する(ステップS18)。車両用投影制御装置40は、投影制御部45によって、調整量取得部44が取得した調整量に基づいて、位置を調整した基準位置判定用映像100を投影する制御信号を出力する。車両用投影制御装置40は、ステップS19に進む。
【0045】
車両用投影制御装置40は、終了トリガがあるか否かを判定する(ステップS19)。終了トリガとは、例えば、HUD装置10の動作を終了するボタンが押下されたり、車両が停車してエンジンが停止された場合である。車両用投影制御装置40は、終了トリガがある場合(ステップS19でYes)、処理を終了する。車両用投影制御装置40は、終了トリガがない場合(ステップS19でNo)、ステップS11の処理を再度実行する。
【0046】
例えば、
図5を参照して、運転者Mの瞳孔位置が上方にズレて位置している場合について説明する。ステップS18において、車両用投影制御装置40は、
図9に示すように、表示映像200の投影位置を上方にずらして、表示映像200の虚像の表示位置が運転者Mに対して適切な位置に調整される。
図9は、第一実施形態に係る車両用投影制御装置によって投影される映像を説明する図である。
【0047】
例えば、
図6を参照して、運転者Mの瞳孔位置が運転者Mの左手方向にズレて位置している場合について説明する。ステップS18において、車両用投影制御装置40は、
図10に示すように、表示映像200の投影位置を運転者Mの左手方向にずらして、表示映像200の虚像の表示位置が運転者Mに対して適切な位置に調整される。
図10は、第一実施形態に係る車両用投影制御装置によって投影される映像を説明する図である。
【0048】
このようにして、車両用投影制御装置40は、基準位置判定用映像100の映像表示光を運転者Mの顔面に投射することによって、運転者Mの瞳孔位置を検出する。そして、車両用投影制御装置40は、表示映像200の虚像の表示位置を調整する。
【0049】
上述したように、本実施形態は、基準位置判定用映像100の映像表示光を運転者Mの顔面に投射することによって、基準位置判定用映像100と運転者Mの瞳孔との相対的な位置関係を検出する。これにより、本実施形態は、虚像に対する運転者Mの瞳孔位置の相対的な位置関係を検出することができる。
【0050】
本実施形態は、検出した虚像に対する運転者Mの瞳孔位置の相対的な位置関係に基づいて、表示映像200の虚像の表示位置を運転者Mに対して適切な位置に調整することができる。
【0051】
本実施形態は、1秒間のうちの1フレームのみ基準位置判定用映像100を投影する。これにより、本実施形態は、運転者Mの顔面に基準位置判定用映像100の映像表示光が投射されていることを運転者Mに意識させることなく、虚像に対する運転者Mの瞳孔位置の相対的な位置関係を検出することができる。また、本実施形態によれば、運転者Mの顔面に基準位置判定用映像100の映像表示光が投射されていることを運転者Mに意識させることなく、表示映像200の虚像の表示位置を運転者Mに対して適切な位置に調整することができる。
【0052】
本実施形態は、通常使用時における表示映像200の映像表示光の光路と同一の光路を通過して、表示映像200の投影位置と同じ位置に投影される基準位置判定用映像100の映像表示光を運転者Mの顔面に投射する。このように、本実施形態は、基準位置判定用映像100の映像表示光を運転者Mの顔面に投射することにより、虚像に対する運転者Mの瞳孔位置を直接的に検出することができる。
【0053】
本実施形態では、カメラ20と投影ユニット30と車両用投影制御装置40とは、一体として、車両のダッシュボードDの下側に配置されている。本実施形態は、通常使用時に表示映像200の虚像を投影する装置によって、虚像に対する運転者Mの瞳孔位置の相対的な位置関係を検出することができる。本実施形態は、表示映像200の投影を行う装置以外の装置を車両のダッシュボードDなどに取り付けなくてよいので、装置が大型化することを抑制することができる。
【0054】
[第二実施形態]
図11ないし
図13を参照しながら、本実施形態に係るHUD装置10Aについて説明する。
図11は、第二実施形態に係る車両用投影制御装置の構成例を示すブロック図である。
図12は、第二実施形態に係る車両用投影制御装置によって表示される基準位置判定用映像の一例を示す図である。
図13は、第二実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。HUD装置10Aは、基本的な構成は第一実施形態のHUD装置10と同様である。以下の説明においては、HUD装置10と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態では、HUD装置10Aは、顔面データ取得部46Aを有する点と、検出部43Aおよび投影制御部45Aにおける処理が第一実施形態と異なる。
【0055】
基準位置判定用映像100は、通常使用時における表示映像200の映像表示光の光路と同一の光路を通過する。そして、基準位置判定用映像100は、
図12に示すように、表示映像200の投影位置より下側に投影される。
【0056】
HUD装置10Aは、初期設定として、カメラ20によって、運転者Mの顔面の映像を撮影する。顔面データは、顔面の各部位の配置や距離を検出可能な映像である。例えば、顔面データは、眼E(
図2参照)と顔面の所定位置との距離を検出可能な映像である。撮影された顔面のデータである顔面データは、記憶部に記憶される。
【0057】
顔面データ取得部46Aは、記憶部に記憶された顔面データを取得する。
【0058】
検出部43Aは、顔面データ取得部46Aが取得した顔面データと撮影映像データにおける運転者Mの瞳孔位置と基準位置判定用映像100とに基づいて、基準位置判定用映像100と運転者Mの瞳孔との相対的な位置関係を検出する。基準位置判定用映像100は表示映像200の投影位置より下側に投影されるが、検出部43Aは、顔面データを参照することによって、表示映像200の虚像に対する運転者Mの瞳孔位置の相対的な位置関係を検出することが可能である。
【0059】
投影制御部45Aは、
図12に示すように、位置調整時は、顔面データ取得部46Aが取得した顔面データに基づいて、基準位置判定用映像100の映像表示光を運転者Mの顔面の眼Eより下側に投射するように、基準位置判定用映像100の投影を制御する。投影制御部45Aは、位置調整時は、通常使用時における表示映像200の映像表示光の光路と同一の光路を通過して、基準位置判定用映像100を投射する。そして、投影制御部45Aは、基準位置判定用映像100を、表示映像200の投影位置より下側に投影する。
【0060】
次に、
図13を用いて、車両用投影制御装置40Aにおける処理の流れについて説明する。
図13に示すフローチャートのステップS21、ステップS24、ステップS25、ステップS27ないしステップS30の処理は、
図8に示すフローチャートのステップS11、ステップS13、ステップS14、ステップS16ないしステップS19の処理と同様の処理を行う。
【0061】
車両用投影制御装置40Aは、顔面データを取得する(ステップS22)。より詳しくは、車両用投影制御装置40Aは、顔面データ取得部46Aによって、記憶部に記憶された顔面データを取得する。車両用投影制御装置40Aは、ステップS23に進む。
【0062】
車両用投影制御装置40は、運転者Mの顔面の眼Eより下側に基準位置判定用映像100を投影する(ステップS23)。より詳しくは、車両用投影制御装置40は、投影制御部45によって、基準位置判定用映像生成部41が生成した基準位置判定用映像100を運転者Mの顔面の眼Eより下側に投影する制御信号を出力する。車両用投影制御装置40は、ステップS24に進む。
【0063】
車両用投影制御装置40Aは、顔面データに基づいて瞳孔位置を検出する(ステップS26)。より詳しくは、車両用投影制御装置40Aは、検出部43Aによって、顔面データおよび撮影映像データに対して画像処理を行って、基準位置判定用映像100と運転者Mの瞳孔との相対的な位置関係を検出する。車両用投影制御装置40Aは、検出部43Aによって、運転者Mの瞳孔位置のズレ量を検出する。車両用投影制御装置40Aは、ステップS27に進む。
【0064】
上述したように、本実施形態は、位置調整時に、基準位置判定用映像100の映像表示光を運転者Mの顔面の眼Eより下側に投射する。本実施形態によれば、基準位置判定用映像100の映像表示光が、運転者Mの瞳孔に入射することを抑制することができる。これにより、本実施形態は、基準位置判定用映像100の映像表示光によって、運転者Mが眩しいと感じることを抑制することができる。
【0065】
[第三実施形態]
図14、
図15を参照しながら、本実施形態に係るHUD装置10Bについて説明する。
図14は、第三実施形態に係る車両用投影制御装置の構成例を示すブロック図である。
図15は、第三実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。HUD装置10Bは、基本的な構成は第一実施形態のHUD装置10と同様である。本実施形態では、HUD装置10Bは、車両用投影制御装置40Bにおける処理が第一実施形態と異なる。
【0066】
車両用投影制御装置40Bは、基準位置判定用映像生成部41と、映像データ取得部42と、検出部43Bと、第一実施形態の調整量取得部44と同様の機能を有する第一調整量取得部44と、投影制御部45Bと、表情検出部47Bと、第二調整量取得部48Bとを有する。
【0067】
表情検出部47Bは、撮影映像データに対して画像処理を行って、運転者Mの眩しそうな表情を検出する。例えば、表情検出部47Bは、撮影映像データに基づいて、運転者Mが位置調整時に眼を細めたりつぶったりした表情を眩しそうな表情として検出する。
【0068】
第二調整量取得部48Bは、運転者Mの眼から基準位置判定用映像100の第一基準位置判定用映像101および第二基準位置判定用映像102が外れるように、基準位置判定用映像100の投影位置の第二調整量を取得する。より詳しくは、第二調整量取得部48Bは、基準位置判定用映像100の投影位置を上下方向または左右方向にずらして第一基準位置判定用映像101および第二基準位置判定用映像102が運転者Mの眼から外れる位置にする第二調整量を取得する。
【0069】
検出部43Bは、基準位置判定用映像100の投影位置が第二調整量ずらされていないとき、第一実施形態と同様に表示映像200の虚像に対する運転者Mの瞳孔位置の上下方向または左右方向の位置の少なくともいずれかを検出する。検出部43Bは、基準位置判定用映像100の投影位置が第二調整量ずらされているとき、撮影映像データにおける運転者Mの瞳孔位置と基準位置判定用映像100と第二調整量とに基づいて、表示映像200の虚像に対する運転者Mの瞳孔位置の上下方向または左右方向の位置の少なくともいずれかを検出する。言い換えると、検出部43Bは、基準位置判定用映像100の投影位置が第二調整量ずらされているとき、基準位置判定用映像100の位置調整を考慮して、運転者Mの瞳孔位置の上下方向または左右方向の位置の少なくともいずれかを検出する。
【0070】
投影制御部45Bは、位置調整時において運転者Mの眩しそうな表情を検出すると、基準位置判定用映像100の映像表示光を運転者Mの眼の位置から外して投射するように、基準位置判定用映像100の投影を制御する。
【0071】
次に、
図15を用いて、車両用投影制御装置40Bにおける処理の流れについて説明する。
図15に示すフローチャートのステップS41ないしステップS44、ステップS50ないしステップS53の処理は、
図8に示すフローチャートのステップS11ないしステップS14、ステップS16ないしステップS19の処理と同様の処理を行う。
【0072】
車両用投影制御装置40Bは、表情を検出する(ステップS45)。より詳しくは、車両用投影制御装置40Bは、表情検出部47Bによって、撮影映像データに対して画像処理を行って、運転者Mの眩しそうな表情を検出する。
【0073】
車両用投影制御装置40Bは、眩しそうな表情を検出したか否かを判定する(ステップS46)。より詳しくは、車両用投影制御装置40Bは、表情検出部47Bの検出結果に基づいて、運転者Mの眩しそうな表情を検出した場合(ステップS46でYes)、ステップS47に進む。車両用投影制御装置40Bは、表情検出部47Bの検出結果に基づいて、運転者Mの眩しそうな表情を検出していない場合(ステップS46でNo)、ステップS49に進む。
【0074】
眩しそうな表情を検出した場合(ステップS46でYes)、車両用投影制御装置40Bは、基準位置判定用映像100の第二調整量を取得する(ステップS47)。より詳しくは、車両用投影制御装置40Bは、第二調整量取得部48Bによって、運転者Mの眼から基準位置判定用映像100の第一基準位置判定用映像101および第二基準位置判定用映像102が外れるように、基準位置判定用映像100の投影位置の第二調整量を取得する。車両用投影制御装置40Bは、ステップS48に進む。
【0075】
車両用投影制御装置40Bは、位置を調整して基準位置判定用映像100を投影する(ステップS48)。車両用投影制御装置40Bは、投影制御部45Bによって、第二調整量取得部48Bが取得した第二調整量に基づいて、位置を調整した基準位置判定用映像100を投影する制御信号を出力する。車両用投影制御装置40Bは、ステップS43の処理を再度実行する。
【0076】
眩しそうな表情を検出していない場合(ステップS46でNo)、車両用投影制御装置40Bは、基準位置判定用映像100の投影位置に応じて瞳孔位置を検出する(ステップS49)。ステップS48において基準位置判定用映像100の投影位置が調整されていないとき、車両用投影制御装置40Bは、検出部43Bによって、ステップS15と同様の処理を行う。ステップS48において基準位置判定用映像100の投影位置が第二調整量ずらされているとき、車両用投影制御装置40Bは、検出部43Bによって、基準位置判定用映像100の位置調整を考慮して、運転者Mの瞳孔位置の上下方向または左右方向の位置の少なくともいずれかを検出する。車両用投影制御装置40Bは、ステップS50に進む。
【0077】
上述したように、本実施形態は、位置調整時に、運転者Mの眩しそうな表情を検出すると、基準位置判定用映像100の映像表示光を運転者Mの顔面の眼Eから外すように位置を調整して投射する。これにより、本実施形態は、位置調整時に、基準位置判定用映像100の映像表示光によって、運転者Mが眩しいと感じることを低減することができる。
【0078】
[第四実施形態]
図16、
図17を参照しながら、本実施形態に係るHUD装置10について説明する。
図16は、第四実施形態に係る車両用投影制御装置によって検出される運転者の瞳孔位置の一例を示す図である。
図17は、第四実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。HUD装置10は、基本的な構成は第一実施形態のHUD装置10と同様である。本実施形態では、HUD装置10は、車両用投影制御装置40における処理が第一実施形態と異なる。
【0079】
検出部43は、撮影映像データにおける運転者Mの瞳孔位置と基準位置判定用映像100とに基づいて、表示映像200の虚像に対する運転者Mの瞳孔位置の傾きを検出する。より詳しくは、検出部43は、撮影映像データに画像処理を行って、運転者Mの左右の瞳孔位置を結んだ直線Lの、第一基準位置判定用映像101に対する傾きを角度θとして検出する。
【0080】
図16を参照して、表示映像200の虚像に対する運転者Mの瞳孔位置の傾きについて説明する。例えば、カーブを走行中に遠心力が作用すると、
図16に示すように運転者Mの顔が傾くことがある。
図16に示すように、基準位置判定用映像100が格子状である場合、検出部43は、運転者Mの左右の瞳孔位置を結んだ直線Lが第一基準位置判定用映像101に対して傾いているとき、運転者Mの瞳孔位置が傾いているとして検出する。また、検出部43は、運転者Mの瞳孔位置の傾きの角度θを取得する。
【0081】
調整量取得部44は、検出部43が検出した虚像に対する視認者の瞳孔位置の相対的な位置関係に基づいて、前方に投影する虚像の位置の調整量を取得する。より詳しくは、調整量取得部44は、運転者Mの瞳孔位置が傾いていても、表示映像200の虚像が歪みなく視認されるような表示映像200の調整量を算出する。例えば、調整量取得部44は、検出部43で検出した運転者Mの瞳孔位置の傾きの角度θに基づいて、表示映像200の虚像が歪みなく視認されるような光学機構の調整量を取得してもよい。または、例えば、調整量取得部44は、検出部43で検出した運転者Mの瞳孔位置の傾きの角度θに基づいて、表示映像200の虚像が歪みなく視認されるように虚像位置に対して実行する画像補正処理における調整量を取得してもよい。または、例えば、調整量取得部44は、検出部43で検出した運転者Mの瞳孔位置の傾きの角度θに基づいて、表示映像200の虚像が歪みなく視認されるように表示部31に表示する表示映像200の表示位置の調整量を取得してもよい。
【0082】
投影制御部45は、調整量取得部44が取得した調整量に基づいて、前方に投影する虚像の位置を調整して投影するよう制御する。より詳しくは、投影制御部45は、運転者Mの瞳孔位置が傾いているとき、自車両の前方に、表示映像200の虚像が歪みなく視認されるように、表示映像200を調整して投影するように制御する。例えば、投影制御部45は、調整量取得部44で取得した調整量に基づいて、光学機構を調整することによって、調整した表示映像200を投影してもよい。または、例えば、投影制御部45は、調整量取得部44で取得した調整量に基づいて、画像補正処理を実行することによって、調整した表示映像200を投影してもよい。または、例えば、投影制御部45は、調整量取得部44で取得した調整量に基づいて、表示部31に表示する表示映像200の表示位置を調整するによって、調整した表示映像200を投影してもよい。
【0083】
次に、
図17を用いて、車両用投影制御装置40における処理の流れについて説明する。
図15に示すフローチャートのステップS61ないしステップS64、ステップS69の処理は、
図8に示すフローチャートのステップS11ないしステップS14、ステップS19の処理と同様の処理を行う。
【0084】
車両用投影制御装置40は、瞳孔位置の傾きを検出する(ステップS65)。より詳しくは、車両用投影制御装置40は、検出部43によって、撮影映像データに対して画像処理を行って、表示映像200の虚像に対する運転者Mの瞳孔位置の傾きの角度θを検出する。車両用投影制御装置40は、ステップS66に進む。
【0085】
車両用投影制御装置40は、瞳孔位置が傾いているか否かを判定する(ステップS66)。より詳しくは、車両用投影制御装置40は、検出部43が検出した運転者Mの瞳孔位置の傾きの角度θが閾値以上であると、瞳孔位置が傾いていると判定して(ステップS66でYes)、ステップS67に進む。車両用投影制御装置40は、検出部43が検出した運転者Mの瞳孔位置の傾きの角度θが閾値以上ではないと、瞳孔位置が傾いていないと判定して(ステップS66でNo)、ステップS69に進む。
【0086】
運転者Mの瞳孔位置が傾いていると判定された場合(ステップS66でYes)、車両用投影制御装置40は、瞳孔位置の傾きに応じて虚像位置の調整量を取得する(ステップS67)。より詳しくは、車両用投影制御装置40は、調整量取得部44によって、検出部43で検出した運転者Mの瞳孔位置の傾きに基づいて、表示映像200の調整量を取得する。車両用投影制御装置40は、ステップS68に進む。
【0087】
車両用投影制御装置40は、瞳孔位置の傾きに応じて虚像の投影位置を調整する(ステップS68)。車両用投影制御装置40は、投影制御部45によって、調整量取得部44が取得した調整量に基づいて、位置を調整した基準位置判定用映像100を投影する制御信号を出力する。車両用投影制御装置40は、ステップS69に進む。
【0088】
上述したように、本実施形態は、瞳孔位置の傾きに応じて虚像の投影位置を調整する。これにより、本実施形態は、表示映像200の虚像を歪みなく視認することができる。例えば、本実施形態は、カーブを走行中に運転者Mの顔が傾いたようなときでも、表示映像200の虚像を歪みなく視認させることができる。
【0089】
さて、これまで本発明に係るHUD装置10について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。
【0090】
図示したHUD装置10の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
【0091】
HUD装置10の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
【0092】
上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
【0093】
投影ユニット30は、ウィンドシールドSを反射部とするものとして説明したが、反射部はこれに限定されない。例えば、コンバイナを反射部として使用するものでもよい。
【0094】
基準位置判定用映像100は、可視光を使用するものに限定されず、赤外光を使用してもよい。基準位置判定用映像100に赤外光を使用した場合、カメラ20は、赤外光を撮影可能な赤外カメラとする。基準位置判定用映像100に赤外光を使用することにより、運転者Mの顔面に基準位置判定用映像100の映像表示光が投射されていることを運転者Mに意識させることなく、運転者Mの瞳孔位置を検出することが可能である。
【0095】
さらに、カメラ20が撮影した運転者の顔面に映った基準位置判定用映像100によって、基準位置判定用映像100および表示映像200の表示輝度を検出することが可能である。検出した表示輝度に応じて、例えば、車両用投影制御装置40は、トンネル走行時または西日が差す時間には、表示映像200のコントラストを調整して投影する処理を実行してもよい。