(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-23
(45)【発行日】2024-09-02
(54)【発明の名称】画像表示制御装置、画像表示制御方法、及びプログラム
(51)【国際特許分類】
G01C 21/34 20060101AFI20240826BHJP
G08G 1/16 20060101ALI20240826BHJP
G06T 19/00 20110101ALI20240826BHJP
G06F 3/01 20060101ALI20240826BHJP
【FI】
G01C21/34
G08G1/16 D
G06T19/00 600
G06F3/01 510
(21)【出願番号】P 2021042762
(22)【出願日】2021-03-16
【審査請求日】2023-11-07
(73)【特許権者】
【識別番号】000003997
【氏名又は名称】日産自動車株式会社
(73)【特許権者】
【識別番号】507308902
【氏名又は名称】ルノー エス.ア.エス.
【氏名又は名称原語表記】RENAULT S.A.S.
【住所又は居所原語表記】122-122 bis, avenue du General Leclerc, 92100 Boulogne-Billancourt, France
(74)【代理人】
【識別番号】110000486
【氏名又は名称】弁理士法人とこしえ特許事務所
(72)【発明者】
【氏名】陳 放歌
【審査官】増子 真
(56)【参考文献】
【文献】特開2020-061642(JP,A)
【文献】特開2003-291688(JP,A)
【文献】特開2014-174879(JP,A)
【文献】米国特許出願公開第2013/0194110(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/00 - 99/00
G01C 21/00 - 21/36
G01C 23/00 - 25/00
G06F 3/01
G06F 3/048 - 3/04895
G06T 1/00
G06T 11/60 - 13/80
G06T 17/05
G06T 19/00 - 19/20
(57)【特許請求の範囲】
【請求項1】
現実空間又は現実空間の撮像画像に、ユーザが視認可能な対象画像を重畳してディスプレイに表示させる画像表示制御部と、
前記ユーザの視線を計測する計測装置から出力される情報に基づいて、前記ユーザ
が注視している領域である視界領域を演算する視界領域演算部と、
前記ディスプレイ上に前記視界領域が存在する場合に、前記ディスプレイ上の前記対象画像の表示位置を
前記視界領域の外側に移動させ
る移動経路を生成する移動経路生成部と、を備え
、
前記画像表示制御部は、前記移動経路に沿って前記表示位置を移動させ、
前記視界領域演算部は、新たな前記視界領域となり得る前記ユーザの予測視界領域を予測する視界領域予測部を有し、
前記視界領域は、前記予測視界領域を含む、画像表示制御装置。
【請求項2】
前記視界領域予測部は、
前記ユーザの視線方向を撮像する第1撮像装置から撮像画像を取得し、
前記ユーザの視線方向の撮像画像から、所定時間が経過した後に前記ユーザが注視する可能性のある注視対象物を特定し、
前記注視対象物に基づいて、前記予測視界領域を予測する
、請求項1に記載の画像表示制御装置。
【請求項3】
前記視界領域予測部は、
前記計測装置から、前記ユーザの瞳の位置情報を取得し、
前記ユーザの瞳の位置から前記注視対象物の方向を、前記ユーザが前記注視対象物を視認した場合の前記ユーザの予測視線として予測し、
前記ユーザの予測視線に基づいて、前記予測視界領域を予測する
、請求項2に記載の画像表示制御装置。
【請求項4】
前記視界領域予測部は、前記移動経路が生成された後に、新たな前記予測視界領域を予測し、
前記移動経路生成部は、前記移動経路と前記新たな予測視界領域が重なる場合、前記新たな予測視界領域の外側に、新たな前記移動経路を生成する
、請求項1に記載の画像表示制御装置。
【請求項5】
前記ユーザは、車両の乗員であり、
前記注視対象物は、前記車両の周辺に存在する移動体、前記車両が走行する道路の交通規則を示す情報提示物、前記車両の走行を妨げる障害物、及び前記車両に搭載され、前記乗員が操作可能な車載機器のうち少なくとも
一つを含む
、請求項2又は3に記載の画像表示制御装置。
【請求項6】
請求項1~
5のいずれか
一項に記載の画像表示制御装置として
コンピュータを機能させる
、プログラム。
【請求項7】
コンピュータにより実行される画像表示制御方法であって、
現実空間又は現実空間の撮像画像に、ユーザが視認可能な対象画像を重畳して表示す
る画像信号をディスプレイに出力し、
前記ユーザの視線を計測する計測装置から出力される情報に基づいて、前記ユーザ
が注視している領域である視界領域を演算し、
前記ディスプレイ上に前記視界領域が存在する場合に、前記ディスプレイ上の前記対象画像の表示位置
を前記視界領域の外側に移動させ
る移動経路を生成
し、
前記移動経路に沿って前記表示位置を移動させ、
新たな前記視界領域となり得る前記ユーザの予測視界領域を予測し、
前記視界領域は、前記予測視界領域を含む、画像表示制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像表示制御装置、画像表示制御方法、及びプログラムに関する。
【背景技術】
【0002】
現実の空間を模した仮想空間に画像を展示する画像表示装置が知られている(例えば、特許文献1)。特許文献1に記載の画像表示装置は、画像と画像の鑑賞者を表すアバターを仮想空間内に表示する表示部と、仮想空間内でアバターを移動させるためのアバター制御部と、画像とアバターとの相対的な位置関係に応じて画像の表示態様を変化させる表示制御部と、を備える。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載の画像表示装置では、現実空間にいるユーザの視界を考慮して、アバターを移動させることができない。このため、ユーザが現実空間と仮想対象物とを同時に視認可能な拡張現実において、ユーザの視界に含まれないように仮想対象物であるアバターを移動させることが難しい、という問題がある。
【0005】
本発明が解決しようとする課題は、拡張現実において、ユーザの視界に含まれないように仮想対象物を移動させることができる画像表示装置、画像表示方法、及びプログラムを提供することである。
【課題を解決するための手段】
【0006】
本発明は、現実空間又は現実空間の撮像画像に、ユーザが視認可能な対象画像を重畳してディスプレイに表示させ、ユーザの視線を計測する計測装置から出力される情報に基づいて、ユーザが注視している領域である視界領域を演算し、ディスプレイ上に視界領域が存在する場合に、ディスプレイ上の対象画像の表示位置をユーザの視界領域の外側に移動させるための移動経路を生成し、移動経路に沿って対象画像の表示位置を移動させる場合に、視界領域に、新たな視界領域となり得るユーザの予測視界領域を含めることで、上記課題を解決する。
【発明の効果】
【0007】
本発明によれば、ユーザの視界を考慮して、仮想対象物を移動させるための移動経路を生成することができるため、拡張現実において、ユーザの視界に含まれないように仮想対象物を移動させることができる。
【図面の簡単な説明】
【0008】
【
図1】本発明の画像表示装置、画像表示方法、及びプログラムを適用した画像表示システムを示すブロック図である。
【
図2】移動経路生成部による移動経路の生成方法を説明するための説明図である。
【
図3】画像表示システムにより実行される、アバターが移動するまでのフローを示すフローチャートである。
【
図4】
図3に示すフローチャートの続きを示すフローチャートである。
【
図5】変形例に係る画像表示システムにより実行される、アバターが移動するまでのフローを示すフローチャートである。
【発明を実施するための形態】
【0009】
以下、本発明の実施形態を図面に基づいて説明する。
【0010】
本実施形態は、本発明に係る画像表示制御装置、画像表示制御方法、及びプログラムを適用した画像表示システムに関するものである。本実施形態に係る画像表示システムは、現実空間又は現実空間の撮像画像に対して、現実空間に存在しない仮想の対象物や仮想の物体(以降、これらの総称として仮想対象物という)をディスプレイに重畳して表示させることで、ユーザに現実空間及び仮想対象物を視認させるシステム、いわゆる拡張現実(Argument Reality: AR)の技術を用いたシステムである。このような拡張現実を用いた画像表示システムでは、仮想対象物は、ユーザの行動とは関係なく移動する場合がある。本実施形態に係る画像表示システムは、ユーザには視認されていない仮想対象物が移動するにあたり、ユーザの視界の外側に、仮想対象物を移動させるための移動経路を生成することで、ユーザが仮想対象物の移動に気を取られるのを抑制できるシステムである。
【0011】
図1は、本実施形態に係る画像表示システム100を示すブロック図である。本実施形態では、画像表示システム100が車両に搭載されており、画像表示システム100を利用するユーザとして、車両の乗員を例に挙げて説明する。以降の説明では、具体的に、車両の乗員のうち運転者を例に挙げて説明するが、ユーザは人間であればよく、運転者に限定されない。また、画像表示システム100は、車載用の画像表示システムに限定されない。
【0012】
また本実施形態では、運転者が視認可能な仮想対象物として、遠隔地ユーザを模したアバターを例に挙げて説明する。遠隔地ユーザとは、車両の室内とは別の空間に位置するユーザである。アバターは、例えば、遠隔地ユーザの操作によって、運転者の行動とは無関係に移動することができる。なお、仮想対象物は、遠隔地ユーザを模したアバターに限られず、人口知能(Artificial intelligence: AI)により自律的に移動可能なアバターであってもよい。
【0013】
図1に示すように、画像表示システム100は、車載カメラ1、視線計測装置2、ディスプレイ3、及び画像表示制御装置10を含む。画像表示システム100を構成する各装置の間は、有線又は無線により電気的に接続されており、情報(データ、信号ともいう)の授受が可能となっている。なお、本実施形態では、装置間の通信規格は、特に限定されず、本願出願時に知られた通信規格を適宜利用できるものとする。
【0014】
車載カメラ1は、車両に搭載され、車両の前方を撮像する撮像装置である。車載カメラ1は、運転者が視認できる範囲を撮像できるように設けるのが好ましく、車両の前方を撮像する前方カメラに加えて、車両の側方を撮像する側方カメラ、車両の後方を撮像する後方カメラを含んでいてもよい。車載カメラ1により撮像された撮像画像は、車両の周辺撮像画像データとして、画像表示制御装置10に出力される。車載カメラ1は、運転者が視認できる範囲を撮像する装置又は機器であればよく、その形態、数、特性、設置場所などは特に限定されない。例えば、車載カメラ1は、複数のカメラ又は種別が複数のカメラで構成されていてもよい。
【0015】
視線計測装置2は、運転者の視線を計測する計測装置である。視線計測装置2は、運転者の視点の位置や、運転者の瞳の動きを逐次計測し、運転者の視線を追跡する。視線計測装置2は、運転者の視線を追跡する機器として、アイトラッカーとも称される。視線計測装置2は、運転者の視線を計測できる計測装置であればよく、その形態、数、特性、設置場所などは特に限定されない。例えば、視線計測装置2は、運転者が装着する拡張現実デバイス(例えば、AR Glass)に設けられ、運転者の瞳を撮像する視線計測用カメラ20を有している。例えば、視線計測装置2は、車両の室内の所定の位置に設けられ、運転者の顔を撮像する視線計測用カメラ20を有している。
【0016】
また視線計測装置2は、画像処理機能を備えており、画像処理によって撮像画像から運転者の視線を計測する。例えば、視線計測装置2が車両の室内に設けられている場合、視線計測装置2は、視線計測用カメラ20により撮像された運転者の顔の撮像画像に対して、本願出願時に知られた画像処理を実行し、運転者の眼球の位置や、鼻や眉毛など運転者の顔の特徴点の位置を特定する。また、視線計測装置2は、特定した各特徴点の位置情報に基づき、運転者の顔の向き特定する。また、視線計測装置2は、運転者の眼球に対して、本願出願時に知られた画像処理を実行し、眼球のうち瞳の向きを特定する。このような画像処理を経て、視線計測装置2は、運転者の顔の向きに対する運転者の瞳の方向を特定し、運転者の瞳の方向を運転者の視線とする。視線計測装置2により計測された運転者の視線に関する情報は、所定の時間ごとに、画像表示制御装置10に出力される。なお、上述した視線計測装置2による運転者の視線の計測方法は一例であって、視線計測装置2には、本願出願時に知られた視線追跡技術(アイトラッキング技術)を適用することができる。
【0017】
ディスプレイ3には、画像表示制御装置10から画像信号が入力される。ディスプレイ3は、画像表示制御装置10からの画像信号に基づき、現実空間又は現実空間の撮像画像に仮想対象物が重畳された画像を表示する。ディスプレイ3は、画像信号に含まれる仮想対象物の種別、仮想対象物を表示する向き、仮想対象物を表示する位置などの情報に基づき、仮想対象物を現実空間又は現実空間の撮像画像に重畳して表示する。ディスプレイ3としては、例えば、AR Glassなどの拡張現実デバイスに設けられ、眼鏡型のディスプレイが挙げられる。またディスプレイ3は、ユーザ毎に設けられたディスプレイに限られず、例えば、車両の室内に設けられ、複数の車両の乗員が共用可能なディスプレイであってもよい。
【0018】
画像表示制御装置10は、アバターが移動する際の経路である移動経路を生成するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成される。なお、動作回路としては、CPUに代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを用いることができる。以降では、画像表示制御装置10が実行するプログラムは、ROMに格納されたプログラムとして説明するが、プログラムの格納場所は画像表示制御装置10の外部であってもよい。例えば、画像表示制御装置10が実行するプログラムは、コンピュータが読み取り可能な記録媒体に格納されていてもよい。この場合、当該記録媒体と画像表示制御装置10とを所定の規格を用いて接続することで、画像表示制御装置10は、記録媒体に記録されたプログラムを実行することができる。本実施形態では、画像表示制御装置10は、ユーザが装着する拡張現実デバイスに設けられているものとして説明する。
【0019】
図1に示すように、画像表示制御装置10は、画像表示制御部11、視線情報取得部12、視界領域演算部13、及び移動経路生成部16を含み、これらのブロックは、ROMに記憶されたプログラムによって、後述する各機能を実現する。
【0020】
画像表示制御部11は、現実空間又は現実空間の撮像画像に、ユーザが視認可能な仮想対象物を重畳した画像を表示するための画像信号をディスプレイ3に出力して、画像信号に応じた画像をディスプレイ3に表示させる。画像表示制御部11には、本願出願時に知られた拡張現実の技術が適用することができる。例えば、光学シースルー方式の場合、画像表示制御部11は、仮想対象物を表す画像と現実空間からの光をハーフミラーやプリズムなどの光学素子によって合成することで、現実空間に仮想対象物を重畳させて表示することができる。また例えば、ビデオシースルー方式の場合、画像表示制御部11は、拡張現実デバイスに設けられたカメラ(図示しない)により撮像された現実空間の撮像画像と、仮想対象物を表す画像とを、仮想空間(映像空間ともいう)の中で合成することで、現実空間の撮像画像に仮想対象物を重畳させて表示することができる。本実施形態では、ビデオシースルー方式を例に挙げて説明する。
【0021】
例えば、画像表示制御部11は、仮想空間として、車両の室内の様子を模した空間の三次元モデルをROMなどの記憶装置に記憶している。以降、便宜上、車両の室内空間を表した三次元モデルを、単に三次元モデルと称して説明する。例えば、三次元モデルは、車両の室内の撮像画像から生成され、予め記憶装置に記憶されている。画像表示制御部11は、いわゆるレジストレーションと呼ばれる、現実空間の座標と三次元モデルの座標を一致させる処理を実行する。例えば、画像表示制御部11は、視線計測装置2をキャリブレーションするためのメモリを有している。キャリブレーションとは、校正のことである。画像表示制御部11は、画像表示制御の初期処理として、視線計測装置2の座標(現実に視線計測装置2が位置する場所)を三次元モデルの座標に変換する座標変換処理を実行して、三次元モデル内での視線計測装置2の座標を演算する。そして、画像表示制御部11は、演算された三次元モデル内での視線計測装置2の座標をキャリブレーション用のメモリに記憶させる。
【0022】
視線情報取得部12は、視線計測装置2から運転者の視線に関する情報を取得する。運転者の視線に関する情報は、運転者の瞳の位置、運転者の瞳が向く方向、及び運転者の顔の向きを含む。視線情報取得部12は、所定の時間ごとに、視線計測装置2から運転者の視線に関する情報を取得する。
【0023】
また運転者が装着する拡張現実デバイスに視線計測装置2が設けられている場合、視線情報取得部12は、拡張現実デバイスに設けられ、運転者の頭部の動きを検出するセンサ(例えば、ジャイロセンサ)から、所定の時間ごとに、視線計測装置2の位置情報(座標情報)を取得する。視線情報取得部12により取得された視線計測装置2の位置情報は、画像表示制御部11による座標変換処理、視界領域特定部14による視界領域特定処理、及び視界領域予測部15による視界領域予測処理に用いられる。視線計測装置2の位置情報を加味して、これらの処理を実行することで、運転者の頭部の動きに伴い、視線計測装置2が移動したとしても、三次元モデル内で視線計測装置2の座標を移動させ、運転者の視点の移動を三次元モデル内で再現させることができる。
【0024】
視界領域演算部13は、視線情報取得部12が取得した運転者の視線情報に基づいて、運転者の視界領域を演算する。本実施形態では、
図1に示すように、視界領域演算部13は、視界領域特定部14及び視界領域予測部15で構成されている。
【0025】
視界領域特定部14は、視線情報取得部12が取得した運転者の視線情報に基づいて、現在の運転者の視界領域を特定する。運転者の視界領域とは、運転者の視界を表した領域であって、高さ、幅、奥行き、及び方向の要素で構成される領域である。運転者の視界領域は、運転者が注視している領域であって運転者の視力が比較的高い中心視野、中心視野の外側の領域であって運転者の視力が比較的低い周辺視野を含む。
【0026】
例えば、視界領域特定部14は、運転者の瞳の向きから、運転者の視線方向を特定すると、三次元モデル内に運転者の視界を表した画像を生成して、運転者の視野角及び運転者の視野の奥行を視覚化する。運転者の視界を視覚化した画像としては、例えば、頂点が運転者の瞳の中心に位置し、高さが運転者の視線に沿い、側面の中心角が30度の円錐の画像が挙げられる。例えば、運転者の視界を視覚化した画像は、記憶装置に予め記憶されており、視界領域特定部14は、記憶装置から円錐の画像を読み出し、運転者の瞳の中心の位置に円錐の頂点に合わせつつ、運転者の視線を円錐の高さを合わることで、三次元モデル内に運転者の視界領域を生成する。
【0027】
また、視界領域特定部14は、視線情報取得部12が視線計測装置2から経時的に取得した運転者の視線情報に基づいて、運転者の視線が移動することを検知するとともに、運転者の視線が移動する方向を特定する。例えば、視界領域特定部14は、現在の運転者の視線方向と、所定時間前の運転者の視線方向とを比較し、所定時間前の運転者の視線方向と現在の運転者の視線方向が異なる場合、所定時間前の運転者の視線方向から現在の運転者の視線方向を、運転者の視線の移動方向として特定する。
【0028】
視界領域予測部15は、所定時間が経過した後にユーザの視界領域となり得るユーザの予測視界領域を予測する。ユーザの予測視界領域とは、現在のユーザの視界領域とは異なる新たなユーザの視界領域である。所定時間は予め定められた時間である。所定時間としては、例えば、数秒程度が挙げられる。なお、所定時間が短いほど、視界領域予測部15による処理回数が増え、画像表示制御装置10の演算負荷が増える。一方、所定時間が長いほど、予測視界領域の予測精度が低下する。所定時間には、演算負荷と予測精度との関係から、実験的に求めた時間を用いるのが好ましい。
【0029】
視界領域予測部15による予測視界領域の予測方法としては、例えば、車載カメラ1により撮像された撮像画像に基づいて予測する方法が挙げられる。これは、運転者の気を逸らす現実の対象物が存在する場合、運転者は当該対象物の方に視線を移動させ、運転者の視界が移動する、という観点に基づく。視界領域予測部15は、本願出願時に知られた画像認識処理を実行することで、車載カメラ1により撮像された車両前方の撮像画像から、運転者が注視する可能性のある注視対象物の種別、及び運転者の瞳の位置に対する注視対象物の相対的な位置を特定する。注視対象物は、所定時間が経過した後に運転者が注視する可能性のある対象物である。注視対象物としては、例えば、車両の周辺に存在する移動体、車両が走行する道路の交通規則を示す情報提示物、車両の走行を妨げる障害物、車両に搭載され、運転者が操作可能な車載機器などが挙げられる。上述した移動体は、運転者が乗車する車両以外の他車両、歩行者、自動二輪車、及び自転車を含む。また上述した情報提示物は、道路標識、路面標示、及び信号機を含む。
【0030】
視界領域予測部15は、撮像画像から運転者の注視対象物を特定すると、現実空間に対応させるように、三次元モデル内に注視対象物の画像を生成する。この際、視界領域予測部15は、本願出願時に知られたレジストレーション技術により、現実空間での注視対象物の位置を三次元モデル内での注視対象物の位置に対応させている。視界領域予測部15は、三次元モデル内に、運転者の瞳の位置から注視対象物の位置の方向を、運転者が注視対象物を視認した場合の運転者の予測視線として生成する。そして、視界領域予測部15は、三次元モデル内に、中心が運転者の瞳の中心に位置し、高さが運転者の予測視線に沿い、側面の中心角が15度の円錐の画像を生成し、運転者の予測視界領域とする。なお、運転者の予測視界領域は、視界領域特定部14により特定された現在の運転者の視界領域と同じ形状であってもよいし、異なる形状であってもよい。
【0031】
移動経路生成部16は、視界領域特定部14により特定された現在の運転者の視界領域の外側、及び視界領域予測部15により予測された運転者の予測視界領域の外側に、ディスプレイ3上の仮想対象物の表示位置を移動させるための移動経路を生成する。移動経路とは、現在の運転者の視界領域及び運転者の予測視界領域に重ならない経路である。別の言い方をすれば、移動経路とは、運転者の視界領域及び運転者の予測視界領域と交わらない経路である。
【0032】
図2は、移動経路生成部16による移動経路の生成方法を説明するための説明図である。
図2(A)は、移動経路生成部16によるデフォルト経路の生成方法を説明するための説明図である。
図2(A)は、三次元モデル内を示している。
図2(A)において、始点P1は、画像表示制御部11により、ディスプレイ3に表示されている仮想対象物の現在位置を示し、終点P2は、仮想対象物の移動先である目標位置を示す。
【0033】
移動経路生成部16は、移動経路を生成するにあたり、仮想対象物の現在位置から目標位置までの複数のデフォルト経路を生成する。
図2(A)に示すように、移動経路生成部16は、始点P1から終点P2までの複数のデフォルト経路として、経路R0~経路R4を生成する。経路R0は、始点P1から終点P2までの直線形状の経路である。経路R1及び経路R2は、経路R0が属するランダム角度の平面上で曲率が小さい曲線形状の経路である。経路R3及び経路R4は、経路R0が属する同平面上で曲率が経路R1及び経路R2よりも大きい曲線形状の経路である。経路R1と経路R2は、同平面上において経路R0を中心にした線対象の関係にあり、経路R3と経路R4は、同平面上において経路R0を中心にした線対象の関係にあるものとする。なお、
図2(A)に示す経路R0~経路R4は、デフォルト経路を説明するための経路であって、移動経路生成部16が生成するデフォルト経路の数、デフォルト経路の生成方法を限定するものではない。
【0034】
移動経路生成部16は、複数のデフォルト経路を生成すると、各デフォルト経路について、デフォルト経路が現在の運転者の視界領域と重なる範囲及びデフォルト経路が運転者の予測視界領域と重なる範囲を特定し、特定した範囲に応じて、複数のデフォルト経路の中から一つのデフォルト経路を選択する。
【0035】
例えば、移動経路生成部16は、デフォルト経路ごとに、デフォルト経路が現在の運転者の視界領域を通過する回数と、デフォルト経路が現在の運転者の視界領域を通過している距離を演算する。また例えば、移動経路生成部16は、デフォルト経路ごとに、デフォルト経路が運転者の予測視界領域を通過する回数と、デフォルト経路が運転者の予測視界領域を通過している距離を演算する。移動経路生成部16は、複数のデフォルト経路の中から、現在の運転者の視界領域及び予測視界領域を通過する回数が最も少ないデフォルト経路を選択する。なお、選択結果として、複数のデフォルト経路が得られた場合、一つのデフォルト経路に絞るために、移動経路生成部16は、選択された複数のデフォルト経路の中から、現在の運転者の視界領域及び予測視界領域を通過する距離が最も短いデフォルト経路を選択する。
【0036】
移動経路生成部16は、複数のデフォルト経路の中から、一つのデフォルト経路を選択すると、選択したデフォルト経路に基づいて、現在の運転者の視界領域及び運転者の予測視界領域を迂回する経路を、移動経路として生成する。
図2(B)は、移動経路生成部16による移動経路の生成方法を説明するための説明図である。
図2(B)は、
図2(A)に対応した図であり、三次元モデル内を示している。
図2(B)において、始点P1及び終点P2は、
図2(A)に示すものと同様のため、始点P1及び終点P2については
図2(A)での説明を援用する。なお、
図2(B)において、視界領域A(実線)は、視界領域特定部14により特定された現在の運転者の視界領域を示し、予測視界領域B(破線)は、視界領域予測部15により予測された運転者の予測視界領域を示めす。
【0037】
例えば、
図2(B)において、移動経路生成部16は、
図2(A)に示す複数の経路R0~経路R4の中から、視界領域A及び予測視界領域Bを通過する回数が最も少ない経路として、経路R0を選択したとする。この場合、移動経路生成部16は、経路R0が視界領域Aを通過し始めた通過開始位置及び経路R0が視界領域Aを通過し終わる通過終了位置を特定する。また移動経路生成部16は、経路R0が予測視界領域Bを通過し始めた通過開始位置及び経路R0が予測視界領域Bを通過し終わる通過終了位置を特定する。そして、移動経路生成部16は、特定した各位置に基づき、経路R0上に迂回開始位置P3及び迂回終了位置P4を設定する。
【0038】
例えば、
図2(B)に示すように、移動経路生成部16は、経路R0上で予測視界領域Bの通過開始位置よりも始点P1側に5cmの位置に、迂回開始位置P3を設定する。また例えば、移動経路生成部16は、経路R0上で視界領域Aの通過終了位置よりも終点P2側に5cmの位置に、迂回終了位置P4設定する。
【0039】
移動経路生成部16は、迂回開始位置P3及び迂回終了位置P4を設定すると、運転者の視線が移動する方向とは反対方向を、経路R0が視界領域A及び予測視界領域Bを迂回する方向として設定する。例えば、移動経路生成部16は、視界領域特定部14から、運転者の視線の移動方向の情報を取得する。
図2(B)の例の場合、移動経路生成部16は、白塗りの矢印の方向を、ユーザの視線の移動方向と特定している。移動経路生成部16は、ユーザの視線の移動方向とは反対方向に経路R0の迂回方向を設定する。
図2(B)の例の場合、移動経路生成部16は、黒塗りの矢印の方向を、迂回方向に設定している。
【0040】
移動経路生成部16は、経路R0の迂回方向を設定すると、経路R0が視界領域A及び予測視界領域Bを通過しないように、経路R0を修正する。具体的には、移動経路生成部16は、迂回開始位置P3から迂回方向側に視界領域A及び予測視界領域Bを迂回して迂回終了位置P4に到達するように、経路R0を修正して、移動経路R01を生成する。なお、
図2(B)に示す迂回開始位置P3及び迂回終了位置P4の設定方法は一例であって、迂回開始位置P3及び迂回終了位置P4を限定するものではない。また、
図2(B)に示す移動経路R01は一例であって、移動経路R01の曲率や形状を限定するものではない。
【0041】
次に、
図3及び
図4に示すフローチャートを用いて、画像表示システム100により実行されるアバターが移動開始するまでのフローについて説明する。
図3及び
図4は、画像表示システム100により実行されるアバターが移動開始するまでのフローを示すフローチャートである。
図3及び
図4に示すフローチャートに従った処理は、画像表示制御装置10により実行される。
【0042】
ステップS101では、画像表示制御装置10は、視線計測装置2のキャリブレーションが終了したか否かを判定する。例えば、画像表示制御装置10は、視線計測用カメラ20について、当該カメラのパラメータ(内部パラメータ、外部パラメータ、歪み係数など)がキャリブレーションされているか否かを判定する。画像表示制御装置10により肯定的な判定がされた場合、ステップS102に進み、画像表示制御装置10により否定的な判定がされた場合、ステップS118に進む。
【0043】
ステップS101で否定的な判定がされた場合、ステップS118に進む。ステップS118では、画像表示制御装置10は、視線計測装置2のキャリブレーションを実行する。ステップS118での処理が終了すると、ステップS102に進む。
【0044】
ステップS101で肯定的な判定がされた場合、又はステップS118での処理が終了した場合、ステップS102に進む。ステップS102では、画像表示制御装置10は、視線計測装置2から運転者の視線情報を取得する。運転者の視線情報は、運転者の瞳の位置、運転者の瞳が向く方向、及び運転者の顔の向きを含む。
【0045】
ステップS103では、画像表示制御装置10は、ステップS102で取得した運転者の視線情報に基づいて、現在の運転者の視界領域を特定する。例えば、画像表示制御装置10は、運転者の視線情報に基づいて、三次元モデル内での運転者の瞳の位置及び瞳の方向を特定する。画像表示制御装置10は、記憶装置から視界領域用の円錐の画像を読み出し、運転者の瞳の中心の位置に円錐の頂点に合わせつつ、運転者の視線を円錐の高さを合わることで、三次元モデル内に運転者の視界領域を生成する。
【0046】
ステップS104では、画像表示制御装置10は、車載カメラ1から車両の周辺画像を取得する。例えば、画像表示制御装置10は、車載カメラ1により撮像され、運転者が視認している車両前方の撮像画像を取得する。なお、画像表示制御装置10は、車両前方の撮像画像に限られず、車両側方の撮像画像及び車両後方の撮像画像を取得してもよい。
【0047】
ステップS105では、画像表示制御装置10は、ステップS104で取得した車両の周辺画像に基づいて、所定時間が経過した後の運転者の視線を予測する。例えば、画像表示制御装置10は、車両前方の撮像画像から、運転者が注視する可能性のある注視対象物として、車両前方を走行する先行車両を特定する。画像表示制御装置10は、運転者の瞳の位置から先行車両の位置の方向を、所定時間後の運転者の視線として予測する。
【0048】
ステップS106では、画像表示制御装置10は、ステップS105で予測した運転者の視線に基づいて、運転者の予想視界領域を予測する。例えば、画像表示制御装置10は、記憶装置から予測視界領域用の円錐の画像を読み出し、運転者の瞳の中心の位置に円錐の頂点に合わせつつ、運転者の予測視線を円錐の高さを合わることで、三次元モデル内に運転者の予測視界領域を生成する。
【0049】
ステップS107では、画像表示制御装置10は、アバターが移動する予定があるか否かを判定する。例えば、画像表示制御装置10は、遠隔地ユーザがアバターを操作可能な入力装置から、遠隔地ユーザによる操作情報を取得することで、アバターがこれから移動するか否かを判定することができる。画像表示制御装置10により肯定的な判定がされた場合、ステップS108に進み、画像表示制御装置10により否定的な判定がされた場合、ステップS101に戻る。なお、このステップで対象となるアバターは、運転者には現在視認されていないアバターである。言い換えると、このステップで対象となるアバターは、ステップS103で特定した現在の運転者の視界領域の外側に位置するアバターである。
【0050】
ステップS107で肯定的な判定がされた場合、ステップS108に進む。ステップS108では、画像表示制御装置10は、アバターの移動先の情報を取得する。アバターの移動先とは、三次元モデル内での位置であって、ディスプレイ3上でのアバターの目標表示位置である。例えば、画像表示制御装置10は、遠隔地ユーザがアバターを移動可能な入力装置から、アバターの移動先の情報を取得する。ステップS108での処理が終了すると、
図4に示すステップS109に進む。
【0051】
ステップS109では、ステップS108で取得したアバターの移動先の情報に基づいて、アバターを移動させるための経路として、複数のデフォルト経路を生成する。例えば、
図2(A)に示すように、画像表示制御装置10は、始点P1から終点P2に至る複数の経路R0~経路R4を生成する。
【0052】
ステップS110では、画像表示制御装置10は、ステップS109で生成した各デフォルト経路について、ステップS103で特定した現在の運転者の視界領域及びステップS106で予測した運転者の予測視界領域との重なり具合を判定する。例えば、画像表示制御装置10は、デフォルト経路ごとに、デフォルト経路が現在の運転者の視界領域を通過する回数及びデフォルト経路が現在の運転者の視界領域を通過する距離を演算する。また例えば、画像表示制御装置10は、デフォルト経路が運転者の予測視界領域を通過する回数及びデフォルト経路が運転者の予測視界領域を通過する距離を演算する。
【0053】
ステップS111では、画像表示制御装置10は、ステップS110で判定した重なり具合に基づいて、ステップS109で生成した複数のデフォルト経路の中から、一つのデフォルト経路を選択する。例えば、画像表示制御装置10は、複数のデフォルト経路の中から、現在の運転者の視界領域及び予測視界領域を通過する回数が最も少ないデフォルト経路を選択する。
【0054】
ステップS112では、画像表示制御装置10は、ステップS111で選択したデフォルト経路が現在の運転者の視界領域又は運転者の予測視界領域と重なっているか否かを判定する。このステップにおいて、画像表示制御装置10は、ステップS110での判定結果を用いてもよい。画像表示制御装置10により肯定的な判定がされた場合、ステップS113に進み、画像表示制御装置10により否定的な判定がされた場合、ステップS116に進む。
【0055】
ステップS112で肯定的な判定がされた場合、ステップS113に進む。ステップS113では、画像表示制御装置10は、運転者の視線が移動する方向を特定する。例えば、画像表示制御装置10は、ステップS102で取得した運転者の視線情報に基づいて、運転者の視線が移動する方向を特定する。画像表示制御装置10は、現在の運転者の視線と、所定時間前の運転者の視線とを比較することで、運転者の視線がどの方向に移動しているかを特定することができる。
【0056】
ステップS114では、画像表示制御装置10は、ステップS113で特定したユーザの視線の移動方向とは反対方向に、デフォルト経路を迂回させる方向を設定する。
【0057】
ステップS115では、画像表示制御装置10は、ステップS103で特定した運転者の視界領域、ステップS106で予測した運転者の予測視界領域、及びステップS114で設定した迂回方向に基づいて、ステップS111で選択したデフォルト経路を修正する。例えば、画像表示制御装置10は、
図2(B)に示すように、現在の運転者の視界領域A及び運転者の予測視界領域Bを迂回方向に迂回するように、デフォルト経路R0を修正する。
【0058】
ステップS116では、画像表示制御装置10は、アバターを移動させるための移動経路を設定する。ステップS115からステップS116に進んだ場合、画像表示制御装置10は、ステップS115で修正されたデフォルト経路を、アバターの移動経路として設定する。またステップS112からステップS116に進んだ場合、画像表示制御装置10は、ステップS111で選択されたデフォルト経路を、アバターの移動経路として設定する。
【0059】
ステップS117では、画像表示制御装置10は、アバターがステップS116で設定した移動経路に沿って移動を開始したか否かを判定する。画像表示制御装置10により肯定的な判定がされた場合、
図3及び
図4に示すフローチャートでの処理を終了させる。一方、画像表示制御装置10により否定的な判定がされた場合、画像表示制御装置10は、アバターが移動を開始するまで、ステップS117で待機する。
【0060】
以上のように、本実施形態に係る画像表示制御装置10は、現実空間又は現実空間の撮像画像に、運転者が視認可能なアバターを示す画像を重畳してディスプレイ3に表示させる画像表示制御部11と、視線計測装置2から出力される情報に基づいて、運転者の視界領域を演算する視界領域演算部13と、運転者の視界領域の外側に、ディスプレイ3上のアバターの表示位置を移動させるための移動経路を生成する移動経路生成部16と、を備える。これにより、運転者が現実空間とアバターを同時に視認可能な拡張現実において、運転者の視界に含まれないようにアバターを移動させることができる。例えば、運転者が車両前方を視認しながら車両を運転し、アバターが助手席に位置する場面において、アバターが助手席から後部座席に移動する場合、運転者の視界に含まれないように、アバターを助手席から後部座席に移動させることができる。運転に集中している運転者の気を削ぐことなく、アバターを移動させることができる。
【0061】
また、本実施形態では、視界領域演算部13は、現在の運転者の視界領域を特定する視界領域特定部14を有している。視界領域演算部13により演算される運転者の視界領域は、現在の運転者の視界領域を含む。これにより、現在の運転者の視界に含まれないように、アバターを移動させることができ、特定方向を一定時間視認しながら運転に集中している運転者の気を削ぐことなく、アバターを移動させることができる。
【0062】
さらに、本実施形態では、視界領域演算部13は、新たな運転者の視界領域となり得る運転者の予測視界領域を予測する視界領域予測部15を有している。視界領域演算部13により演算される運転者の視界領域は、運転者の予測視界領域を含む。これにより、予測される運転者の視界に含まれないように、アバターを移動させることができ、視線を移動させながら運転に集中している運転者の気を削ぐことなく、アバターを移動させることができる。
【0063】
加えて、本実施形態では、移動経路生成部16は、ディスプレイ3上の現在のアバターの表示位置から目標の表示位置までの移動経路として、現在の運転者の視界領域及び運転者の予測視界領域を迂回する前記移動経路を生成する。移動経路は、現在の運転者の視界領域及び運転者の予測視界領域を迂回して、現在の表示位置から目標の表示位置に至る経路になるため、運転者の視界に含まれないようにアバターを移動させることができる。
【0064】
また、本実施形態に係る画像表示制御装置10は、視線計測装置2から運転者の視線を含む情報を経時的に取得する視線情報取得部12を備える。移動経路生成部16は、運転者の視線が移動する場合、運転者の視線の移動方向とは反対方向を、運転者の視界領域及び運転者の予測視界領域に対して迂回させる方向に設定する。これにより、移動するアバターが運転者の視界に含まれる確率を低減させることができる。
【0065】
また、本実施形態では、視界領域予測部15は、運転者の視線方向を撮像する車載カメラ1から撮像画像を取得し、運転者の視線方向の撮像画像から、所定時間が経過した後に運転者が注視する可能性のある注視対象物を特定し、注視対象物に基づいて、運転者の予測視界領域を予測する。これにより、所定時間が経過した後の運転者の視界領域を精度よく予測することができる。
【0066】
さらに、本実施形態では、視界領域予測部15は、視線計測装置2から、運転者の瞳の位置情報を取得し、運転者の瞳の位置から注視対象物の方向を、運転者が注視対象物を視認した場合の運転者の予測視線として予測し、運転者の予測視線に基づいて、運転者の予測視界領域を予測する。これにより、所定時間が経過した後における運転者の視認方向及び視認範囲を精度よく予測することができる。
【0067】
加えて、本実施形態では、視線計測装置2は、運転者の瞳を撮像する視線計測用カメラ20を有し、運転者の瞳の撮像画像に基づいて、運転者の視線を計測する。視界領域特定部14は、運転者の視線に基づいて、現在の運転者の視界領域を特定する。これにより、現在運転者が視認している領域を精度よく特定することができる。
【0068】
加えて、本実施形態では、現在の運転者の視界領域は、運転者の中心視野及び周辺視野の領域を含む。これにより、現在運転者が視認している領域を精度よく特定することができる。
【0069】
また、本実施形態では、運転者が視認可能な仮想対象物の画像は、移動可能なアバターを示す画像である。これにより、運転者の視界に含まれないようにアバターを移動させることができる。
【0070】
また、本実施形態では、画像表示システム100を利用するユーザは、運転者であり、運転者の注視対象物は、車両の周辺に存在する移動体、車両が走行する道路の交通規則を示す情報提示物、車両の走行を妨げる障害物、及び車両に搭載され、運転者が操作可能な車載機器のうち少なくともいずれかを含む。これにより、所定時間が経過した後の運転者の視界領域を精度よく予測することができる。
【0071】
なお、以上に説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
【0072】
例えば、上述した実施形態では、画像表示制御装置10は、現実空間に存在する物体又は当該物体の撮像画像を考慮することなく、移動経路を生成する場合を例に挙げて説明したが、本発明の画像表示制御装置は、現実空間に存在する物体又は当該物体の撮像画像を考慮して移動経路を生成してもよい。
図5を用いて、変形例に係る画像表示制御装置30について説明する。画像表示制御装置30の構成は、
図1に示す画像表示制御装置10と同様のため、
図1のブロック図を援用する。
【0073】
図5は、変形例に係る画像表示制御装置30により実行されるアバターが移動するまでのフローを示すフローチャートである。
図5は、
図3に示すフローチャート以降のフローチャートを示し、
図4に示すフローチャートに対応する。画像表示制御装置30は、上述した実施形態と同様に、
図3に示すフローチャートの処理を実行するものとする。なお、
図5において、
図4と同じ処理については、
図4に示す符号と同じ符号を付している。このため、
図4と同じ処理については、
図4での説明を援用する。
【0074】
図5を用いて、上述した画像表示制御装置10では実行されず、変形例に係る画像表示制御装置30が実行するステップS201~ステップS205について説明する。ステップS201~ステップS205の処理は、変形例に係る画像表示制御装置30の移動経路生成部16により実行される。
【0075】
ステップS109で画像表示制御装置30により複数のデフォルト経路が生成されると、ステップS201に進む。ステップS201では、画像表示制御装置30は、ステップS109で生成した各デフォルト経路について、現実空間の物体との重なり具合を判定する。現実空間の物体とは、現実に存在し、運転者が視認可能な物体である。例えば、画像表示制御装置30は、デフォルト経路ごとに、デフォルト経路が現実空間の物体を通過する回数及びデフォルト経路が現実空間の物体を通過する距離を演算する。
【0076】
ステップS202では、画像表示制御装置30は、ステップS201で判定した重なり具合に基づいて、ステップS109で生成した複数のデフォルト経路の中から、一つのデフォルト経路を選択する。例えば、画像表示制御装置30は、複数のデフォルト経路の中から、現実空間の物体を通過する回数が最も少ないデフォルト経路を選択する。
【0077】
ステップS203では、画像表示制御装置30は、ステップS202で選択したデフォルト経路が現実空間の物体と重なっているか否かを判定する。このステップにおいて、画像表示制御装置30は、ステップS201での判定結果を用いてもよい。画像表示制御装置30により肯定的な判定がされた場合、ステップS204に進み、画像表示制御装置30により否定的な判定がされた場合、ステップS205に進む。
【0078】
ステップS203で肯定的な判定がされた場合、ステップS204に進む。ステップS204では、画像表示制御装置30は、ステップS202で選択したデフォルト経路を修正する。例えば、画像表示制御装置30は、ステップS203でデフォルト経路が重なる現実空間の物体を迂回対象として特定する。画像表示制御装置30は、現実空間の物体と重ならないよう、現実空間の物体を迂回したデフォルト経路に修正する。
【0079】
ステップS204での処理が終了すると、ステップS205に進む。ステップS205は、
図3に示すステップS110に対応する。ステップS205では、画像表示制御装置30は、
図3に示すステップS110でのデフォルト経路を、ステップS204で修正されたデフォルト経路、又はステップS202で選択されたデフォルト経路に代えたうえで、
図3に示すステップS110と同様の処理を実行する。以降、画像表示制御装置30は、
図3に示すステップS112~ステップS117での処理を実行する。
【0080】
以上のように、変形例に係る画像表示制御装置30において、移動経路生成部16は、現実空間に存在する物体と重ならない移動経路を生成する。これにより、アバターは、現実空間の物体と重ならないように移動することができる。そのため、例えば、運転者以外の車両の乗員が移動経路に沿って移動するアバターを視認した場合、当該乗員に違和感を与えるのを抑制することができるため、拡張現実に対する当該乗員の没入感が損なわれるのを抑制することができる。なお、現実空間の物体に限られず、移動経路生成部16は、現実空間に存在する物体の撮像画像と重ならない移動経路を生成してもよい。
【0081】
また、例えば、上述した実施形態では、移動経路の生成回数を一回の場合を例に挙げて説明したが、移動経路の生成回数は複数回であってもよい。例えば、視界領域特定部14は、移動経路生成部16により移動経路が生成された後に、新たな運転者の視界領域を特定してもよい。また移動経路生成部16は、生成した移動経路と、視界領域特定部14により特定された新たな運転者の視界領域とが重なる場合、新たな運転者の視界領域の外側に、新たな移動経路を生成してもよい。また例えば、視界領域予測部15は、移動経路生成部16により移動経路が生成された後に、新たな運転者の予測視界領域を予測してもよい。また移動経路生成部16は、生成した移動経路と、視界領域予測部15により予測された新たな運転者の予測視界領域とが重なる場合、新たな運転者の予測視界領域の外側に、新たな移動経路を生成してもよい。運転者の視線が時々刻々と変化する場合であっても、時間の経過に合わせて移動経路を複数回生成することで、運転者の視界に含まれないようにアバターを移動させることができる。
【0082】
また、例えば、上述した実施形態では、予測視界領域の予測方法として、所定時間が経過した後の運転者の視線を用いた予測方法を例に挙げて説明したが、予測視界領域の予測方法はこれに限定されない。例えば、運転者の視線の移り変わりなどを示すデータをニューラルネットワークに入力させ、ニューラルネットワークに運転者が視認する可能性のある注視対象物を学習させてもよい。車両の周辺画像を学習済みのニューラルネットワークに入力すると、運転者の予測視界領域が出力され、所定時間が経過した後の運転者の視線を予測することなく、自動的に予測視界領域を予測する方法であってもよい。
【0083】
また、例えば、上述した実施形態では、視界領域特定部14及び視界領域予測部15で視界領域演算部13が構成される場合を例に挙げて説明したが、視界領域演算部13は、視界領域特定部14及び視界領域予測部15のうち少なくともいずれかで構成されていればよい。例えば、視界領域演算部13は、視界領域特定部14のみで構成されていてもよく、この場合、移動経路生成部16は、視界領域特定部14により特定された現在の運転者の視界領域の外側に、移動経路を生成する。これにより、少なくとも現在の運転者の視界に含まれないように、アバターを移動させることができる。また、例えば、視界領域演算部13は、視界領域予測部15のみで構成されていてもよく、この場合、移動経路生成部16は、視界領域予測部15により予測された運転者の予測視界領域の外側に、移動経路を生成する。これにより、運転者の視線が移動した場合、移動先の運転者の視界に含まれないようにアバターを移動させることができる。
【0084】
また、例えば、上述した実施形態では、視界領域予測部15により予測される運転者の予測視界領域が一つの場合を例に挙げて説明したが、運転者の予測視界領域の個数は複数であってもよい。この場合、移動経路生成部16は、予測された複数の予測視界領域の外側に、移動経路を生成する。これにより、所定時間が経過した後、アバターが運転者の視界に含まれない確率を高めることができる。
【符号の説明】
【0085】
100…画像表示システム
1…車載カメラ
2…視線計測装置
20…視線計測用カメラ
3…ディスプレイ
10…画像表示制御装置
11…画像表示制御部
12…視線情報取得部
13…視界領域演算部
14…視界領域特定部
15…視界領域予測部
16…移動経路生成部