特許第6962079号(P6962079)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社JVCケンウッドの特許一覧

特許6962079画像音声出力装置、画像音声出力方法、及び画像音声出力プログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6962079
(24)【登録日】2021年10月18日
(45)【発行日】2021年11月5日
(54)【発明の名称】画像音声出力装置、画像音声出力方法、及び画像音声出力プログラム
(51)【国際特許分類】
   A61B 3/113 20060101AFI20211025BHJP
   G06T 1/00 20060101ALI20211025BHJP
【FI】
   A61B3/113ZDM
   G06T1/00 340A
【請求項の数】3
【全頁数】25
(21)【出願番号】特願2017-169667(P2017-169667)
(22)【出願日】2017年9月4日
(65)【公開番号】特開2019-42221(P2019-42221A)
(43)【公開日】2019年3月22日
【審査請求日】2020年3月30日
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成27年度 国立研究開発法人日本医療研究開発機構「ICTを活用した診療支援技術研究開発プロジェクト 注視点検出技術を活用した発達障がい診断システムの開発」委託研究開発、産業技術力強化法第19条の適用を受ける特許出願
(73)【特許権者】
【識別番号】308036402
【氏名又は名称】株式会社JVCケンウッド
(74)【代理人】
【識別番号】110002147
【氏名又は名称】特許業務法人酒井国際特許事務所
(72)【発明者】
【氏名】小村田 美玖
(72)【発明者】
【氏名】箱嶋 修二
【審査官】 増渕 俊仁
(56)【参考文献】
【文献】 米国特許出願公開第2014/0176813(US,A1)
【文献】 特開2015−153302(JP,A)
【文献】 特開2004−301869(JP,A)
【文献】 特開2000−278626(JP,A)
【文献】 特開2000−250699(JP,A)
【文献】 特開2015−151059(JP,A)
【文献】 特開2017−103801(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 3/00−3/18
G06T 1/00
(57)【特許請求の範囲】
【請求項1】
画像を表示する表示画面と、
音声を出力する音声出力装置と、
前記表示画面を観察する観察者の注視点の位置を検出する注視点検出部と、
前記表示画面または前記画像の一部に特定領域を設定する領域設定部と、
前記特定領域が前記表示画面または前記画像に設定される一方で、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定する判定部と、
前記画像および前記音声の出力タイミングを設定したデータを記憶する記憶部と、
前記記憶部に記憶された前記データに基づき、前記表示画面に前記画像を表示させ前記音声出力装置に前記音声を出力させると共に、前記注視点が前記特定領域に存在するという判定に応じて、出力中の画像または音声の出力を停止し、前記記憶部に記憶されたデータにおいて、前記出力を停止した画像または音声の次に出力する設定である画像又は音声を出力する出力制御部と
を備える画像音声出力装置。
【請求項2】
表示画面に画像を表示させることと、
音声出力装置に音声を出力させることと、
前記表示画面を観察する観察者の注視点の位置を検出することと、
前記表示画面または前記画像の一部に特定領域を設定することと、
前記特定領域が前記表示画面または前記画像に設定される一方で、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定することと、
前記画像および前記音声の出力タイミングを設定したデータを記憶部に記憶することと、
前記記憶部に記憶された前記データに基づき、前記表示画面に前記画像を表示させ前記音声出力装置に前記音声を出力させると共に、前記注視点が前記特定領域に存在するという判定に応じて、出力中の画像または音声の出力を停止し、前記記憶部に記憶されたデータにおいて、前記出力を停止した画像または音声の次に出力する設定である画像又は音声を出力することと
を含む画像音声出力方法。
【請求項3】
表示画面に画像を表示させる処理と、
音声出力装置に音声を出力させる処理と、
前記表示画面を観察する観察者の注視点の位置を検出する処理と、
前記表示画面または前記画像の一部に特定領域を設定する処理と、
前記特定領域が前記表示画面または前記画像に設定される一方で、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定する処理と、
前記画像および前記音声の出力タイミングを設定したデータを記憶部に記憶する処理と、
前記記憶部に記憶された前記データに基づき、前記表示画面に前記画像を表示させ前記音声出力装置に前記音声を出力させると共に、前記注視点が前記特定領域に存在するという判定に応じて、出力中の画像または音声の出力を停止し、前記記憶部に記憶されたデータにおいて、前記出力を停止した画像または音声の次に出力する設定である画像又は音声を出力する処理と
をコンピュータに実行させる画像音声出力プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像音声出力装置、画像音声出力方法、及び画像音声出力プログラムに関する。
【背景技術】
【0002】
視線検出技術の一つとして角膜反射法が知られている。角膜反射法は、光源から射出された赤外光を被験者に照射し、赤外光が照射された被験者の眼をカメラで撮影し、角膜表面における光源の反射像である角膜反射像に対する瞳孔の位置を検出して、被験者の視線を検出する。このような角膜反射法を用いた視線検出装置では、被験者への刺激として、例えば表示画面に静止画又は動画を表示させ、音声出力装置に音声を出力させるようにしている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2016−187589号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記の視線検出装置においては、音声の出力状態を変更するタイミングを効率的に調整する構成が求められている。また、視線検出装置に限られず、画像及び音声を出力する画像音声出力装置においても、音声の出力状態を変更するタイミングを効率的に調整する構成が求められている。
【0005】
本発明は、上記に鑑みてなされたものであり、音声の出力状態を変更するタイミングを効率的に調整することが可能な画像音声出力装置、画像音声出力方法、及び画像音声出力プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明に係る画像音声出力装置は、画像を表示する表示画面と、音声を出力する音声出力装置と、前記表示画面を観察する観察者の注視点の位置を検出する注視点検出部と、前記表示画面または前記画像の一部に特定領域を設定する領域設定部と、前記特定領域が前記表示画面または前記画像に設定される場合に、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定する判定部と、前記表示画面に前記画像を表示させ前記音声出力装置に前記音声を出力させると共に、前記注視点が前記特定領域に存在すると判定された場合、少なくとも前記音声の出力状態を調整する出力制御部とを備える。
【0007】
本発明に係る画像音声出力方法は、表示画面に画像を表示させることと、音声出力装置に音声を出力させることと、前記表示画面を観察する観察者の注視点の位置を検出することと、前記表示画面または前記画像の一部に特定領域を設定することと、前記特定領域が前記表示画面または前記画像に設定される場合に、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定することと、前記注視点が前記特定領域に存在すると判定された場合、少なくとも前記音声の出力状態を調整することとを含む。
【0008】
本発明に係る画像音声出力プログラムは、表示画面に画像を表示させる処理と、音声出力装置に音声を出力させる処理と、前記表示画面を観察する観察者の注視点の位置を検出する処理と、前記表示画面または前記画像の一部に特定領域を設定する処理と、前記特定領域が前記表示画面または前記画像に設定される場合に、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定する処理と、前記注視点が前記特定領域に存在すると判定された場合、少なくとも前記音声の出力状態を調整する処理とをコンピュータに実行させる。
【発明の効果】
【0009】
本発明によれば、音声の出力状態を変更するタイミングを効率的に調整することが可能となる。
【図面の簡単な説明】
【0010】
図1図1は、本実施形態に係る画像音声出力装置である視線検出装置の一例を模式的に示す斜視図である。
図2図2は、本実施形態に係る視線検出装置のハードウェア構成の一例を示す図である。
図3図3は、本実施形態に係る視線検出装置の一例を示す機能ブロック図である。
図4図4は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。
図5図5は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。
図6図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。
図7図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。
図8図8は、記憶部に記憶されるデータの一例を示す図である。
図9図9は、記憶部に記憶されるデータの一例を示す図である。
図10図10は、記憶部に記憶されるデータの一例を示す図である。
図11図11は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。
図12図12は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。
図13図13は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。
図14図14は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。
図15図15は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。
図16図16は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。
図17図17は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。
図18図18は、音声の出力開始及び出力終了のタイミングと音量とを対応付けて示すタイミングチャートである。
図19図19は、音声の出力開始及び出力終了のタイミングと音量とを対応付けて示すタイミングチャートである。
図20図20は、表示装置の表示画面に表示される画像の一例を示す図である。
図21図21は、視線検出装置の動作を示すフローチャートである。
図22図22は、本実施形態に係る視線検出処理および画像音声出力制御処理の一例を示すフローチャートである。
図23図23は、画像音声出力制御処理の一例を示すフローチャートである。
図24図24は、画像音声出力制御処理の他の例を示すフローチャートである。
図25図25は、画像音声出力制御処理の他の例を示すフローチャートである。
図26図26は、画像音声出力制御処理の他の例を示すフローチャートである。
図27図27は、本実施形態に係る画像音声出力装置の他の例である電子端末を示す図である。
【発明を実施するための形態】
【0011】
以下、本発明に係る画像音声出力装置、画像音声出力方法、及び画像音声出力プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
【0012】
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
【0013】
(視線検出装置)
図1は、本実施形態に係る画像音声出力装置である視線検出装置100の一例を模式的に示す斜視図である。視線検出装置100は、被験者を評価する評価装置としても用いられる。図1に示すように、視線検出装置100は、表示装置101と、音声出力装置70と、ステレオカメラ装置102と、照明装置103とを備える。
【0014】
表示装置101は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置101は、表示画面101Sを有する。表示画面101Sは、画像を表示する。表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。
【0015】
音声出力装置70は、例えばスピーカを含み、例えば被験者に注意を促すための音声を出力する。
【0016】
ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。
【0017】
照明装置103は、第1光源103A及び第2光源103Bを有する。照明装置103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。
【0018】
照明装置103は、検出光である近赤外光を射出して、被験者の眼球111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111を撮影し、第2光源103Bから射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。
【0019】
第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。
【0020】
眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。
【0021】
第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。
【0022】
図2は、本実施形態に係る視線検出装置100のハードウェア構成の一例を示す図である。図2に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とを備える。
【0023】
コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とは、入出力インターフェース装置30を介してデータ通信する。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。
【0024】
駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。
【0025】
出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。
【0026】
本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。
【0027】
図3は、本実施形態に係る視線検出装置100の一例を示す機能ブロック図である。図3に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。
【0028】
コンピュータシステム20は、視線検出装置100を制御する。コンピュータシステム20は、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、注視点検出部214と、領域設定部216と、判定部218と、演算部220と、記憶部222と、評価部224と、出力制御部226とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。
【0029】
光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。
【0030】
画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。
【0031】
入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。
【0032】
位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼球111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。
【0033】
曲率中心算出部212は、画像データ取得部206で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。
【0034】
注視点検出部214は、画像データ取得部206で取得された眼球111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。注視点検出部214は、眼球111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼球111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出する。
【0035】
領域設定部216は、表示装置101の表示画面101Sまたは画像の一部に特定領域を設定する。領域設定部216は、表示画面101Sに表示される画像毎に特定領域を設定することができる。領域設定部216は、画像内の1箇所又は複数箇所に特定領域を設定することができる。
【0036】
判定部218は、特定領域が表示画面101S又は画像に設定される場合に、注視点の位置の検出結果である位置データに基づいて、注視点が特定領域に存在するか否かを判定し、判定データを出力する。判定部218は、例えば一定時間毎に注視点が特定領域に存在するか否かを判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば50[msec]毎)とすることができる。
【0037】
演算部220は、画像の表示時間及び音声の出力時間を管理する管理タイマと、表示画面101Sに画像が表示されてからの経過時間を検出する検出タイマを有する。また、演算部220は、特定領域について注視点が存在すると判定された判定回数をカウントする。演算部220は、特定領域について判定回数をカウントするカウンタを有する。
【0038】
評価部224は、被験者の評価データを求める。評価データは、注視点検出部の検出結果に基づいて被験者を評価するデータである。
【0039】
記憶部222は、表示画面101Sに表示させる画像の画像データ、音声出力装置70から出力させる音声の音声データ、判定部218により出力された判定データ、評価部224から出力された評価データを記憶する。表示画面101Sに表示させる画像は、静止画及び動画を含む。記憶部222は、複数の画像データ及び複数の音声データを記憶する。記憶部222は、画像の表示開始及び表示終了のタイミングを示すデータ、音声の出力開始及び出力終了のタイミングを示すタイミングデータを記憶する。
【0040】
記憶部222は、表示画面に画像を表示させる処理と、音声出力装置に音声を出力させる処理と、表示画面を観察する観察者の注視点の位置を検出する処理と、表示画面または画像の一部に特定領域を設定する処理と、特定領域が表示画面または画像に設定される場合に、注視点の位置の検出結果に基づいて注視点が特定領域に存在するか否かを判定する処理と、注視点が特定領域に存在すると判定された場合、少なくとも音声の出力状態を調整する処理とをコンピュータに実行させる画像音声出力プログラムを記憶する。
【0041】
出力制御部226は、表示装置101、出力装置50、及び音声出力装置70の少なくとも一つにデータを出力する。本実施形態において、出力制御部226は、表示画面101Sに画像を表示させる。出力制御部226は、複数の画像データから所定の画像データを選択し、当該選択した画像データの画像を表示画面101Sに表示させる。また、出力制御部226は、音声出力装置70に音声を出力させる。また、出力制御部226は、複数の音声データから所定の音声データを選択し、当該選択した音声データの音声を音声出力装置70に出力させる。
【0042】
また、出力制御部226は、注視点が特定領域に存在すると判定部218により判定された場合、少なくとも音声の出力状態を調整する。音声の出力状態の調整は、音声の出力を停止又は終了させること、出力停止状態から前記音声の出力を再開させること、音声の音量を調整することのいずれかを含む。また、音声の出力状態の調整は、選択する音声を切り替えることを含む。
【0043】
また、出力制御部226は、注視点が特定領域に存在すると判定部218により判定された場合、表示装置101Sに表示している画像の表示終了のタイミングを制御する。当該表示終了のタイミングを制御することは、例えば予め設定された表示終了のタイミングを変更することを含む。
【0044】
なお、出力制御部226は、被験者の左右それぞれの眼球111の注視点の位置を表示画面101S又は出力装置50に表示させてもよい。
【0045】
次に、本実施形態に係る曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。図4及び図5は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図4は、1つの光源103Cで眼球111が照明される例を示す。図5は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す。
【0046】
まず、図4に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図4において、瞳孔中心112Cは、眼球111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼球111が1つの光源103Cで照明されたときの角膜反射中心を示す。角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
【0047】
次に、図5に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部222に記憶されている。曲率中心算出部212は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、三次元グローバル座標系における位置データに変換する。曲率中心算出部212は、三次元グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、三次元グローバル座標系における角膜反射中心124の位置データを算出する。角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
【0048】
このように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。
【0049】
角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。
【0050】
次に、本実施形態に係る視線検出方法の一例について説明する。図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理では、被験者に注視させるため、目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。出力制御部226は、設定された目標位置130に目標画像を表示させる。直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。
【0051】
次に、注視点検出処理について説明する。注視点検出処理は、キャリブレーション処理の後に実施される。注視点検出部214は、眼111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。図7において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心から求めた注視点を示す。瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。
【0052】
[画像音声出力方法]
次に、本実施形態に係る画像音声出力方法について説明する。図8は、記憶部222に記憶されるデータの一例を示す図である。図8では、画像データの例を示している。図8に示すように、記憶部222には、表示装置101の表示画面101Sに表示させる複数の画像の画像データについて、表示させる順番と、画像データを識別するための画像番号と、画像の再生時間とが対応付けられた状態で記憶されている。出力制御部226は、記憶部222に記憶されたデータに基づいて、画像1から画像6までを、対応する再生時間で表示画面101Sに順番に表示させる。
【0053】
例えば、出力制御部226は、最初に画像1の表示を開始させ、表示開始から時間t1が経過した後に画像1の表示を終了させる。出力制御部226は、画像1の表示を終了させた後、画像2の表示を開始させ、表示開始から時間t2が経過した後に画像2の表示を終了させる。出力制御部226は、この処理を画像3から画像6まで繰り返し行い、画像6の表示を終了させた後、処理終了となる。
【0054】
図9は、記憶部222に記憶されるデータの一例を示す図である。図9では、音声データの出力開始及び出力終了のタイミングを示すタイミングデータの例である。図9に示すように、記憶部222には、タイミングデータとして、各音声データが、出力開始設定、出力終了設定、及び出力回数と対応付けた状態で記憶されている。出力開始設定は、音声データの出力を開始させるトリガーとなる内容を示している。出力終了設定は、音声データの出力を終了させるトリガーとなる内容を示している。出力回数は、音声データを出力させる回数を示している。例えば、出力回数として、2回以上の複数回となっている場合には、当該音声データを当該複数回繰り返して出力することを示している。
【0055】
例えば、出力制御部226は、画像1の表示開始から2秒が経過した場合に、音声1の出力を開始させる。また、出力制御部226は、音声1の出力を開始させてから10秒が経過した場合に、音声1の出力を終了させる。また、出力制御部226は、音声1の出力を終了させた場合、繰り返すことなく音声1の処理を終了させる。
【0056】
また、出力制御部226は、画像2の表示開始と同時に音声2の出力を開始させる。また、出力制御部226は、画像2の表示が終了し、画像3の表示が開始されてから5秒が経過した場合に、音声2の出力を終了させる。また、出力制御部226は、音声2の出力を終了させた場合、繰り返すことなく音声2の処理を終了させる。
【0057】
図10は、記憶部222に記憶されるデータの一例を示す図である。図10では、各音声についての音量を示す音量データを例である。図10に示すように、記憶部222には、音声データ毎に、出力開始からの経過時間と設定される音量とが対応付けられた状態で記憶されている。出力制御部226は、音声1の出力を開始させてから10秒が経過するまで音量を50とし、10秒が経過した場合に音量を20とし、20秒が経過した後に音量を50とし、30秒が経過した場合に音量を20とする。同様に、出力制御部226は、音声2の出力を開始させてから0.5秒が経過するまで音量を0とし、0.5秒が経過した場合に音量を10とし、1秒が経過した後に音量を20とし、1.5秒が経過した場合に音量を30とする。
【0058】
図11から図17は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。図11から図17に示す各パターンは、例えば予め設定され、記憶部222に記憶されている。なお、以下の各図では、複数の画像を順番に表示させる場合の例として、画像1から画像3を例に挙げて説明するが、これに限定されず、他の画像であってもよい。また、音声として音声1を例に挙げて説明するが、これに限定されず、他の音声であってもよい。
【0059】
図11のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t12を「画像1の表示開始時刻t11から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t13を「音声1の最後まで出力した時点」とした場合を示している。この場合、被験者に画像に注目させる時間を設けることができる。
【0060】
図12のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t21を「画像1の表示開始時刻と同時」とし、音声1の出力終了のタイミングを示す時刻t22を「音声1の最後まで出力した時点」とした場合を示している。
【0061】
図13のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t32を「画像1の表示開始時刻t31から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t33を「出力開始の時刻t32から所定時間経過した時点の時刻」とした場合を示している。この場合、音声1が途中であっても出力が終了する。
【0062】
図14のタイミングチャートは、音声1が複数の画像(画像1及び画像2)の表示期間に跨って出力される場合の例である。この場合、音声1の出力開始のタイミングを示す時刻t42が「画像1の表示開始時刻t41から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t43を「画像2の表示開始時刻から所定時間経過した時点の時刻」としている。この場合、音声1が途中であっても出力が終了する。
【0063】
図15のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t52が「画像1の表示開始時刻t51から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t53を「画像2の表示開始時刻」としている。この場合、音声1が途中であっても出力が終了する。
【0064】
図16のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t62が「画像1の表示開始時刻t61から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t63を「画像2の表示終了時刻(又は、画像3の表示開始時刻)」としている。この場合、音声1が途中であっても出力が終了する。
【0065】
図17のタイミングチャートは、音声1を複数回繰り返して出力する場合の例を示す。この場合、音声1の出力開始のタイミングを示す時刻t72が「画像1の表示開始時刻t71から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t73を「画像1の表示終了時刻」としている。この場合、音声1が途中であっても出力が終了する。
【0066】
なお、上記のように説明した画像を表示させるタイミングと音声を表示させるタイミングとの関係は一例である。したがって、上記パターンとは異なる他のパターンに設定することも可能である。
【0067】
図18から図19は、音声の出力開始及び出力終了のタイミングと音量とを対応付けて示すタイミングチャートである。図18及び図19に示す各パターンは、例えば予め設定され、記憶部222に記憶されている。
【0068】
図18のタイミングチャートは、音声の出力開始時刻t81における音量が0であり、時刻t82における音量がV85である。時刻t81から時刻t82の間は、一定の増加量で音量を増加させる。時刻t82から時刻t83の間は、音量をV85の状態で維持する。時刻t83から時刻t84の間は、音量をV85から0まで一定の減少量で減少させる。
【0069】
図19のタイミングチャートは、音声1の出力開始時刻t91における音量がV95であり、時刻t92において音量がV95よりも低いV96に減少し、この音量が時刻t93まで維持される。時刻t93以降は、再び音量がV95となる。また、音声1の音量が減少する時刻t92から時刻t93の間は、音声2がV95よりも大きい音量であるV94で出力される。このように、異なる複数の音声を同時に出力させることができる。
【0070】
なお、上記のように説明した音量を変更させるタイミングについては一例である。したがって、上記パターンとは異なる他のパターンに設定することも可能である。
【0071】
図20は、表示装置101の表示画面101Sに表示される画像の一例を示す図である。図20に示すように、表示画面101Sまたは当該画像の一部には、領域設定部216により、特定領域Aが設定される。領域設定部216は、表示画面101Sまたは画像内の1箇所又は複数箇所に特定領域Aを設定することができる。本実施形態では、例えば2箇所に特定領域Aが設定されているが、これに限定されない。以下、2つの特定領域Aを区別する場合、特定領域A1、A2と表記する場合がある。各特定領域Aは、例えば円であるが、これに限定されず、矩形であってもよいし、他の形状であってもよいし、異なる特定領域Aにおいて形状及び寸法が異なってもよい。領域設定部216は、複数の特定領域Aを設定する場合、各特定領域Aを、例えば表示画面101Sに互いに離れた状態で設定する。
【0072】
また、出力制御部226は、表示画面101Sに表示される画像において、特定領域Aに対応する位置及び範囲にそれぞれ対象物Mを表示させる。本実施形態では、複数の対象物Mとして、例えば2つの対象物Mを表示する。以下、2つの対象物Mを表記する際、特定領域A1に表示される対象物Mを対象物M1と表記し、特定領域A2に表示される対象物Mを対象物M2と表記する場合がある。対象物Mの内部には、例えば模様等が形成されてもよい。対象物Mの形状は、特定領域Aの形状と一致してもよいし、異なってもよい。
【0073】
また、図20では、出力制御部226により表示画面101Sにおいて、例えば計測後に結果表示される注視点の一例を示している。出力制御部226は、例えば被験者の注視点を検出している間は、注視点を表示させないようにする。注視点の位置データの検出は、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期で(例えば50[msec]毎に)実施される。第1カメラ102A及び第2カメラ102Bは、同期して撮像する。
【0074】
判定部218は、特定領域Aが表示画面101Sに設定される場合に、注視点の位置の検出結果である位置データに基づいて、注視点が特定領域Aに存在するか否かを判定し、判定データを出力する。判定部218は、例えば一定時間毎に注視点が特定領域に存在するか否かを判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば50[msec]毎)とすることができる。
【0075】
出力制御部226は、注視点が特定領域Aに存在すると判定部218により判定された場合、少なくとも音声の出力状態を調整する。音声の出力状態の調整は、音声の出力を停止又は終了させること、出力停止状態から前記音声の出力を再開させること、音声の音量を調整することのいずれかを含む。また、音声の出力状態の調整は、選択する音声を切り替えることを含む。
【0076】
また、出力制御部226は、注視点が特定領域Aに存在すると判定部218により判定された場合、表示装置101Sに表示している画像の表示終了のタイミングを制御する。当該表示終了のタイミングを制御することは、例えば予め設定された表示終了のタイミングを変更することを含む。
【0077】
出力制御部226は、例えば、複数の特定領域Aが設定される場合、被験者の注視点がどの特定領域Aに存在するかに応じて、音声の出力状態の調整及び画像の表示終了のタイミングの制御の内容を異なるようにすることができる。例えば、被験者の注視点が特定領域A1に存在する場合、音声の出力状態の調整と、画像の表示終了のタイミングの制御とを両方を行わせることができる。また、被験者の注視点が特定領域A2に存在する場合、音声の出力状態の調整のみを行わせることができる。
【0078】
また、別の設定例としては、例えば、被験者の注視点が特定領域A1に存在する場合、音声の出力状態の調整として、音声の出力を終了させることができる。また、被験者の注視点が特定領域A2に存在する場合、音声の出力状態の調整として、出力する音声を他の音声に切り替えることができる。
【0079】
なお、上記した音声の出力状態の調整内容、また、音声の出力状態の調整と画像の表示終了のタイミングの制御との組み合わせ内容については、一例であり、これに限定されるものではない。どの特定領域Aに注視点が存在するかに応じて、音声の出力状態の調整内容が異なるように設定することができ、また、音声の出力状態の調整と画像の表示終了のタイミングの制御との組み合わせ内容が異なるように設定することができる。
【0080】
次に、本実施形態に係る視線検出装置100の動作の一例について図21を参照しながら説明する。図21は、視線検出装置100の動作を示すフローチャートである。まず、出力制御部226は、記憶部222から図8から図19に示す各データ、つまり画像及び音声の設定データ、音量制御の設定データ、タイミングデータ等を読み込む(ステップS101)。
【0081】
次に、演算部220は、画像の表示時間及び音声の出力時間を管理するための管理タイマをリセットする(ステップS102)。次に、注視点検出部214は、表示装置101に表示された画像を被験者に見せた状態で、規定のサンプリング周期(例えば50[msec])毎に、表示装置101の表示画面101Sにおける被験者の注視点の位置データを検出する注視点検出処理を開始する(ステップS103)。
【0082】
位置データが検出された場合(ステップS104のNo)、表示画面101Sに画像を表示させると共に、音声出力装置70に音声を出力させて、所定の視線検出処理を行わせ、視線検出結果に応じて画像音声出力制御処理を行う(ステップS105)。(図21のステップS105を「視線検出処理および画像音声出力制御処理」と変更してください)ステップS105の視線検出処理および画像音声出力制御処理については後述する。ステップS105の処理が終了した場合、又は、ステップS104において位置データが検出されない場合(ステップS104のYes)、管理タイマが所定の時間に到達したか否かを判定する(ステップS106)。所定の時間に到達していない場合(ステップS106のNo)、ステップS103以降の処理を繰り返し行う。所定の時間に到達した場合(ステップS106のYes)、視線検出処理により得られた視点データを評価し(ステップS107)、評価値の出力を行う(ステップS108)。
【0083】
次に、ステップS105の視線検出処理および画像音声出力処理について説明する。ステップS105の視線検出処理及び画像音声出力制御処理において、注視点検出部214は、視線検出処理を行い、出力制御部226は、本実施形態に係る画像音声出力制御処理を行う。図22は、本実施形態に係る視線検出処理および画像音声出力制御処理の一例を示すフローチャートである。出力制御部226は、視線検出用の画像を表示画面101Sに表示させる(ステップS201)。注視点検出部214は、表示画面101Sに画像を表示させた状態で、被験者の注視点の位置データを検出する(ステップS202)。
【0084】
判定部218は、注視点が特定領域Aに存在するか否かを判定する(ステップS203)。注視点が特定領域Aに存在すると判定された場合、出力制御部226は、音声出力装置70における音声の出力状態を変更するか否かの判断を行う(ステップS204)。音声の出力状態を変更すると判断した場合(ステップS204のYes)、出力制御部226は、音声出力装置70における音声の出力状態を変更する(ステップS205)。また、出力制御部226は、音声の出力状態を変更した場合、画像の表示状態を変更するか否かの判断を行う(ステップS206)。出力制御部226は、画像の表示状態を変更すると判断した場合(ステップS206のYes)、画像の表示状態を変更する(ステップS207)。
【0085】
ステップS207の処理を行った後、また、上記ステップS203のNo、ステップS204のNo、及びステップS206のNoの処理を行った場合、出力制御部226は、画像の表示が終了したか否かの判断を行う(ステップS208)。出力制御部226は、画像の表示が終了したと判断した場合(ステップS208のYes)、処理を終了する。また、出力制御部226は、画像の表示が終了していないと判断した場合(ステップS208のNo)、ステップS202以降の処理を繰り返し行わせる。
【0086】
以下、ステップS105の視線検出処理および画像音声出力制御処理において、本実施形態に係る画像音声出力制御処理により音声の出力状態、画像の表示状態を変更する場合を具体的に説明する。図23は、画像音声出力制御処理の一例を示すフローチャートである。図23では、被験者の注視点の位置データに応じて音声の出力を終了する場合の例を示す。
【0087】
まず、出力制御部226は、視線検出用の画像を表示装置101Sに表示させる(ステップS301)。ステップS301において、出力制御部226は、記憶部222に記憶された画像1〜画像6のうち所定の画像を表示させる。領域設定部216は、表示画面101S、または画像1〜画像6のうち、所定の画像の一部に特定領域Aを設定する。演算部220は、検出タイマにより、画像1が表示されてからの経過時間を検出する。
【0088】
次に、出力制御部226は、音声出力装置70から出力すべき音声があるか否かを判断する(ステップS302)。ステップS302において、出力制御部226は、記憶部222に記憶された音声の中から、例えば「画像1」と対応付けて記憶される音声が存在するか否かを検出する。
【0089】
出力制御部226は、出力すべき音声が存在すると判断した場合、当該音声の出力開始時刻に到達したか否かを判断する(ステップS303)。出力制御部226は、音声の出力開始時刻に到達していない場合(ステップS303のNo)、出力開始時刻に到達するまで、ステップS303の判断を繰り返し行う。出力制御部226は、音声の出力開始時刻に到達したと判断した場合(ステップS303のYes)、音声の出力を開始させる(ステップS304)。
【0090】
ステップS302のNoの処理又はステップS304の処理を行った後、注視点検出部214は、被験者の注視点の位置データを取得する(ステップS305)。ステップS305において、中心点検出部214は、規定のサンプリング周期(例えば50[msec])毎に、表示装置101の表示画面101Sにおける被験者の注視点の位置データを検出する。
【0091】
判定部218は、表示画面101Sに表示される画像のうち、被験者の注視点が特定領域Aに存在するか否かの判定を行う(ステップS306)。ステップS306において、判定部218は、例えば一定時間毎に注視点が特定領域Aに存在するか否かを判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば50[msec]毎)とすることができる。
【0092】
注視点が特定領域Aに存在すると判定された場合(ステップS306のYes)、出力制御部226は、音声の出力状態を変更する。この場合、出力制御部226は、例えば音声の出力を終了させる(ステップS308)。ステップS308において、出力制御部226は、例えば記憶部222に記憶されたタイミングデータには存在しないタイミングであっても、判定部218の判定結果をトリガーとして、音声の出力を終了させる。なお、音声の出力を停止(一時停止)させる場合についても、同様に行うことができる。
【0093】
また、上記のステップS306において、被験者の注視点が特定領域Aに存在しないと判定された場合、出力制御部226は、終了させるべき音声が存在するか否かを判断する(ステップS307)。ステップS307において、出力制御部226は、ステップS307の時点で音声が出力されているか否かを判断し、音声が出力されている場合には、終了させるべき音声が存在すると判断する。また、出力制御部226は、ステップS307の時点で音声が出力されていない場合、出力させるべき音声が存在しないと判断する。
【0094】
ステップS307において、終了させるべき音声が存在すると判定した場合、出力制御部226は、音声の出力終了時刻になったか否かを判断する(ステップS309)。出力終了時刻は、例えば記憶部222に記憶されるタイミングチャート(図11図17参照)において音声を終了させる時刻である。出力制御部226は、音声の出力終了時刻に到達していないと判断した場合(ステップS309のNo)、出力終了時刻に到達するまで、ステップS309の判断を繰り返し行う。出力制御部226は、音声の出力終了時刻に到達したと判断した場合(ステップS309のYes)、音声の出力を終了させる(ステップS310)。
【0095】
ステップS308の処理、ステップS307のNoの処理、又はステップS310の処理を行った後、出力制御部226は、表示画面101Sに表示される画像の表示終了時刻になったか否かを判断する(ステップS311)。ステップS311において、出力制御部226は、例えば管理タイマに基づいて判断を行う。画像の表示終了時刻になったと判断した場合(ステップS311のYes)、出力制御部226は、画像の表示を終了させる(ステップS312)。また、画像の表示終了時刻になっていないと判断した場合(ステップS311のNo)、出力制御部226は、ステップS302以降の動作を繰り返し行わせる。
【0096】
出力制御部226は、画像の表示を終了させた場合、全ての画像を表示させたか否かの判断を行う(ステップS313)。出力制御部226は、全ての画像を表示させていないと判断した場合(ステップS313のNo)、ステップS301以降の動作を繰り返し行わせる。また、出力制御部226は、全ての画像を表示させたと判断した場合(ステップS313のYes)、画像音声出力制御処理を終了する。
【0097】
図24は、画像音声出力制御処理の他の例を示すフローチャートである。図24では、被験者の注視点の位置データに応じて出力する音声を切り替える場合の例を示す。図24に示すように、被験者の注視点の位置データに応じて出力する音声を切り替える場合には、図23に示すステップS308の処理が異なるのみであり、ステップS301〜ステップS307、ステップS309〜ステップS313の処理については、同様である。
【0098】
図24に示す例では、ステップS306において、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、ステップS308に代えて、出力する音声を切り替える処理を行う(ステップS314)。ステップS314において、出力制御部226は、現在出力されている音声の出力を停止させ、記憶部222に記憶された複数の音声から現在出力されている音声に代えて別の音声を選択する。そして、出力制御部226は、選択した音声を音声出力装置70に出力させる。ステップS314を行った後、出力制御部226は、ステップS311以降の処理を行わせる。なお、注視点が特定領域Aに存在すると判定部218により判定された場合に音声の音量を変更する処理を行う場合には、出力制御部226は、図24に示すフローチャートにおいて、ステップS308に代えて、音量を変更する処理を行うようにすればよい。
【0099】
なお、複数の特定領域AX(AXはA1,A2…)にそれぞれひとつずつ対応する複数の音声を割り当て、注視点が特定領域AXに存在すると判定部218により判定された場合、出力制御部226は、割り当てられた複数の音声の中から特定領域AXに対応する音声を選択して音声出力装置70に出力させてもよい。
【0100】
また、特定領域Aに対応する音声は一つに限らず、複数の音声を割り当て、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、割り当てられた複数の音声の中からランダムに音声を選択して音声出力装置70に出力させてもよい。また、複数の音声に所定の順序を設定し、注視点が特定領域A1に存在すると判定部218により判定された場合、所定の順序で再生中の音声の次の音声を選択し、注視点が特定領域A2に存在すると判定部218により判定された場合、所定の順序で再生中の音声のセンタ王又は前の音声を選択して、音声出力装置70に出力させてもよい。
【0101】
図25は、画像音声出力制御処理の他の例を示すフローチャートである。図25では、被験者の注視点の位置データに応じて音声の出力を開始する場合の例を示す。図25に示す例において、ステップS401、ステップS405〜ステップS407、ステップS409〜ステップS413の処理については、図23におけるステップS301、ステップS305〜ステップS307、ステップS309〜ステップS313の処理と同様である。また、図25に示す例においては、図23におけるステップS302〜ステップS304に対応する処理が行われず、ステップS401を行った後にステップS405の処理を行う。
【0102】
図25に示す例において、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、音声の出力が行われているか否かの判断を行う(ステップS414)。出力制御部226は、音声の出力が行われていないと判断した場合(ステップS414のNo)、音声の出力を開始させる処理を行い(ステップS415)、その後ステップS411に移行する。また、出力制御部226は、音声の出力が行われていると判断した場合(ステップS414のYes)、ステップS415の処理を行わずに、ステップS411に移行する。なお、音声の出力が停止(一時停止)されている場合において、出力を再開する場合についても、同様に行うことができる。この場合、ステップS414に対応する処理として、音声の出力が停止されているか否かの判断を行う。また、ステップS415に対応する処理として、音声の出力を再開させる処理を行う。
【0103】
図26は、画像音声出力制御処理の他の例を示すフローチャートである。図26では、被験者の注視点の位置データに応じて音声の出力を終了した後、画像の表示終了のタイミングを制御する場合の例を示す。図26に示す例において、ステップS501〜ステップS513の処理については、図23におけるステップS301〜ステップS313の処理と同様である。
【0104】
図26に示す例において、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、図23におけるステップS308と同様に、音声の出力を終了させる(ステップS508)。その後、出力制御部226は、画像の表示を終了するか否かの判断を行う(ステップS514)。ステップS514において、出力制御部226は、画像の表示を終了すると判断した場合(ステップS514のYes)、ステップS512に移行して画像の表示を終了させる。この場合、予め設定された表示終了のタイミングが到達していなくても、画像の表示が終了する。したがって、予め設定された表示終了のタイミングを変更することとなる。また、ステップS514において、出力制御部226は、画像の表示を終了しないと判断した場合、ステップS511以降の処理を行わせる。
【0105】
なお、図26に示す例において、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、ステップS508を行うことなく、ステップS514の処理を行ってもよい。この場合、音声を出力させたままの状態で、画像の表示を終了させることができる。
【0106】
以上のように、本実施形態に係る視線検出装置100は、画像を表示する表示画面101Sと、音声を出力する音声出力装置70と、表示画面101Sを観察する観察者の注視点の位置を検出する注視点検出部214と、表示画面101S又は画像の一部に特定領域Aを設定する領域設定部216と、特定領域Aが表示画面101S又は画像に設定される場合に、注視点Pの位置の検出結果に基づいて注視点Pが特定領域Aに存在するか否かを判定する判定部218と、表示画面101Sに画像を表示させ、音声出力装置70に音声を出力させると共に、注視点Pが特定領域Aに存在すると判定された場合、少なくとも音声の出力状態を調整する出力制御部226とを備える。
【0107】
この構成によれば、注視点Pが特定領域Aに存在すると判定された場合、少なくとも音声の出力状態を調整するため、音声の出力状態を変更するタイミングを効率的に調整することが可能となる。
【0108】
本実施形態に係る視線検出装置100において、音声の出力状態の調整は、音声の出力を停止又は終了させること、出力停止状態から音声の出力を再開させること、音声の音量を調整することのいずれかを含む。また、出力制御部226は、複数の音声の中から選択して音声出力装置70に出力させ、音声の出力状態の調整は、選択する音声を切り替えることを含む。これにより、音声の出力状態の調整を幅広く行うことができる。
【0109】
本実施形態に係る視線検出装置100において、出力制御部226は、注視点が特定領域Aに存在すると判定された場合、画像の表示終了のタイミングを制御する。これにより、音声の出力状態の変更に応じて、画像の表示終了のタイミングを制御することができる。
【0110】
本実施形態に係る視線検出装置100において、表示終了のタイミングを制御することは、予め設定された表示終了のタイミングを変更することを含む。これにより、音声の出力終了のタイミングに合わせて、画像の表示終了のタイミングを柔軟に調整することができる。
【0111】
(電子端末)
図27は、本実施形態に係る画像音声出力装置の他の例である電子端末500を示す図である。図27に示すように、電子端末500は、例えばタブレット型コンピュータ、スマートフォン等の携帯型の電子機器を含む。電子端末500は、筐体501と、表示画面502と、撮影装置503と、音声出力装置504と、制御装置505とを有する。
【0112】
筐体501は、表示画面502、撮影装置503、音声出力装置504及び制御装置505を保持する。表示画面502は、画像を表示する。撮影装置503は、表示画面を観察する観察者の顔を撮影可能である。このため、撮影装置503は、表示画面502を観察する観察者の眼球の画像データを取得可能である。音声出力装置504は、音声を出力する。
【0113】
制御装置505は、上記の表示画面502、撮影装置503及び音声出力装置504の動作を制御する。制御装置505は、CPUのようなマイクロプロセッサと、ROM及びRAMのようなメモリ又はストレージとを含む。
制御装置505は、撮影装置503で撮影された観察者の眼球の画像データに基づいて観察者の注視点の位置を検出する注視点検出部と、表示画面502に表示される画像の一部に特定領域502a、502bを設定する領域設定部と、特定領域502a、502bが設定された画像が表示画面502に表示される場合に、注視点の位置の検出結果に基づいて注視点Pが特定領域502a、502bに存在するか否かを判定する判定部と、表示画面502に画像を表示させ音声出力装置504に音声を出力させると共に、注視点Pが特定領域502a、502bに存在すると判定された場合、少なくとも音声の出力状態を調整する出力制御部とを有する。
【0114】
制御装置505は、記憶部を有する。記憶部は、例えば表示画面502に表示させる画像のデータと、音声出力装置504に出力させる音声のデータとを記憶する。また、記憶部は、表示画面に画像を表示させる処理と、音声出力装置に音声を出力させる処理と、表示画面を観察する観察者の注視点の位置を検出する処理と、表示画面に表示される画像の一部に特定領域を設定する処理と、特定領域が設定された画像が表示画面に表示される場合に、注視点の位置の検出結果に基づいて注視点が特定領域に存在するか否かを判定する処理と、注視点が特定領域に存在すると判定された場合、少なくとも音声の出力状態を調整する処理とをコンピュータに実行させる画像音声出力プログラムを記憶する。
【0115】
このような電子端末500において、制御装置505は、表示画面502に画像を表示させる。また、制御装置505は、表示画面502に表示される画像の一部に、特定領域502a、502bを設定する。このとき、特定領域502a、502bの外観を、後述する音声の出力状態の変更内容に対応した外観に設定することができる。例えば、制御装置505は、音声を再生させるマークを特定領域502aに表示することができる。また、制御装置505は、音声の再生を停止させるマークを特定領域502bに表示することができる。
【0116】
制御装置505は、表示画面502の画像を観察する観察者を撮影装置503により撮影し、観察者の眼球の画像データを取得する。そして、制御装置505は、取得した画像データに基づいて観察者の注視点の位置を検出する。
【0117】
制御装置505は、検出した注視点が特定領域502a、502bに存在するか否かの判定を行う。制御装置505は、観察者の注視点Pが例えば特定領域502aに存在すると判定した場合、音声の出力状態を調整する処理として、音声の出力を開始させる処理、又は出力停止状態である音声の出力を再開させる処理を行う。また、制御装置505は、観察者の注視点Pが例えば特定領域502aに存在すると判定した場合、音声の出力状態を調整する処理として、音声の出力を停止させる処理を行う。なお、音声の出力状態の調整内容については、上記に限定されない。音声の出力状態の調整は、例えば音声の出力を停止又は終了させること、出力停止状態から音声の出力を再開させること、音声の音量を調整することのいずれかを含む。また、制御装置505が複数の音声の中から選択して音声出力装置504に出力させる場合、音声の出力状態の調整は、選択する音声を切り替えることを含む。
【0118】
なお、制御装置505は、注視点が特定領域に存在すると判定された場合、画像の表示終了のタイミングを制御してもよい。
【0119】
このように、視線検出装置100に限られず、画像及び音声を出力する画像音声出力装置である電子端末500においても、注視点Pが特定領域502a、502bに存在すると判定された場合、少なくとも音声の出力状態を調整するため、音声の出力状態を変更するタイミングを効率的に調整することが可能となる。
【0120】
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
【0121】
本実施の形態においては、画像と音声が分離されているものとして説明したが、画像と音声が多重化されていてもよい。例えば、画像と音声が多重化されている場合、図22のステップS204にステップS206が統合され、ステップS206にS208が統合される。ステップS204で音声の出力状態を変更するかどうかを判定し、ステップS206で画像および音声の出力状態を変更する。
【符号の説明】
【0122】
A,A1,A2…特定領域、M,M1,M2…対象物、P,165,166…注視点、20…コンピュータシステム,制御部、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、70…音声出力装置、100…視線検出装置、101,101S…表示装置、101S…表示画面、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、103…照明装置、103A…第1光源、103B…第2光源、103C…光源、103V…仮想光源、109…角膜曲率半径、110,110H…角膜曲率中心、111…眼球,眼、112…瞳孔、112C…瞳孔中心、113…角膜反射像、113C,121,122,124…角膜反射中心、123,131,132,173…直線、126…距離、130…目標位置、177,178…視線、202…表示制御部、204…光源制御部、206…画像データ取得部、208…入力データ取得部、210…位置検出部、212…曲率中心算出部、214…注視点検出部、216…領域設定部、218…判定部、220…演算部、222…記憶部、224…評価部、226…出力制御部、302…入出力部、402…表示装置駆動部、404A…第1カメラ入出力部、404B…第2カメラ入出力部、406…光源駆動部、500…電子端末、501…筐体、502…表示画面、503…撮影装置、504…音声出力装置、505…制御装置。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27