IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社豊田中央研究所の特許一覧 ▶ トヨタ自動車株式会社の特許一覧 ▶ 株式会社デンソーの特許一覧

特開2023-182566視覚負担推定装置、及び視覚負担推定プログラム
<>
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図1
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図2
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図3
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図4
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図5
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図6
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図7
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図8
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図9
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図10
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図11
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図12
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図13
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図14
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図15
  • 特開-視覚負担推定装置、及び視覚負担推定プログラム 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023182566
(43)【公開日】2023-12-26
(54)【発明の名称】視覚負担推定装置、及び視覚負担推定プログラム
(51)【国際特許分類】
   A61B 5/18 20060101AFI20231219BHJP
   B60W 40/08 20120101ALI20231219BHJP
   A61B 3/113 20060101ALI20231219BHJP
   A61B 3/028 20060101ALI20231219BHJP
   A61B 5/11 20060101ALI20231219BHJP
【FI】
A61B5/18
B60W40/08
A61B3/113
A61B3/028
A61B5/11 200
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023098071
(22)【出願日】2023-06-14
(31)【優先権主張番号】P 2022095989
(32)【優先日】2022-06-14
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000003609
【氏名又は名称】株式会社豊田中央研究所
(71)【出願人】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(71)【出願人】
【識別番号】000004260
【氏名又は名称】株式会社デンソー
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】田口 敏行
(72)【発明者】
【氏名】兵藤 彩
(72)【発明者】
【氏名】堂上 靖史
(72)【発明者】
【氏名】山田 勝徳
(72)【発明者】
【氏名】武田 広大
(72)【発明者】
【氏名】吉田 明弘
(72)【発明者】
【氏名】西井 克昌
【テーマコード(参考)】
3D241
4C038
4C316
【Fターム(参考)】
3D241BA70
3D241DD01Z
4C038PP01
4C038PQ03
4C038PQ06
4C038PS07
4C038VA04
4C038VB02
4C038VB04
4C038VC05
4C038VC20
4C316AA13
4C316AA21
4C316AA30
4C316FA01
4C316FA02
4C316FC28
(57)【要約】
【課題】視対象の状態を考慮して、運転者の視覚負担を推定する精度を向上させることができる視覚負担推定装置、及び視覚負担推定プログラムを提供することを目的とする。
【解決手段】視覚負担推定装置は、視対象を視認するユーザの状況を示す状況情報、及び視対象に関する視対象情報を取得する取得部と、取得した状況情報を用いて、視対象を視認するユーザの視線から予め定められた範囲に設定された視野であって、視野から視対象が外れた頻度である視線ブレ頻度を推定する視線ブレ推定部と、視線ブレ頻度を用いて、動的に変化する視対象を視認するための視力を示す動的視力を推定し、視対象情報を用いて、視対象を視認するために必要な視力を示す視標視力を推定する視力推定部と、動的視力、及び視標視力を用いて、視対象を視認する負担を示す視覚負担を推定する視覚負担推定部と、を備えている。
【選択図】図2
【特許請求の範囲】
【請求項1】
視対象を視認するユーザの状況を示す状況情報、及び前記視対象に関する視対象情報を取得する取得部と、
取得した前記状況情報を用いて、前記視対象を視認するユーザの視線から予め定められた範囲に設定された視野であって、前記視野から前記視対象が外れた頻度である視線ブレ頻度を推定する視線ブレ推定部と、
前記視線ブレ頻度を用いて、動的に変化する視対象を視認するための視力を示す動的視力を推定し、前記視対象情報を用いて、前記視対象を視認するために必要な視力を示す視標視力を推定する視力推定部と、
前記動的視力、及び前記視標視力を用いて、前記視対象を視認する負担を示す視覚負担を推定する視覚負担推定部と、
を備える視覚負担推定装置。
【請求項2】
前記状況情報として前記ユーザが乗車している車両の振動を検出する検出部と、
前記車両の振動を用いて、ユーザの頭部の動揺を示す頭部動揺を推定する頭部動揺推定部と、をさらに備え、
前記視線ブレ推定部は、前記頭部動揺推定部が推定した前記頭部動揺を用いて、前記視線ブレ頻度を推定する
請求項1に記載の視覚負担推定装置。
【請求項3】
前記頭部動揺推定部は、前記車両、及び前記ユーザをバネマス質点系で近似した場合における車両の振動が前記ユーザの頭部に伝搬する伝搬関数を用いて、前記振動による前記頭部動揺を推定する
請求項2に記載の視覚負担推定装置。
【請求項4】
前記視覚負担推定部は、前記動的視力と、前記視標視力と、の差分から前記視覚負担を推定する
請求項1に記載の視覚負担推定装置。
【請求項5】
前記ユーザを撮影した撮影画像を取得し、前記状況情報として前記撮影画像から前記ユーザの位置、及び前記ユーザの視線を検出する検出部をさらに備え、
前記視線ブレ推定部は、取得した前記ユーザの視線を用いて、前記視線ブレ頻度を推定し、
前記視力推定部は、前記ユーザの位置を用いて、前記視標視力を推定する
請求項1に記載の視覚負担推定装置。
【請求項6】
前記検出部は、前記視対象の動揺をさらに検出し、
前記視線ブレ推定部は、前記視対象の動揺を用いて視線ブレ頻度を推定する
請求項5に記載の視覚負担推定装置。
【請求項7】
前記視力推定部は、前記視対象の大きさ、及び密度の少なくとも一方を用いて、前記視標視力を推定する
請求項1に記載の視覚負担推定装置。
【請求項8】
前記視線ブレ推定部は、前記ユーザが視対象を視認している視覚タスク期間における視線ブレの積算値をさらに推定し、
前記視力推定部は、推定した前記視線ブレ、及び前記積算値を用いて、前記動的視力を推定する
請求項1に記載の視覚負担推定装置。
【請求項9】
前記視線ブレ推定部は、前記積算値として、前記視覚タスク期間における前記視線ブレ頻度を積算した値から、前記視覚タスク期間において前記視対象を視認していない期間に対応する値を減算して推定する
請求項8に記載の視覚負担推定装置。
【請求項10】
視対象を視認するユーザの状況を示す状況情報、及び前記視対象に関する視対象情報を取得する取得ステップと、
取得した前記状況情報を用いて、前記視対象を視認するユーザの視線から予め定められた範囲に設定された視野であって、前記視野から前記視対象が外れた頻度である視線ブレ頻度を推定する視線ブレ推定ステップと、
前記視線ブレ頻度を用いて、動的に変化する視対象を視認するための視力を示す動的視力を推定し、前記視対象情報を用いて、前記視対象を視認するために必要な視力を示す視標視力を推定する視力推定ステップと、
前記動的視力、及び前記視標視力を用いて、前記視対象を視認する負担を示す視覚負担を推定する視覚負担推定ステップと、
をコンピュータに実行させるための視覚負担推定プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、視覚負担推定装置、及び視覚負担推定プログラムに関する。
【背景技術】
【0002】
近年、車両を運転する運転者の負担を軽減させるために、運転者が感じる負担を推定する技術が提案されている。
【0003】
例えば、車両の振動、頭部の動揺、及び前庭動眼反射等の眼球の運動によって生じる視線の変位を考慮して、運転者が感じる視覚の負担(以下、「視覚負担」という。)を推定する技術が提案されている(特許文献1参照)。特許文献1に記載の技術では、運転者の頭部動揺及び眼球運動を検出し、頭部動揺及び眼球運動を用いて、視対象が眼球の中心窩から外れる視線ズレを算出し、当該視線ズレをlogMAR(ログマー)視力に換算して視覚負担を推定する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-118429号公報
【特許文献2】特開2006-309432号公報
【特許文献3】特開2018-94294号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところで、視覚負担は、運転者が視認している視対象の密度及び大きさに応じて変動する。例えば、多くの人及び車両が行き来する雑多な道路を走行している場合、運転者の視覚負担は大きくなる。一方、高速道路等の車両の間隔が斉一な道路を走行している場合、運転者の視覚負担は小さくなる。
【0006】
特許文献1に記載の技術では、運転者の頭部動揺及び眼球運動を考慮して、視覚負担を推定できるが、密度及び大きさ等の視対象の状態が考慮されておらず、運転者の視覚負担が正確に推定できるとは限らなかった。
【0007】
本開示は、以上の事情を鑑みて成されたものであり、視対象の状態を考慮して、運転者の視覚負担を推定する精度を向上させることができる視覚負担推定装置、及び視覚負担推定プログラムを提供することを目的とする。
【課題を解決するための手段】
【0008】
上記目的を達成するために、第1の態様に係る視覚負担推定装置は、視対象を視認するユーザの状況を示す状況情報、及び視対象に関する視対象情報を取得する取得部と、取得した状況情報を用いて、視対象を視認するユーザの視線から予め定められた範囲に設定された視野であって、視野から視対象が外れた頻度である視線ブレ頻度を推定する視線ブレ推定部と、視線ブレ頻度を用いて、動的に変化する視対象を視認するための視力を示す動的視力を推定し、視対象情報を用いて、視対象を視認するために必要な視力を示す視標視力を推定する視力推定部と、動的視力、及び視標視力を用いて、視対象を視認する負担を示す視覚負担を推定する視覚負担推定部と、を備えている。
【0009】
また、第2の態様に係る視覚負担推定装置において、状況情報としてユーザが乗車している車両の振動を検出する検出部と、車両の振動を用いて、ユーザの頭部の動揺を示す頭
部動揺を推定する頭部動揺推定部と、をさらに備え、視線ブレ推定部は、頭部動揺推定部が推定した頭部動揺を用いて、視線ブレ頻度を推定する。
【0010】
また、第3の態様に係る視覚負担推定装置において、頭部動揺推定部は、車両、及びユーザをバネマス質点系で近似した場合における車両の振動がユーザの頭部に伝搬する伝搬関数を用いて、振動による頭部動揺を推定する。
【0011】
また、第4の態様に係る視覚負担推定装置において、視覚負担推定部は、動的視力と、視標視力と、の差分から視覚負担を推定する。
【0012】
また、第5の態様に係る視覚負担推定装置において、ユーザを撮影した撮影画像を取得し、状況情報として撮影画像からユーザの位置、及びユーザの視線を検出する検出部をさらに備え、視線ブレ推定部は、取得したユーザの視線を用いて、視線ブレ頻度を推定し、視力推定部は、ユーザの位置を用いて、視標視力を推定する。
【0013】
また、第6の態様に係る視覚負担推定装置において、検出部は、視対象の動揺をさらに検出し、視線ブレ推定部は、視対象の動揺を用いて視線ブレ頻度を推定する。
【0014】
また、第7の態様に係る視覚負担推定装置において、視力推定部は、視対象の大きさ、及び密度の少なくとも一方を用いて、視標視力を推定する。
【0015】
また、第8の態様に係る視覚負担推定装置において、視線ブレ推定部は、ユーザが視対象を視認している視覚タスク期間における視線ブレの積算値をさらに推定し、視力推定部は、推定した視線ブレ、及び積算値を用いて、動的視力を推定する。
【0016】
また、第9の態様に係る視覚負担推定装置において、視線ブレ推定部は、積算値として、視覚タスク期間における視線ブレ頻度を積算した値から、視覚タスク期間において視対象を視認していない期間に対応する値を減算して推定する。
【0017】
一方、上記目的を達成するために、第8の態様に係る視覚負担推定プログラムにおいて、視対象を視認するユーザの状況を示す状況情報、及び視対象に関する視対象情報を取得する取得ステップと、取得した状況情報を用いて、視対象を視認するユーザの視線から予め定められた範囲に設定された視野であって、視野から視対象が外れた頻度である視線ブレ頻度を推定する視線ブレ推定ステップと、視線ブレ頻度を用いて、動的に変化する視対象を視認するための視力を示す動的視力を推定し、視対象情報を用いて、視対象を視認するために必要な視力を示す視標視力を推定する視力推定ステップと、動的視力、及び視標視力を用いて、視対象を視認する負担を示す視覚負担を推定する視覚負担推定ステップと、をコンピュータに実行させる。
【発明の効果】
【0018】
第1の態様の視覚負担推定装置、及び第10の態様の視覚負担推定プログラムによれば、視対象の状態を考慮して、運転者の視覚負担を推定する精度を向上させることができる。
【0019】
また、第2の態様の視覚負担推定装置によれば、撮影画像からユーザが検出できない場合であっても視覚負担を推定できる。
【0020】
また、第3の態様の視覚負担推定装置によれば、車両の振動に対応した頭部動揺を推定できる。
【0021】
また、第4の態様の視覚負担推定装置によれば、動的視力と、視標視力と、の関係性を明確にして視覚負担を推定できる。
【0022】
また、第5の態様の視覚負担推定装置によれば、ユーザを撮影した撮影画像から視線ブレ、及び視標視力が推定できる。
【0023】
また、第6の態様の視覚負担推定装置によれば、視対象の動揺によって誘起される視線ブレが推定できる。
【0024】
また、第7の態様の視覚負担推定装置によれば、視対象の状態に応じた視覚負担が推定できる。
【0025】
また、第8の態様の視覚負担推定装置によれば、時間経過に伴うユーザの疲労を考慮して、視覚負担を推定できる。
【0026】
また、第9の態様の視覚負担推定装置によれば、ユーザが視覚対象を視認していない場合における疲労の回復を考慮して、視覚負担を推定できる。
【図面の簡単な説明】
【0027】
図1】第1実施形態に係る視覚負担推定装置のハードウェア構成の一例を示すブロック図である。
図2】第1実施形態に係る視覚負担推定装置の機能的な構成の一例を示すブロック図である。
図3】各実施形態に係る頭部の動揺の説明に供するユーザの頭部の一例を示す模式図である。
図4】各実施形態に係る視線ブレの推定の説明に供する生体反応の入出力の一例を示すブロック図である。
図5】各実施形態に係る視線ブレ頻度と動的視力との関係の一例を示すグラフである。
図6】各実施形態に係る視対象の密度の説明に供するランドルト環の一例を示す図である。
図7】各実施形態に係る視対象の密度の説明に供するランドルト環の一例を示す図である。
図8】各実施形態に係る動的視力と視覚負担との関係の一例を示すグラフである。
図9】第1実施形態に係る視覚負担推定処理の一例を示すフローチャートである。
図10】第2実施形態に係る視覚負担推定装置のハードウェア構成の一例を示すブロック図である。
図11】第2実施形態に係る視覚負担推定装置の機能的な構成の一例を示すブロック図である。
図12】第2実施形態に係るバネマス質点系に近似したモデルの一例を示す模式図である。
図13】第2実施形態に係る視覚負担推定処理の一例を示すフローチャートである。
図14】第3実施形態に係る視覚負担推定装置の機能的な構成の一例を示すブロック図である。
図15】第3実施形態に係る視線ブレ積算値の説明に供する視線ブレ頻度と動的視力との関係の一例を示すグラフである。
図16】第1実施形態に係る視覚負担推定処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0028】
[第1実施形態]
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。なお、本実施形態は、スマートフォン、又はタブレット等の携帯端末に視覚負担推定装置が搭載され、当該携帯端末が車両に設置されている形態について説明する。しかし、これに限定されない。視覚負担推定装置は、パーソナルコンピュータ等の端末、又はサーバに搭載されていてもよいし、車載器、及びECU(Electronic Control Unit)を備える車両等の移動体に搭載されていてもよい。また、本実施形態では、ユーザが、視覚負担推定装置が備えるモニタを視対象として視認している形態について説明する。
【0029】
図1を参照して、視覚負担推定装置10の構成について説明する。図1は、視覚負担推定装置10のハードウェア構成の一例を示すブロック図である。図1に示すように、本実施形態に係る視覚負担推定装置10は、CPU(Central Processing
Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、モニタ16、通信インターフェース(通信I/F)17、センサ18A、及びカメラ19を含んで構成されている。CPU11、ROM12、RAM13、ストレージ14、入力部15、モニタ16、通信I/F17、センサ18A、及びカメラ19の各々はバス20により相互に接続されている。
【0030】
CPU11は、視覚負担推定装置10の全体を統括し、制御する。ROM12は、本実施形態で用いる視覚負担推定プログラムを含む各種プログラム及びデータ等を記憶している。RAM13は、各種プログラムの実行時のワークエリアとして用いられるメモリである。CPU11は、ROM12に記憶されたプログラムをRAM13に展開して実行することにより、ユーザの視覚負担を推定する処理を行う。
【0031】
ストレージ14は、一例としてHDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等である。ストレージ14は、ユーザによって予め設定された、視対象が視認可能な距離(視対象を視認できる限界の距離)(以下、「視認可能距離」という。)、及び静止した状態で、視対象を視認可能なユーザの視力(以下、「静止視力」という。)を記憶している。また、ストレージ14は、ユーザの年齢及び性別等に応じて設定された定数を記憶した対応テーブルを記憶している。なお、ストレージ14には、視覚負担推定プログラム等を記憶してもよい。
【0032】
入力部15は、文字等の入力を行うマウス、キーボード、及びタッチパネル等である。
【0033】
モニタ16は、画像データ及び文字等を表示するモニタである。
【0034】
通信I/F17は、ネットワークを介して外部装置とデータの送受信を行う。
【0035】
センサ18Aは、視覚負担推定装置10の並進運動を検出する加速度センサ、及び回転運動を検出するジャイロセンサである。
【0036】
カメラ19は、視対象を視認しているユーザを撮影するインカメラである。なお、カメラ19は、車両の外部を撮影する外部カメラをさらに含んでもよい。
【0037】
次に、図2を参照して、視覚負担推定装置10の機能構成について説明する。図2は、本実施形態に係る視覚負担推定装置10の機能的な構成の一例を示すブロック図である。
【0038】
図2に示すように、視覚負担推定装置10は、検出部31A、取得部32A、頭部動揺推定部33A、視線ブレ推定部34A、動的視力推定部35A、視標視力推定部36、及び視覚負担推定部37を備えている。CPU11が視覚負担推定プログラムを実行することで、検出部31A、取得部32A、頭部動揺推定部33A、視線ブレ推定部34A、動的視力推定部35A、視標視力推定部36、及び視覚負担推定部37として機能する。なお、本実施形態に係る動的視力推定部35A、及び視標視力推定部36は、「視力推定部」の一例である。また、本実施形態に係る視力は、常用対数を用いて視力を表すlogMAR(ログマー)視力である形態について説明する。logMAR視力は、logMAR値が大きいほど、視力が悪い(近視である)ことを示す。
【0039】
検出部31Aは、例えば、文字等が表示されている視対象(例えば、モニタ16)を視認しているユーザの状況に関する情報(以下、「状況情報」という。)を検出する。具体的には、検出部31Aは、カメラ19によって撮影された複数の撮影画像から状況情報としてユーザの視線、動作、及び位置を検出する。例えば、撮影画像からユーザ、及びユーザの眼を示す特徴点を抽出して特徴点の変化量を検出することによって、状況情報としてユーザの視線、動作、及び位置が検出される。ここで、視線は、ユーザの眼において、水晶体の中心と、眼における中心窩と、を結ぶ線(視軸)である。本実施形態では、ユーザの眼における水晶体(瞳)の中心から水晶体(瞳)に対して垂直方向に延伸した線(視軸)を視線として検出する。
【0040】
また、検出部31Aは、ユーザの位置を用いて、視対象からユーザまでの距離(以下、
「ユーザ距離」という。)を検出する。
【0041】
また、検出部31Aは、ユーザが視認している視対象の動揺(例えば、振動、及び運動)等の情報(以下、「視対象情報」という。)を検出する。具体的には、検出部31Aは、視覚負担推定装置10が備えるセンサ18Aを用いて視対象(視覚負担推定装置10が備えるモニタ16)の並進運動、及び回転運動を検出し、視対象情報として、視対象の動揺の角速度を検出する。
【0042】
取得部32Aは、検出部31Aから状況情報としてユーザの視線、動作、位置、及びユーザ距離を取得し、視対象情報として視対象の動揺の角速度を取得する。また、取得部32Aは、ストレージ14に記憶されている視認可能距離、及び静止視力を取得する。
【0043】
なお、本実施形態に係る視認可能距離は、予め定められている形態について説明する。しかし、これに限定されない。例えば、視認可能距離は、ユーザによって設定されてもよいし、モニタ16の大きさに応じて設定されてもよいし、モニタ16に表示される表示対象の大きさ及び密度に応じて、設定されてもよい。また、本実施形態では、ユーザによって入力された静止視力を取得する形態について説明する。しかし、これに限定されない。例えば、視認可能距離は、モニタ16にランドルト環等を表示して、ユーザの静止視力を測定することによって取得されてもよい。
【0044】
頭部動揺推定部33Aは、検出した状況情報を用いて、ユーザの頭部の動揺(以下、「頭部動揺」という。)を推定する。具体的には、頭部動揺推定部33Aは、状況情報が示すユーザの動作からユーザの頭部の速度を導出し、頭部の速度、及びユーザ距離を用いて、頭部動揺の角速度を推定する。
【0045】
視線ブレ推定部34Aは、推定した頭部動揺、及び検出した視対象の動揺を用いて、視線ブレの頻度(以下、「視線ブレ頻度」という。)を推定する。なお、本実施形態に係る視線ブレとは、視対象がユーザの中心視野(中心窩の範囲)から外れたことを示す状態である。換言すると、視線ブレは、一例として図3に示すように、頭部動揺、及び視対象の動揺によってユーザの視線が変動し、視対象の代表点が、視線を基準として設定された中心視野から外れた状態である。ここで、中心視野は、視線から半径1度の範囲である。
【0046】
ここで、一例として図4に示すように、ユーザの眼は、頭部動揺が生じた場合、前庭動眼反射が誘起され、頭部動揺前に視認していた視対象を視認するために、頭部動揺とは反対方向に眼球運動を行う。なお、本実施形態に係る前庭動眼反射は、頭部動揺によって誘起されるフィードフォワード制御が行われる。
【0047】
また、図4に示すように、ユーザの眼は、視認していた視対象に動揺が生じた場合、視機性眼球反応が誘起され、視線ブレを緩和するために視対象を追いかける眼球運動を行う。なお、本実施形態に係る視機性眼球反応は、頭部の動揺、視対象の動揺、及び前庭動眼反射による眼球運動によって誘起されるフィードバック制御が行われる。
【0048】
すなわち、視線ブレ推定部34Aは、頭部動揺による視線の角度の変化量から、前庭動眼反射によって生じる視線の角度の移動量、及び視機性眼球反応によって生じる視線の角度の移動量を差し引いて視線の位置を推定する。視線ブレ推定部34Aは、視線ブレ頻度として、所定の期間において、推定した視線に係る中心視野範囲から視対象の代表点が外れた頻度を推定する。
【0049】
動的視力推定部35は、取得した静止視力、及び推定された視線ブレ頻度を用いて、動的に変化する視対象を視認するための視力(以下、「動的視力」という。)を推定する。
本実施形態に係る動的視力は、以下の数式によって表される。
【0050】
【数1】
【0051】
ここで、Vは、動的視力であり、Vmaxは、定数であり、Sは、視線ブレ頻度であり、Cは、定数であり、Vは、静止視力である。
【0052】
上述した式(1)は、視線ブレ頻度Sが大きくなるほど、動的視力Vが大きくなることを示している。一例として図5に示すように、動的視力Vは、静止視力Vが-0.1logMARである場合において、視線ブレ頻度Sが0である場合、静止視力Vと同様の-0.1logMARを示す。一方、視線ブレ頻度Sが大きくになるにつれて、動的視力Vは、大きくなる。また、上述した式(1)は、ユーザの静止視力Vに応じて動的視力Vが変動することを示している。例えば、静止視力Vが大きくになるにつれて、動的視力Vが大きくなる。すなわち、動的視力Vは、視線ブレ頻度Sが大きくなる、又は静止視力が大きくなるほど、視対象が見えにくくなることを示している。
【0053】
なお、本実施形態に係るVmax、及びCは、予め定められた定数である。しかし、これに限定されない。ユーザの年齢、及び性別等に応じて、設定されてもよい。例えば、視覚負担推定装置10は、ストレージ14に記憶されている対応テーブルを用いて、入力されたユーザの年齢及び性別に対応するVmax、及びCを適用してもよい。
【0054】
視標視力推定部36は、取得したユーザ距離、及び視認可能距離を用いて、視対象を視認するのに必要な視力(見え易さ)(以下、「視標視力」という。)を推定する。視標視力は、以下の数式によって表される。
【0055】
【数2】
【0056】
ここで、Vは、視標視力(見え易さ)であり、V0は、静止視力であり、Lは、視認可能距離であり、Lは、ユーザ距離である。なお、視認可能距離Lは、ユーザ距離Lより大きい値である。
【0057】
上述した式(2)は、視認可能距離Lが大きくなるほど、視標視力Vが大きく(見え易く)なることを示している。また、上述した式(2)は、ユーザ距離Lが小さくなるほど、視標視力Vが大きく(見え易く)なることを示している。すなわち、視標視力Vは、視対象を視認するために必要な最小の視力を示しており、視標視力Vが大きいほど、視力が悪い(近視である)ユーザでも視認可能であることを示している。
【0058】
例えば、視対象が大きいほど、遠くからでも視対象が視認可能であることから視標視力Vは大きくなる。一方、ユーザ距離Lが小さくなると、視対象が視認しやすくなるた
め、視標視力Vは大きくなる。
【0059】
また、視対象の密度に応じて視標視力Vが変動する。一例として図6及び図7に、密度(各々のランドルト環の距離)が異なる複数のランドルト環を示す。図6及び図7に示すように、各々のランドルト環の大きさは同一であっても、密度が異なるとランドルト環の見え方が異なる。例えば、図6に示す密度が小さい(各々の距離が大きい)ランドルト環は、750mmの距離から視認可能になるのに対して、図7に示す密度が大きい(各々の距離が小さい)ランドルト環は、530mmの距離で視認可能になることがある。すなわち、視対象である複数のランドルト環の密度が大きくなる(各々のランドルト環の距離が小さくなる)と、視標視力Vは小さく(見えにくく)なり、一方、複数のランドルト環の密度が小さくなる(各々のランドルト環の距離が大きくなる)と、視標視力Vは大きく(見え易く)なる。
【0060】
視覚負担推定部37は、動的視力推定部35Aによって推定された動的視力V、及び視標視力推定部36によって推定された視標視力Vを用いて、ユーザが視対象を視認する際に掛かる負担(以下、「視覚負担」という。)を推定する。視覚負担は、以下の数式によって表される。
【0061】
【数3】
【0062】
ここで、Wは、視覚負担を示している。
【0063】
上述した式(3)は、動的視力Vが大きいほど、視覚負担Wが大きくなることを示している。また、上述した式(3)は、視標視力Vが小さくなるほど、視覚負担Wが大きくなることを示している。すなわち、上述した式(3)は、視線ブレ頻度Sが多い、及び視認可能距離Lが小さい(密度が大きい)ほど、視覚負担Wが大きくなることを示している。
【0064】
一例として図8に示すように、動的視力Vが大きいほど、視標視力Vに応じて視覚負担Wが大きくなる。例えば、図8に示すように、視標視力Vが1.0logMARである場合において、動的視力Vが0logMARである場合、視覚負担Wは0logMARである。一方、例えば、動的視力Vが0.4logMARと大きくなると、視覚負担Wは、0.4logMARとなり、大きくなる。
【0065】
また、図8に示すように、動的視力Vが同一である場合であっても、視標視力Vが小さくなると、視覚負担Wは大きくなる。例えば、動的視力Vが0logMARである場合において、視標視力Vが1.0logMARである場合、視覚負担Wは0logMARである。一方、例えば、視標視力Vが0.2logMARと小さくなると、視覚負担Wは、0.8logMARとなり、大きくなる。
【0066】
次に、図9を参照して、本実施形態に係る視覚負担推定装置10の作用について説明する。図9は、第1実施形態に係る視覚負担推定処理の一例を示すフローチャートである。CPU11がROM12又はストレージ14から視覚負担推定プログラムを読み出し、実行することによって、図9に示す視覚負担推定処理が実行される。図9に示す視覚負担推
定処理は、例えば、視覚負担Wを推定する指示が入力された場合、視覚負担推定装置10に視覚負担推定処理の実行指示が入力され、実行される。
【0067】
ステップS101において、CPU11は、状況情報、及び視対象情報を検出する。ここで、状況情報は、カメラ19によって撮影された撮影画像から検出されたユーザの視線、動作、及び位置である。また視対象情報は、センサ18Aによって検出された視対象の動揺の角速度である。
【0068】
ステップS102において、CPU11は、状況情報、及び視対象情報を取得する。
【0069】
ステップS103において、CPU11は、状況情報に係るユーザの位置からユーザ距離Lを取得し、ストレージ14から視認可能距離L、及び静止視力Vを取得する。
【0070】
ステップS104において、CPU11は、頭部動揺として、状況情報から角速度を推定する。
【0071】
ステップS105において、CPU11は、検出した視線、検出した頭部動揺の角速度、及び視対象の動揺の角速度を用いて、視線ブレ頻度Sを推定する。
【0072】
ステップS106において、CPU11は、取得した静止視力V、及び視線ブレ頻度Sを用いて、動的視力Vを推定する。
【0073】
ステップS107において、CPU11は、取得した静止視力V、視認可能距離L、及びユーザ距離Lを用いて、視標視力Vを推定する。
【0074】
ステップS108において、CPU11は、推定した動的視力V、及び視標視力Vを用いて、視覚負担Wを推定する。
【0075】
以上説明したように、本実施形態によれば、視対象の状態を考慮して、ユーザの視覚負担を推定する精度を向上させることができる。
【0076】
[第2実施形態]
第1実施形態では、視覚負担推定装置10は携帯端末であり、視覚負担推定装置10に搭載されたカメラ19によって撮影された撮影画像から頭部動揺を推定する形態について説明した。本実施形態では、視覚負担推定装置10は車両に搭載され、車両の振動から頭部動揺を推定する形態について説明する。
【0077】
なお、本実施形態に係る頭部動揺及び視線ブレを示す図(図3参照)、視線ブレの推定における生体反応モデル(図4参照)、視線ブレ頻度と動的視力との関係を示すグラフ(図5参照)、密度の説明に供するランドルト環を示す図(図6及び図7参照)、及び動的視力と視覚負担との関係を示すグラフ(図8参照)は、第1実施形態と同様であるため、説明を省略する。
【0078】
本実施形態では、図10を参照して、視覚負担推定装置10の構成について説明する。図10は、視覚負担推定装置10のハードウェア構成の一例を示すブロック図である。なお、図10における図1に示す視覚負担推定装置10の構成と同一の構成については、図1と同一の符号を付して、その説明を省略する。
【0079】
センサ18Bは、視覚負担推定装置10の並進運動を検出する加速度センサ、回転運動を検出するジャイロセンサ、ユーザの着座位置を検出する着座センサ、及び車両の振動を
検出する加速度センサである。
【0080】
次に、図11を参照して、視覚負担推定装置10の機能構成について説明する。図11は、本実施形態に係る視覚負担推定装置10の機能的な構成の一例を示すブロック図である。なお、図11における図2に示す視覚負担推定装置10の機能構成と同一の機能については、図2と同一の符号を付して、その説明を省略する。
【0081】
図11に示すように、視覚負担推定装置10は、検出部31A、着座位置検出部31B、車両振動検出部31C、取得部32B、頭部動揺推定部33B、視線ブレ推定部34A、動的視力推定部35A、視標視力推定部36、及び視覚負担推定部37を備えている。CPU11が視覚負担推定プログラムを実行することで、検出部31A、着座位置検出部31B、車両振動検出部31C、取得部32B、頭部動揺推定部33B、視線ブレ推定部34A、動的視力推定部35A、視標視力推定部36、及び視覚負担推定部37として機能する。なお、本実施形態に係る検出部31A、着座位置検出部31B、及び車両振動検出部31Cは、「検出部」の一例である。
【0082】
着座位置検出部31Bは、センサ18Bを用いて、状況情報として車両に乗車しているユーザの着座位置を検出する。なお、本実施形態では、視覚負担推定装置10に搭載されているセンサ18Bを用いて、ユーザの着座位置を検出する形態について説明した。しかし、これに限定されない。カメラ19によって撮影された撮影画像からユーザを検出し、ユーザの着座位置を検出してもよい。
【0083】
車両振動検出部31Cは、センサ18Bを用いて、状況情報として車両の振動を検出する。なお、本実施形態では、視覚負担推定装置10に搭載されているセンサ18Bを用いて、車両の振動を検出する形態について説明した。しかし、これに限定されない。カメラ19によって撮影された撮影画像から車両の振動を検出してもよい。
【0084】
取得部32Bは、検出部31Aから状況情報としてユーザの視線、及びユーザ距離Lを取得し、視対象情報として視対象の動揺の角速度を取得する。また、取得部32Bは、ストレージ14に記憶されている視認可能距離L、及び静止視力Vを取得する。さらに、取得部32Bは、着座位置検出部31Bからユーザの着座位置を取得し、車両振動検出部31Cから車両の振動の加速度を検出する。
【0085】
頭部動揺推定部33Bは、取得したユーザの着座位置、及び車両の振動を用いて、ユーザの頭部動揺を推定する。具体的には、頭部動揺推定部33Bは、一例として図12に示すユーザの頭部をバネマス質点系に近似したモデルから導出した伝搬関数を用いて頭部動揺に係る加速度を推定する。伝搬関数は、以下の数式によって表される。
【0086】
【数4】
【0087】
ここで、aは、ユーザの頭部の加速度であり、aは、車両の振動による着座位置における加速度aである。また、cは、ユーザの身体の粘性に係るダンピング係数であり、sは、ラプラス演算子であり、kはユーザの身体の剛体に係るバネ係数であり、mは、ユーザの頭部の質量である。
【0088】
ユーザの頭部と着座位置との関係を図12に示すモデルとして、近似することによって、上述した式(4)の伝搬関数が導出される。上述した式(4)は、ユーザの着座位置における振動(加速度a)が伝搬することによって、ユーザの頭部動揺が誘起され、ユーザの頭部に加速度aが生じることを示している。
【0089】
頭部動揺推定部33Bは、着座位置からユーザと視対象との距離を算出し、上述した式(4)によって導出される頭部の加速度a、及び算出したユーザとの距離を用いて、ユーザの頭部の角速度を推定する。
【0090】
次に、図13を参照して、本実施形態に係る視覚負担推定装置10の作用について説明する。図13は、第2実施形態に係る視覚負担推定処理の一例を示すフローチャートである。CPU11がROM12又はストレージ14から視覚負担推定プログラムを読み出し、実行することによって、図13に示す視覚負担推定処理が実行される。図13に示す視覚負担推定処理は、例えば、視覚負担推定対象が入力された場合、視覚負担推定装置10に視覚負担推定処理の実行指示が入力され、実行される。なお、図13における図9に示す視覚負担推定処理と同一のステップについては、図9と同一の符号を付して、その説明を省略する。
【0091】
ステップS109において、CPU11は、状況情報、及び視対象情報を検出する。ここで、状況情報は、カメラ19によって撮影された撮影画像から検出されたユーザの視線及びユーザ距離Lと、センサ18Bによって検出されたユーザの着座位置と、センサ18Bによって検出された車両の振動の加速度aと、を含む。また視対象情報は、センサ18Bによって検出された視対象の動揺の角速度である。
【0092】
ステップS110において、CPU11は、取得したユーザの着座位置、及び車両の振動を用いて、ユーザの頭部動揺の加速度aを推定し、推定した加速度a、及び取得したユーザ距離Lを用いて、頭部動揺の角速度を導出して、頭部動揺を推定する。
【0093】
以上説明したように、本実施形態によれば、検出した車両の振動からユーザの頭部動揺が推定される。本実施形態によれば、第1実施形態と同様の効果を奏することができる。
【0094】
[第3実施形態]
第1実施形態、及び第2実施形態では、任意の瞬間のユーザの動的視力を推定する形態について説明した。本実施形態では、時間経過と共に蓄積するユーザの疲労を考慮した動的視力を推定する形態について説明する。
【0095】
なお、本実施形態に係る視覚負担推定装置10のハードウェア構成を示す図(図1参照)、頭部動揺及び視線ブレを示す図(図3参照)、視線ブレの推定における生体反応モデル(図4参照)、視線ブレ頻度と動的視力との関係を示すグラフ(図5参照)、密度の説明に供するランドルト環を示す図(図6及び図7参照)、及び動的視力と視覚負担との関係を示すグラフ(図8参照)は、第1実施形態と同様であるため、説明を省略する。
【0096】
本実施形態では、図14を参照して、視覚負担推定装置10の機能構成について説明する。図14は、本実施形態に係る視覚負担推定装置10の機能的な構成の一例を示すブロック図である。なお、図14における図2に示す視覚負担推定装置10の機能構成と同一の機能については、図2と同一の符号を付して、その説明を省略する。
【0097】
図14に示すように、視覚負担推定装置10は、検出部31A、取得部32A、頭部動揺推定部33A、視線ブレ推定部34B、動的視力推定部35B、視標視力推定部36、視覚負担推定部37、及び視覚タスク判定部38を備えている。CPU11が視覚負担推定プログラムを実行することで、検出部31A、取得部32A、頭部動揺推定部33A、視線ブレ推定部34B、動的視力推定部35B、視標視力推定部36、視覚負担推定部37、及び視覚タスク判定部38として機能する。
【0098】
視線ブレ推定部34Bは、推定した頭部動揺、及び検出した視対象の動揺を用いて、視線ブレ頻度を推定する。なお、本実施形態に係る視線ブレ推定部34Bは、視線ブレ頻度に加え、時間経過に伴う視線ブレの積算値(以下、「視線ブレ積算値」という。)を推定する。一例として図15に示すように、ユーザが視対象の視認を継続すると疲労が蓄積して視線ブレ頻度が増加し、動的視力が大きくなることがある。そこで、本実施形態に係る視線ブレ推定部34Bは、ユーザの疲労の蓄積を考慮して、図15に示す視線ブレ頻度S、及び視線ブレ積算値∫Sを推定する。視線ブレ積算値∫Sは、以下の数式によって表される。
【0099】
【数5】
【0100】
ここで、∫S(t)は、任意の時刻における視線ブレ積算値であり、tは、任意の時刻である。積算の期間については時刻tを用いて、0からtまでの期間をユーザが視対象を視認している視覚タスク期間とする。αは、視覚の疲労係数であり、S(x)は、時刻における視線ブレ頻度であり、xは、各々の時刻を示す変数であり、βは、回復係数であり、Tは、視覚タスク以外の時間の積算値である。ここで、視覚タスクとは、ユーザが視対象の視認している状態であり、視覚タスク以外の時間の積算値Tは、ユーザが視対象を視認していない時刻を合算することによって表される。
【0101】
上述した式(5)の第1項目は、視対象の視認を開始してから時刻tまで(視覚タスク)の期間における視線ブレ頻度を積算した値に疲労係数αを積算することによって、視覚タスクによる疲労の蓄積度合を示している。また、上述した式(5)の第2項目は、視対象の視認を開始してから時刻tまで(視覚タスク)の期間のうち、視対象の視認していない時間の積算値Tに回復係数を積算することによって、視覚タスク以外の時間におけるユーザの疲労の回復度合を示している。上述した式(5)は、第1項目が示す疲労の蓄積度合から、第2項目が示す疲労の回復度合を減算することによって、視線ブレ積算値∫Sが導出されることを示している。
【0102】
なお、視線ブレ推定部34Bは、後述する視覚タスク判定部38によって判定された視覚タスク以外の時間を合算して、視覚タスク以外の時間の積算値Tを導出する。
【0103】
動的視力推定部35Bは、取得した静止視力、推定された視線ブレ頻度、及び視線ブレ積算値を用いて、動的に変化する視対象を視認するための動的視力を推定する。
本実施形態に係る動的視力は、以下の数式によって表される。
【0104】
【数6】
【0105】
上述した式(6)は、視線ブレ頻度S、及び視線ブレ積算値∫Sが大きくなるほど、動的視力Vが大きくなることを示している。すなわち、本実施形態に係る動的視力Vは、ユーザが視対象を見続けることによる疲労が蓄積することによって動的視力Vが大きくなり、ユーザが視対象から視線を外すことによる疲労の回復によって動的視力Vが小さくなることを示している。なお、上述した式(6)は、第1実施形態において上述した式(1)に対して、視線ブレ積算値∫Sを拡張した形態として表される。
【0106】
視覚タスク判定部38は、ユーザの視線、動作、位置、及びユーザ距離を含む状況情報と、視対象の動揺の角速度を含む視対象情報と、を用いて、ユーザが視覚対象を視認している視覚タスクの時刻、及び、ユーザが視覚対象を視認していない視覚タスク以外の時間を判定する。
【0107】
次に、図16を参照して、本実施形態に係る視覚負担推定装置10の作用について説明する。図16は、第3実施形態に係る視覚負担推定処理の一例を示すフローチャートである。CPU11がROM12又はストレージ14から視覚負担推定プログラムを読み出し、実行することによって、図16に示す視覚負担推定処理が実行される。図16に示す視覚負担推定処理は、例えば、視覚負担推定対象が入力された場合、視覚負担推定装置10に視覚負担推定処理の実行指示が入力され、実行される。なお、図16における図9に示す視覚負担推定処理と同一のステップについては、図9と同一の符号を付して、その説明を省略する。
【0108】
ステップS111において、CPU11は、取得した状況情報、及び視対象情報を用いて、視覚タスク以外の時間を判定し、視覚タスク以外の時間の積算値Tを導出する。
【0109】
ステップS112において、CPU11は、各々の時刻の視線ブレ頻度S、及び導出した視覚タスク以外の時間の積算値Tを用いて、視線ブレ積算値∫Sを推定する。
【0110】
ステップS113において、CPU11は、取得した静止視力V、視線ブレ頻度S、及び視線ブレ積算値∫Sを用いて、動的視力Vを推定する。
【0111】
以上説明したように、本実施形態によれば、時間経過と共に蓄積するユーザの疲労を考慮して動的視力が推定される。本実施形態によれば、第1実施形態と同様の効果を奏することができる。
【0112】
なお、上記実施形態では、センサ18Bによって、視対象の動揺を検出する形態について説明した。しかし、これに限定されない。撮影画像から視対象の動揺を検出してもよい。例えば、視覚負担推定装置10は、撮影画像からユーザの頭部に係る特徴点と、ユーザ以外の背景等に係る特徴点と、を抽出する。視覚負担推定装置10は、複数の撮影画像を比較して、ユーザの頭部に係る特徴点と、背景等に係る特徴点と、の変化量が同程度であれば、視対象が振動しているとして、当該特徴点の変化量から振動を検出してもよい。また、視覚負担推定装置10は、ユーザの頭部に係る特徴点の変化量が、背景等の特徴点の変化量より大きい場合、ユーザの頭部が動揺しているとして、当該ユーザの頭部に係る特徴点の変化量から頭部動揺を検出してもよい。
【0113】
また、上記実施形態に係る視対象の代表点は、モニタ16の中心である形態について説明した。しかし、これに限定されない。視対象の代表点は、表示されている表示対象の中心であってもよい。
【0114】
また、上記実施形態では、視対象は車両に搭載されたモニタ16である形態について説明した。しかし、これに限定されない。例えば、視対象は車両の外部に位置する他の車両、及び通行人であってもよい。視覚負担推定装置10は、車両の外部を撮影するカメラを備え、車両の外部を撮影した撮影画像を用いて、視対象及びユーザ距離Lを検出しても
よい。
【0115】
また、上記実施形態では、視覚負担Wを推定する形態について説明した。しかし、これに限定されない。例えば、推定した視覚負担Wに応じて、モニタ16に表示する文字及び画像の大きさ及び密度を制御してもよいし、推定した視覚負担Wに応じて、ユーザの視覚に負担が掛かっている旨を通知してもよい。
【0116】
(その他)
その他、上記実施形態で説明した視覚負担推定装置10の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
【0117】
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
【0118】
なお、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した表示処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、検出した情報から文字の表示を制御する処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
【0119】
また、上記各実施形態では、表示プログラムがROM12又はストレージ14に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【0120】
なお、上述の本願の開示する技術の一実施形態に関し、さらに以下の付記を開示する。
【0121】
(付記1)
視対象を視認するユーザの状況を示す状況情報、及び前記視対象に関する視対象情報を取得する取得部と、
取得した前記状況情報を用いて、前記視対象を視認するユーザの視線から予め定められた範囲に設定された視野であって、前記視野から前記視対象が外れた頻度である視線ブレ頻度を推定する視線ブレ推定部と、
前記視線ブレ頻度を用いて、動的に変化する視対象を視認するための視力を示す動的視力を推定し、前記視対象情報を用いて、前記視対象を視認するために必要な視力の視標を示す視標視力を推定する視力推定部と、
前記動的視力、及び前記視標視力を用いて、前記視対象を視認する負担を示す視覚負担を推定する視覚負担推定部と、
を備える視覚負担推定装置。
【0122】
(付記2)
前記状況情報として前記ユーザが乗車している車両の振動を検出する検出部と、
前記車両の振動を用いて、ユーザの頭部の動揺を示す頭部動揺を推定する頭部動揺推定部と、をさらに備え、
前記視線ブレ推定部は、前記頭部動揺推定部が推定した前記頭部動揺を用いて、前記視線ブレ頻度を推定する
付記1に記載の視覚負担推定装置。
【0123】
(付記3)
前記頭部動揺推定部は、前記車両、及び前記ユーザをバネマス質点系で近似した場合における車両の振動が前記ユーザの頭部に伝搬する伝搬関数を用いて、前記振動による前記頭部動揺を推定する
付記2に記載の視覚負担推定装置。
【0124】
(付記4)
前記視覚負担推定部は、前記動的視力と、前記視標視力と、の差分から前記視覚負担を推定する
付記1から付記3の何れか1つの付記に記載の視覚負担推定装置。
【0125】
(付記5)
前記ユーザを撮影した撮影画像を取得し、前記状況情報として前記撮影画像から前記ユーザの位置、及び前記ユーザの視線を検出する検出部をさらに備え、
前記視線ブレ推定部は、取得した前記ユーザの視線を用いて、前記視線ブレ頻度を推定し、
前記視力推定部は、前記ユーザの位置を用いて、前記視標視力を推定する
付記1から付記4の何れか1つの付記に記載の視覚負担推定装置。
【0126】
(付記6)
前記検出部は、前記視対象の動揺をさらに検出し、
前記視線ブレ推定部は、前記視対象の動揺を用いて視線ブレ頻度を推定する
付記5に記載の視覚負担推定装置。
【0127】
(付記7)
前記視力推定部は、前記視対象の大きさ、及び密度の少なくとも一方を用いて、前記視標視力を推定する
付記1から付記6の何れか1つの付記に記載の視覚負担推定装置。
【0128】
(付記8)
前記視線ブレ推定部は、前記ユーザが視対象を視認している視覚タスク期間における視線ブレの積算値をさらに推定し、
前記視力推定部は、推定した前記視線ブレ、及び前記積算値を用いて、前記動的視力を推定する
付記1から付記7の何れか1つの付記に記載の視覚負担推定装置。
【0129】
(付記9)
前記視線ブレ推定部は、前記積算値として、前記視覚タスク期間における前記視線ブレ頻度を積算した値から、前記視覚タスク期間において前記視対象を視認していない期間に対応する値を減算して導出する
付記9に記載の視覚負担推定装置。
【0130】
(付記10)
視対象を視認するユーザの状況を示す状況情報、及び前記視対象に関する視対象情報を取得する取得ステップと、
取得した前記状況情報を用いて、前記視対象を視認するユーザの視線から予め定められた範囲に設定された視野であって、前記視野から前記視対象が外れた頻度である視線ブレ頻度を推定する視線ブレ推定ステップと、
前記視線ブレ頻度を用いて、動的に変化する視対象を視認するための視力を示す動的視力を推定し、前記視対象情報を用いて、前記視対象を視認するために必要な視力を示す視標視力を推定する視力推定ステップと、
前記動的視力、及び前記視標視力を用いて、前記視対象を視認する負担を示す視覚負担を推定する視覚負担推定ステップと、
をコンピュータに実行させるための視覚負担推定プログラム。
【符号の説明】
【0131】
10 視覚負担推定装置
11 CPU
12 ROM
13 RAM
14 ストレージ
15 入力部
16 モニタ
17 通信I/F
18A、18B センサ
19 カメラ
20 バス
31A 検出部
31B 着座位置検出部
31C 車両振動検出部
32A、32B 取得部
33A、33B 頭部動揺推定部
34A、34B 視線ブレ推定部
35A、35B 動的視力推定部
36 視標視力推定部
37 視覚負担推定部
38 視覚タスク判定部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16