IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特許7521220画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム
<>
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図1
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図2
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図3
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図4
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図5
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図6
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図7
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図8
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図9
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図10
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図11
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図12
  • 特許-画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-16
(45)【発行日】2024-07-24
(54)【発明の名称】画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム
(51)【国際特許分類】
   G06T 7/00 20170101AFI20240717BHJP
   G06F 3/01 20060101ALI20240717BHJP
【FI】
G06T7/00 660A
G06F3/01 510
【請求項の数】 9
(21)【出願番号】P 2020057435
(22)【出願日】2020-03-27
(65)【公開番号】P2021157523
(43)【公開日】2021-10-07
【審査請求日】2023-02-15
【前置審査】
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100109313
【弁理士】
【氏名又は名称】机 昌彦
(74)【代理人】
【識別番号】100149618
【弁理士】
【氏名又は名称】北嶋 啓至
(72)【発明者】
【氏名】都丸 涼
(72)【発明者】
【氏名】野々山 裕芝
(72)【発明者】
【氏名】北野 昌秀
(72)【発明者】
【氏名】竹井 豊
(72)【発明者】
【氏名】下村 英恵
(72)【発明者】
【氏名】千代延 真吾
【審査官】稲垣 良一
(56)【参考文献】
【文献】特開2005-100366(JP,A)
【文献】特開2019-95892(JP,A)
【文献】特開2020-18470(JP,A)
【文献】特開2016-87130(JP,A)
【文献】特開2017-134558(JP,A)
【文献】特開2020-32077(JP,A)
【文献】特開2020-32078(JP,A)
【文献】特表2017-523487(JP,A)
【文献】特開2017-213191(JP,A)
【文献】特開2016-187589(JP,A)
【文献】特開2016-185375(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06F 3/01
(57)【特許請求の範囲】
【請求項1】
被験者の第1の視線画像と、視線推定面上に配置された、前記被験者の視線方向の正解位置を識別する識別情報と、を含むキャリブレーション画像を取得する取得手段と、
前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる前記正解位置と、を関連付けたキャリブレーション情報を出力する出力手段と、を備え、
前記キャリブレーション画像は、前記被験者と、前記識別情報が表示された識別情報表示装置を撮影した画像である、画像処理装置。
【請求項2】
前記キャリブレーション情報は、前記識別情報ごとの前記正解位置と、前記視線方向ごとの前記被験者の前記第1の視線画像が、関連付けされている、請求項1に記載の画像処理装置。
【請求項3】
前記識別情報が2次元コード又は1次元コードである、請求項1又は2に記載の画像処理装置。
【請求項4】
請求項1に記載の画像処理装置が出力した前記キャリブレーション情報と、分析対象となる前記被験者の第2の視線画像と、に基づいて、前記第2の視線画像における前記被験者の視線を推定する、視線推定手段を備える、視線推定装置。
【請求項5】
請求項に記載の視線推定装置と、
前記正解位置の前記識別情報の表示と共に、前記正解位置を示す誘導音声を出力する、音声出力装置を備える、視線推定システム。
【請求項6】
前記誘導音声は、前記正解位置のキャリブレーション配置を音声で出力する、請求項に記載の視線推定システム。
【請求項7】
前記誘導音声は、前記被験者に対し、前記正解位置を注視する時間間隔を音声で出力する、請求項又はに記載の視線推定システム。
【請求項8】
被験者の第1の視線画像と、視線推定面上に配置された、前記被験者の視線方向の正解位置を識別する識別情報と、を含み、前記被験者と、前記識別情報が表示された識別情報表示装置を撮影した画像であるキャリブレーション画像を取得し、
前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する、画像処理方法。
【請求項9】
被験者の第1の視線画像と、視線推定面上に配置された、前記被験者の視線方向の正解位置を識別する識別情報と、を含み、前記被験者と、前記識別情報が表示された識別情報表示装置を撮影した画像であるキャリブレーション画像を取得し、
前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する、ことをコンピュータに実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、視線推定のキャリブレーション等に関する。
【背景技術】
【0002】
視線情報を用いて顧客がどこを見ているのかを推定する視線推定技術がある。視線推定技術に基づく視線推定装置は、被験者の顔画像を撮影し、顔画像に含まれる視線情報に基づき被験者の視線方向を推定する。
【先行技術文献】
【特許文献】
【0003】
【文献】国際公開第2017/085771号
【文献】特開2006-293786号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
視線推定装置では、視線推定の精度を向上させるためにキャリブレーション作業が行われる。キャリブレーション作業では、キャリブレーション点とよばれる正解位置を見る被験者を撮影したキャリブレーション画像に対して、被験者の視線方向ごとに正解位置を後付けで付与している。このため、被験者1人あたりのキャリブレーション作業に時間が掛かり、視線推定の精度を向上させるためのキャリブレーション作業の効率化が求められている。
本開示の目的は、視線推定に関するキャリブレーション作業を効率化することにある。
【課題を解決するための手段】
【0005】
本開示の画像処理装置は、被験者の第1の視線画像と、前記被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得する取得部と、前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する出力部と、を備える。
本開示の画像処理方法は、被験者の第1の視線画像と、前記被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得し、前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する。
本開示のプログラムは、被験者の第1の視線画像と、前記被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得し、前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する、ことをコンピュータに実行させる。
【発明の効果】
【0006】
本開示によれば、視線推定に関するキャリブレーション作業を効率化することができる。
【図面の簡単な説明】
【0007】
図1】視線推定システムの構成の例を示すブロック図である。
図2】キャリブレーション画像の撮影例を示す上面図である。
図3】キャリブレーションボードの例を示す図である。
図4】キャリブレーション画像の例を示す図である。
図5】正解位置と識別情報との関係を示すテーブルである。
図6】第1の実施形態に係る画像処理装置の構成の例を示すブロック図である。
図7】画像処理装置を含む視線推定装置の構成の例を示す図である。
図8】視線推定システムの動作の例を示すフローチャートである。
図9】第1の実施形態に係る画像処理装置の動作の例を示すフローチャートである。
図10】視線推定システムの変形例の構成の例を示すブロック図である。
図11】正解位置、識別情報および誘導音声との関係を示すテーブルである。
図12】視線推定システムの変形例の動作の例を示すフローチャートである。
図13】コンピュータによるハードウエア構成を示す図である。
【発明を実施するための形態】
【0008】
(第1の実施形態)
第1の実施形態に係る画像処理装置、及び、画像処理装置を含む視線推定システムについて図面を用いて説明する。図1は、視線推定システムの構成の例を示すブロック図である。図1に示す視線推定システム1は、カメラ5、画像処理装置10、識別情報表示装置20、識別情報生成装置22、識別情報データベース23、視線推定装置30、視線情報データベース40を備える。
カメラ5は、分析対象となる被験者の視線画像(第2の視線画像とも呼ばれる)、及び、キャリブレーション画像を撮影する。被験者の視線画像、キャリブレーション画像は動画像(映像)又は静止画像である。カメラ5は、分析対象となる被験者の視線画像を視線推定装置30に出力し、キャリブレーション画像を画像処理装置10に出力する。カメラ5は、画像処理装置10又は識別情報表示装置20からの撮影指示に応じてキャリブレーション画像を撮影してもよい。
識別情報表示装置20は、画面上に識別情報を表示する。識別情報は、視線推定面上における正解位置の空間的な配置を識別するための情報である。例えば、キャリブレーションボード上に配置する正解位置を識別するための識別コードである。キャリブレーションボードと正解位置については後述する。識別情報表示装置20は、キャリブレーションボードの正解位置ごとに異なる識別情報を表示する。識別コードは、例えば、2次元コード、1次元コードである。2次元コードは、例えばQRコード(登録商標)である。識別情報表示装置20は、例えば、タブレット端末又はスマートフォン等の表示画面を備えるコンピュータである。識別情報表示装置20は、例えば、所定の時間間隔で複数の識別情報を画面に表示する。なお、識別情報表示装置20は、ディスプレイであってもよい。その場合、外部装置(図示せず)から出力された識別情報を受付けて表示する。
識別情報生成装置22は、識別情報表示装置20が画面に表示する識別情報を生成する。識別情報は、キャリブレーションボードの視線推定面上における正解位置の空間的な配置を識別するための情報である。このため、識別情報は、例えば、キャリブレーションボードごとに、各キャリブレーションボードにおける正解位置の配置、正解位置の数に応じて異なる情報となる。識別情報生成装置22は、生成した識別情報を、識別情報表示装置20、又は、識別情報データベース23に出力する。
上記では、視線推定面上の正解位置を空間的に配置するためにキャリブレーションボードを用いる例で説明したが、これに限られない。例えば、視線推定面上にディスプレイを設置し、ディスプレイにキャリブレーション点(正解位置)を表示してもよい。また、キャリブレーション点が動画で表示され、正解位置の配置間を動くキャリブレーション点を被験者の目で追わせてもよい。例えば、QRコードを表示するタブレット端末が、視線推定面上のディスプレイにキャリブレーション点の動画を出力してもよい。その場合、動画と連動させて、被験者が見ているキャリブレーション点の位置情報がQRコードで表示される。
図2は、キャリブレーション画像の撮影の例を示す上面図である。キャリブレーション画像の撮影には、例えば、キャリブレーションボード51が用いられる。キャリブレーションボード51には、キャリブレーションのための正解位置が付与されている。被験者50は、キャリブレーションボード51に向うように配置される。このとき、キャリブレーションボード51が視線推定面となり、被験者50の目の位置が被写体面52となる。カメラ5は、キャリブレーションボード51の上に配置される。
図3は、キャリブレーションボード51の例を示す図である。図3に示すキャリブレーションボード51には、4つの角にそれぞれキャリブレーションための正解位置511、正解位置512、正解位置513、正解位置514が配置される。図3のキャリブレーションボードには、被験者50が目視できる大きさで番号が設置されている。
キャリブレーション画像の撮影の説明において、キャリブレーションボードの正解位置に番号を付与する例で説明したが、これに限られない。被験者が視認可能な目印が正解位置に配置されていればよい。
図4は、カメラ5で撮影されるキャリブレーション画像の例を示す図である。キャリブレーション画像には、被験者の顔画像(視線画像を含む)と、識別情報表示装置20に表示された識別情報21が含まれる。キャリブレーション画像に含まれる識別情報21は、キャリブレーションボード51に配置された正解位置を示す識別コードである。
識別情報表示装置20が表示する識別情報21について説明する。図5は、正解位置と識別情報との関係を示すテーブルである。図5のQRコード1~4は、それぞれキャリブレーションボードの正解位置に紐づく正解位置ID(Identifier)の1~4に対応する。識別情報表示装置20は、図5に示すテーブルを参照し、正解位置ごとにQRコードを表示する。
<画像処理装置>
第1の実施形態に係る画像処理装置10について図面を用いて説明する。図6は、第1の実施形態に係る画像処理装置10の構成の例を示すブロック図である。図6に示す画像処理装置10は、取得部11と、出力部12、記憶部(図示せず)を備える。
取得部11は、被験者の視線画像(第1の視線画像)と、被験者の視線方向の正解位置を示す識別情報21と、を含むキャリブレーション画像を取得する。出力部12は、キャリブレーション画像に基づき、被験者の視線画像(第1の視線画像)と、識別情報21に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する。例えば、出力部12は、正解位置を示す識別情報21ごとに被験者の視線画像ファイルに正解位置の情報を付与して出力する。キャリブレーション画像の出力先は、例えば、画像処理装置10と通信可能に接続された視線推定装置30である。なお、出力部12は、キャリブレーション情報を記憶部(図示せず)に記憶させてもよい。
<視線推定装置>
図1に示す視線推定装置30は、分析対象となる被験者の視線画像と、キャリブレーション画像に基づき、分析対象の視線画像における被験者の視線を推定する。視線推定装置30は、視線推定部31を備える。
視線推定部31は、被験者の顔画像に含まれる視線画像から、被験者の視線を推定する。具体的には、視線推定部31は、視線画像から視線角度を推定し、被験者の視線を推定する。視線推定部31は、周知である任意の視線の推定方法を用いることができる。本実施形態では、視線推定部31は、分析対象となる被験者の視線画像とキャリブレーション画像を用い、ホモグラフィ変換などによって、被写体面と視線推定面の関係に基づき、視線を推定する。視線推定部31は、視線の推定結果を出力する。出力先の例は、視線推定装置30と通信可能に接続された視線情報データベース40である。
図1では、画像処理装置10と視線推定装置30が分離された構成の例で説明したが、これに限られない。視線推定装置30は、画像処理装置10を含んだ構成であってもよい。図7は、画像処理装置10を含む視線推定装置30の構成の例を示す図である。図7に示す視線推定装置30は、画像処理装置10、視線推定部31を備える。
図7に示す視線推定装置30において、視線推定部31は、カメラ5からの分析対象となる被験者の視線画像(第2の視線画像)を受付け、画像処理装置10は、キャリブレーション画像を受付ける。画像処理装置10は、受付けたキャリブレーション画像に基づき、被験者の視線画像(第1の視線画像)と、識別情報21に含まれる正解位置とを関連付けたキャリブレーション情報を、視線推定部31に送る。視線推定部31は、キャリブレーション情報を用いて、分析対象となる被験者の視線画像(第2の視線画像)から視線を推定する。
次に、第1の実施形態に係る画像処理装置10の動作、および、視線推定システム1の動作について図面を用いて説明する。図8は、図1に示す視線推定システム1の動作の例を示すフローチャートである。以下の説明では、視線推定システムの動作について、被験者撮影処理、キャリブレーション撮影処理、キャリブレーション画像処理、視線推定処理に分けて説明する。
[被験者撮影処理]
カメラ5は、分析対象となる被験者の視線画像(第2の視線画像)を撮影し(ステップS111)、分析対象となる被験者の視線画像を視線推定装置30に出力する。
[キャリブレーション撮影処理]
識別情報表示装置20は、画面に正解位置に対応する識別情報21を表示する(ステップS12)。被験者は、識別情報21に対応するキャリブレーションボードの正解位置を見る。カメラ5は、被験者の視線画像(第1の視線画像)と識別情報表示装置20に表示された識別情報21を含むキャリブレーション画像を撮影する(ステップS113)。キャリブレーションボードに配置された正解位置ごとに、ステップS112~S113を繰り返す。カメラ5は、キャリブレーション画像を画像処理装置10に出力する。
[キャリブレーション画像処理]
画像処理装置10は、キャリブレーション画像に基づき、キャリブレーション情報を出力する(ステップS114)。ステップS114は、画像処理装置10の動作に対応する。図9は、画像処理装置10の動作の例を示すフローチャートである。取得部11は、被験者の視線画像(第1の視線画像)と、被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得する(ステップS11)。取得部11は、取得したキャリブレーション画像を出力部12に送る。出力部12は、キャリブレーション画像に基づき、被験者の視線画像(第1の視線画像)と、識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する(ステップS12)。詳しくは、出力部12は、キャリブレーション情報を視線推定装置30に出力する。
[視線推定処理]
視線推定装置30は、分析対象となる被験者の視線画像(第2の視線画像)と、キャリブレーション情報を受付ける(ステップS115)。視線推定装置30の視線推定部31は、キャリブレーション情報を用いて、分析対象となる被験者の視線画像(第2の視線画像)から視線を推定する(ステップS116)。
(第1の実施形態の効果)
第1の実施形態の画像処理装置10によれば、取得部11は、被験者の第1の視線画像と、被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得する。出力部12は、キャリブレーション画像に基づき、第1の視線画像と、識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する。キャリブレーション画像からキャリブレーションの正解位置と、その正解位置を見る被験者の視線画像(視線情報)を得ることができるので、正解位置を付与する後処理が不要となる。
なお、画像処理装置10を含む視線推定装置30は、カメラ5から、分析対象となる被験者の視線画像(第2の視線画像)と、キャリブレーション画像を取得することで、分析対象の視線画像の視線の推定を開始することができるため、分析処理の時間を大幅に削減できる。
(変形例)
次に、視線推定システム1の変形例について図面を用いて説明する。図10は、視線推定システムの変形例の構成の例を示すブロック図である。図10に示す視線推定システム1の変形例は、図1に示す視線推定システムに音声出力装置24が追加されている。音声出力装置24は、キャリブレーション撮影処理の際に、被験者が目を向ける正解位置を指示する誘導音声を出力する。また、誘導音声には、被験者に対し正解位置を注視して欲しい時間間隔とその時間間隔のカウントを含めてもよい。
図11は、正解位置、識別情報および誘導音声との関係を示すテーブルである。図11に示す誘導音声は、キャリブレーションボード51の正解位置に対する識別子、及び、識別情報とに関連付けされている。図11に示す誘導音声の例は、「まず、5秒間、左上を見てください。5,4,3,2,1…」である。
図12は、視線推定システム1の変形例の動作の例を示すフローチャートである。図12に示す視線推定システム1の変形例の動作は、図8に示す視線推定システム1の動作におけるキャリブレーション撮影処理のステップS112がステップS212となっている点が異なる。このため、視線推定システム1の変形例のステップS212を説明し、他のステップの詳細な説明は省略する。
識別情報表示装置20は、ステップS111の後、画面に正解位置に対応する識別情報を表示すると共に誘導音声を出力する(ステップS212)。誘導音声によって、被験者は、識別情報に対応するキャリブレーションボードの正解位置を見るよう指示される。カメラ5は、被験者の視線画像(第1の視線画像)と識別情報表示装置20に表示された識別情報を含むキャリブレーション画像を撮影する(ステップS113)。キャリブレーションボードに配置された正解位置ごとに、ステップS212~S113を繰り返す。カメラ5は、キャリブレーション画像を画像処理装置10に出力する。
視線推定システム1の変形例において、音声出力装置24は、識別情報表示装置20の識別情報の表示と共に、被験者が目を向ける正解位置を指示する誘導音声を出力する。誘導音声の指示により被験者はキャリブレーションボードの正解位置をスムーズに注視することができる。さらに、誘導音声に正解位置を注視する時間間隔とカウントを含めることで、被験者がキャリブレーションボードの正解位置を注視する時間を安定化させることが可能になる。これにより、視線推定装置30による視線推定の精度を向上させることができる。
(ハードウエア構成)
画像処理装置10は、図13に示すコンピュータ60によって構成される。画像処理装置10は、CPU(Central Processing Unit)61で、画像処理装置10の各構成要素の機能をプログラム64で実行することにより実現する。画像処理装置10の各構成要素の機能は、CPU61がROM(Read Only Memory)62あるいは記憶装置65からプログラム64を読み込み、読み込んだプログラム64を、CPU61、及び、RAM(Random Access Memory)63を用いて実行することで実現されてもよい。各構成要素とは、画像処理装置10の取得部11、出力部12である。
また、上述の画像処理装置10をCPU61に機能させるためのプログラムが格納されたコンピュータ読み取り可能な記憶媒体66によって構成されると捉えることもできる。なお、視線推定装置30もコンピュータ60によって構成することができる。記憶媒体66は、例えばハードディスクドライブ、ドライブ装置67に着脱可能なディスク媒体やメモリカードなどである。例えば、画像処理装置10の取得部11、出力部12の構成要素は、集積回路による専用のハードウエアであってもよい。またコンピュータ60は、ネットワークと接続可能な通信インターフェース68、入出力インターフェース69を含む。また、画像処理装置10、視線推定装置30の構成要素は、複数の装置に分散して配置されてもよく、その場合、複数の装置間を通信可能に接続することで装置単体と同様に機能することができる。なお、識別情報表示装置20、識別情報生成装置22、音声出力装置24もコンピュータ60によって実現される構成であってもよい。
本開示は上述した各実施形態に限定されるものではなく、種々の変更が可能であり、異なる実施形態にそれぞれ開示された構成、動作、処理を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。
以上、上述した実施形態を模範的な例として本開示を説明した。しかしながら、本開示は、上述した実施形態には限定されない。即ち、本開示は、本開示のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
【符号の説明】
【0009】
5 カメラ
10 画像処理装置
11 取得部
12 出力部
20 識別情報表示装置
21 識別情報
24 音声出力装置
30 視線推定装置
31 視線推定部
50 被験者
51 キャリブレーションボード
511、512、513、514 正解位置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13