(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-03-29
(45)【発行日】2023-04-06
(54)【発明の名称】情報処理装置、プログラム、及び、情報処理方法
(51)【国際特許分類】
G06F 16/9035 20190101AFI20230330BHJP
G06T 7/70 20170101ALI20230330BHJP
A45D 44/00 20060101ALI20230330BHJP
【FI】
G06F16/9035
G06T7/70 Z
A45D44/00 A
(21)【出願番号】P 2018086366
(22)【出願日】2018-04-27
【審査請求日】2021-04-13
(73)【特許権者】
【識別番号】000001959
【氏名又は名称】株式会社 資生堂
(74)【代理人】
【識別番号】230116816
【氏名又は名称】成川 弘樹
(74)【代理人】
【識別番号】100146123
【氏名又は名称】木本 大介
(74)【代理人】
【識別番号】100174850
【氏名又は名称】大崎 絵美
(72)【発明者】
【氏名】河原 純一郎
(72)【発明者】
【氏名】薮崎 智穂
(72)【発明者】
【氏名】小林 恵子
(72)【発明者】
【氏名】今井 史
【審査官】早川 学
(56)【参考文献】
【文献】国際公開第2017/115453(WO,A1)
【文献】国際公開第2018/029963(WO,A1)
【文献】江川陽、外1名,視線データからの画像評価に関する研究,映像情報メディア学会 2011年年次大会講演予稿集 [CD-ROM],社団法人映像情報メディア学会,2011年08月01日,発表番号2-6
【文献】飯田峻広、外4名,顔画像による印象判断内容に応じた視線運動の差異ならびに化粧による影響の分析,映像情報メディア学会 2015年年次大会講演予稿集 [CD-ROM],一般社団法人映像情報メディア学会,2015年08月05日,発表番号14C-4
(58)【調査した分野】(Int.Cl.,DB名)
G06F 16/00-16/958
G06T 7/70
A45D 44/00
(57)【特許請求の範囲】
【請求項1】
ユーザに対して、顔を含む画像を提示する手段を備え、
前記ユーザの視線の動きに関する視線情報を取得する手段を備え、
前記視線情報に基づいて、前記画像における前記ユーザの視線の偏りを計算する手段を備え、
前記視線の偏りに基づいて、前記画像に関するレコメンド情報を決定する手段を備え、
前記レコメンド情報を提示する手段を備え、
前記計算する手段は、
前記画像の画像空間を、前記ユーザの両目を結ぶ中間点と鼻の中心とを結ぶ基準線で2つの領域に分割し、
前記2つの領域は、第1領域及び第2領域であり、
前記第1領域における第1視線分布と、
前記第2領域における第2視線分布と、
を計算する、
情報処理装置。
【請求項2】
ユーザに対して、顔を含む画像を提示する手段を備え、
前記ユーザの視線の動きに関する視線情報を取得する手段を備え、
前記視線情報に基づいて、前記画像における前記ユーザの視線の偏りを計算する手段を備え、
前記視線の偏りに基づいて、前記画像に関するレコメンド情報を決定する手段を備え、
前記レコメンド情報を提示する手段を備え、
前記提示する手段は、互いに異なる複数の画像を個別に提示し、
前記計算する手段は、
前記画像の画像空間を所定の境界線で第1領域及び第2領域に分割し、
前記第1領域における第1視線分布と、前記第2領域における第2視線分布と、を計算し、
各画像について、前記第1視線分布及び前記第2視線分布を計算し、
前記決定する手段は、前記複数の画像の少なくとも1つを前記レコメンド情報として決定する、
情報処理装置。
【請求項3】
前記第1領域は、前記画像に対して向かって右側の領域であり、
前記第2領域は、前記画像に対して向かって左側の領域であり、
前記レコメンド情報は、前記複数の画像のうち、前記第1視線分布の割合が所定値以上である少なくとも1つの画像である、
請求項2に記載の情報処理装置。
【請求項4】
前記画像は、前記ユーザの顔に対して互いに異なるメイキャップが施された複数のメイキャップシミュレーション画像を含み、
前記第1領域は、各メイキャップシミュレーション画像に対して向かって右側の領域であり、
前記第2領域は、各メイキャップシミュレーション画像に対して向かって左側の領域であり、
前記レコメンド情報は、前記複数のメイキャップシミュレーション画像のうち、前記第1視線分布の割合が最も多いメイキャップシミュレーション画像である、
請求項2又は請求項3に記載の情報処理装置。
【請求項5】
前記画像は、前記ユーザの顔に対してメイキャップが施されたメイキャップシミュレーション画像であり、
前記第1領域は、前記メイキャップシミュレーション画像に対して向かって右側の領域であり、
前記第2領域は、前記メイキャップシミュレーション画像に対して向かって左側の領域であり、
前記レコメンド情報は、前記メイキャップシミュレーション画像における前記第1視線分布の割合に応じた情報である、
請求項2又は請求項3に記載の情報処理装置。
【請求項6】
前記提示する手段は、互いに異なる複数のアバタ画像を個別に提示し、
前記第1領域は、前記アバタ画像に対して向かって右側の領域であり、
前記第2領域は、前記アバタ画像に対して向かって左側の領域であり、
前記レコメンド情報は、前記複数のアバタ画像のうち、前記第1視線分布の割合が最も多いアバタ画像である、
請求項2又は請求項3に記載の情報処理装置。
【請求項7】
前記画像は、アバタ画像であり、
前記第1領域は、前記アバタ画像に対して向かって右側に位置し、
前記第2領域は、前記アバタ画像に対して向かって左側に位置し、
前記レコメンド情報は、前記アバタ画像における前記第1視線分布の割合に応じた情報である、
請求項2又は請求項3に記載の情報処理装置。
【請求項8】
前記画像は、前記ユーザの顔に対して互いに異なる髪型が適用された複数の画像、及び、前記ユーザの顔に対して互いに異なる手術が施された画像の少なくとも1つを含む、請求項2~請求項7の何れかに記載の情報処理装置。
【請求項9】
ユーザの顔の鏡像に対する前記ユーザの視線の動きに関する視線情報を取得する手段を備え、
前記視線情報に基づいて、前記鏡像における前記ユーザの視線の偏りを計算する手段を備え、
前記視線の偏りに基づいて、前記鏡像に関するレコメンド情報を決定する手段を備え、
前記レコメンド情報を提示する手段を備え、
前記計算する手段は、
前記鏡像の鏡像空間を所定の境界線で第1領域及び第2領域に分割し、
前記第1領域における第1視線分布と、前記第2領域における第2視線分布と、を計算し、
前記第1領域は、前記鏡像に対して向かって右側に位置し、
前記第2領域は、前記鏡像に対して向かって左側に位置し、
前記レコメンド情報は、前記第1視線分布の割合に応じた情報であって、且つ、前記鏡像に対する前記ユーザの評価に関する情報である、
情報処理装置。
【請求項10】
コンピュータを、請求項1~
請求項9の何れかに記載の
情報処理装置の各手段として機能させるためのプログラム。
【請求項11】
コンピュータを用いた情報処理方法であって、
ユーザに対して、顔を含む画像を提示するステップを備え、
前記ユーザの視線の動きに関する視線情報を取得するステップを備え、
前記視線情報に基づいて、前記画像における前記ユーザの視線の偏りを計算するステップを備え、
前記視線の偏りに基づいて、前記画像に関するレコメンド情報を決定するステップを備え、
前記レコメンド情報を提示するステップを備え、
前記計算するステップは、
前記画像の画像空間を、前記ユーザの両目を結ぶ中間点と鼻の中心とを結ぶ基準線で2つの領域に分割し、
前記2つの領域は、第1領域及び第2領域であり、
前記第1領域における第1視線分布と、
前記第2領域における第2視線分布と、
を計算する、
情報処理方法。
【請求項12】
ユーザに対して、顔を含む画像を提示するステップを備え、
前記ユーザの視線の動きに関する視線情報を取得するステップを備え、
前記視線情報に基づいて、前記画像における前記ユーザの視線の偏りを計算するステップを備え、
前記視線の偏りに基づいて、前記画像に関するレコメンド情報を決定するステップを備え、
前記レコメンド情報を提示するステップを備え、
前記提示するステップは、互いに異なる複数の画像を個別に提示し、
前記計算するステップは、
前記画像の画像空間を所定の境界線で第1領域及び第2領域に分割し、
前記第1領域における第1視線分布と、前記第2領域における第2視線分布と、を計算し、
各画像について、前記第1視線分布及び前記第2視線分布を計算し、
前記決定するステップは、前記複数の画像の少なくとも1つを前記レコメンド情報として決定する、
情報処理方法。
【請求項13】
コンピュータを用いた情報処理方法であって、
ユーザの顔の鏡像に対する前記ユーザの視線の動きに関する視線情報を取得するステップを備え、
前記視線情報に基づいて、前記鏡像における前記ユーザの視線の偏りを計算するステップを備え、
前記視線の偏りに基づいて、前記鏡像に関するレコメンド情報を決定するステップを備え、
前記レコメンド情報を提示するステップを備え、
前記計算するステップは、
前記鏡像の鏡像空間を所定の境界線で第1領域及び第2領域に分割し、
前記第1領域における第1視線分布と、前記第2領域における第2視線分布と、を計算し、
前記第1領域は、前記鏡像に対して向かって右側に位置し、
前記第2領域は、前記鏡像に対して向かって左側に位置し、
前記レコメンド情報は、前記第1視線分布の割合に応じた情報であって、且つ、前記鏡像に対する前記ユーザの評価に関する情報である、
情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置及びプログラムに関する。
【背景技術】
【0002】
近年、化粧品のラインナップの増加に伴い、化粧品の販売店の担当者や消費者は、消費者の嗜好に合った化粧品を選択することが困難になる傾向にある。
【0003】
そのため、コンピュータ上で、消費者の顔の画像を用いたメイキャップシミュレーションを実行することにより、メイキャップシミュレーション画像を生成する技術が普及している(例えば、特許文献1)。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、人間がある事象に対して自身の嗜好に合っていると感じたとしても、その後に当該事象が嗜好に合わないと感じることもある。これは、人の嗜好がその人の主観に依存するにもかかわらず、人の主観は一定ではないためである。
【0006】
例えば、特許文献1の技術によって生成された複数のメイキャップシミュレーション画像の中から、消費者が自身の嗜好に合ったメイキャップシミュレーション画像を選択したとしても、その後に、選択したメイキャップシミュレーション画像が自身の嗜好に合わないと感じる場合、又は、選択しなかったメイキャップシミュレーション画像が自身の嗜好に合うと感じる場合もある。
【0007】
このように、人が観察する顔に抱く評価には、その人の主観が反映される。そのため、人が観察する顔に対する潜在的な評価を提示することは困難である。
【0008】
本発明の目的は、ユーザが観察する顔に対するユーザの潜在的な評価を提示することである。
【課題を解決するための手段】
【0009】
本発明の一態様は、
ユーザに対して、顔を含む画像を提示する手段を備え、
ユーザの視線の動きに関する視線情報を取得する手段を備え、
視線情報に基づいて、画像におけるユーザの視線の分布を計算する手段を備え、
視線分布に基づいて、画像に関するレコメンド情報を決定する手段を備え、
レコメンド情報を提示する手段を備える、
情報処理装置である。
【発明の効果】
【0010】
本発明によれば、ユーザが観察する顔に対するユーザの潜在的な評価を提示することができる。
【図面の簡単な説明】
【0011】
【
図1】第1実施形態の情報処理システムの構成を示すブロック図である。
【
図2】第1実施形態の情報処理システムの構成を示すブロック図である。
【
図4】第1実施形態のユーザ情報データベースのデータ構造を示す図である。
【
図5】第1実施形態のメイキャップパターン情報マスタテーブルのデータ構造を示す図である。
【
図6】第1実施形態のシミュレーションログ情報データベースのデータ構造を示す図である。
【
図7】第1実施形態の情報処理のフローチャートである。
【
図8】
図7の情報処理において表示される画面例を示す図である。
【
図9】
図7の情報処理において表示される画面例を示す図である。
【
図10】
図7の情報処理において表示される画面例を示す図である。
【
図11】
図7の視線分布の計算の詳細なフローチャートである。
【
図13】第2実施形態のクライアント装置の外観図である。
【
図14】第2実施形態の情報処理のフローチャートである。
【
図15】
図14の視線分布の計算の詳細なフローチャートである。
【
図17】
図14の情報処理において表示される画面例を示す図である。
【
図18】第3実施形態の情報処理のフローチャートである。
【
図19】
図18の情報処理において表示される画面例を示す図である。
【
図20】
図18の情報処理において表示される画面例を示す図である。
【
図22】変形例2の情報処理において表示される画面例を示す図である。
【
図24】第4実施形態の視線パラメータの計算の処理のフローチャートである。
【発明を実施するための形態】
【0012】
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
【0013】
(1)第1実施形態
本発明の第1実施形態について説明する。
【0014】
(1-1)情報処理システムの構成
情報処理システムの構成について説明する。
図1~
図2は、第1実施形態の情報処理システムの構成を示すブロック図である。
【0015】
図1~
図2に示すように、情報処理システム1は、クライアント装置10と、アイトラッカ20と、サーバ30と、を備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
アイトラッカ20は、クライアント装置10に接続される。
【0016】
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
ユーザUは、クライアント装置10に対して、ユーザ指示を与えることができる。
【0017】
アイトラッカ20は、ユーザUの視線の動きを検出し、且つ、視線の動きに関するアイトラッキング信号(「視線情報の一例」)を生成するように構成される。具体的には、アイトラッカ20は、所定時間毎に、ユーザの視線の位置を示す座標を計測する。
アイトラッカ20は、アイトラッキング信号をクライアント装置10に送信する。
【0018】
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
【0019】
(1-1-1)クライアント装置の構成
図1を参照して、クライアント装置10の構成について説明する。
【0020】
図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、ディスプレイ15と、カメラ16と、を備える。
【0021】
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
【0022】
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、メイキャップシミュレーション用アプリケーション)のプログラム
【0023】
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
【0024】
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
【0025】
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、クライアント装置10に接続される出力デバイスに情報を出力し、且つ、アイトラッカ20からアイトラッキング信号を取得するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ15である。
【0026】
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
【0027】
ディスプレイ15は、プロセッサ12によって生成された画像を表示するように構成される。
【0028】
カメラ16は、画像(例えば、クライアント装置10のユーザの顔の画像)を撮像するように構成される。
【0029】
(1-1-2)サーバの構成
図1を参照して、サーバ30の構成について説明する。
【0030】
図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
【0031】
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
【0032】
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
【0033】
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
【0034】
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
【0035】
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
【0036】
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
【0037】
(1-2)第1実施形態の概要
第1実施形態の概要について説明する。
図3は、第1実施形態の概要の説明図である。
【0038】
図3に示すように、第1実施形態では、人(例えば、ユーザU)の顔を含むシミュレーション画像SIMGを提示する。シミュレーション画像SIMGでは、鏡像のように、ユーザUの右目REが向かって右側に配置され、且つ、ユーザUの左目LEが向かって左側に配置される。
次に、シミュレーション画像SIMGを観察している間のユーザUの視線の動きに関するアイトラッキング信号を生成する。
次に、アイトラッキング信号に基づいて、シミュレーション画像SIMGを構成する画素の座標空間(以下「画像空間」という)において、向かって右側に位置する(つまり、右目REを含む)第1領域GR1の視線の分布と、向かって左側に位置する(つまり、左目LEを含む)第2領域GR2の視線の分布と、を計算する。
次に、第1領域GR1の視線の分布と、第2領域GR2の視線の分布と、に基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価に関するレコメンド情報を提供する。
【0039】
このように、第1実施形態では、1つのシミュレーション画像SIMGの画像空間におけるユーザUの視線分布(つまり、視線の偏り)に基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価が反映されたレコメンド情報を提示する。
【0040】
(1-3)データベース
第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
【0041】
(1-3-1)ユーザ情報データベース
第1実施形態のユーザ情報データベースについて説明する。
図4は、第1実施形態のユーザ情報データベースのデータ構造を示す図である。
【0042】
図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ画像」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
【0043】
「ユーザID」フィールドには、ユーザを識別するユーザID(「ユーザ識別情報」の一例)が格納されている。
【0044】
「ユーザ名」フィールドには、ユーザの名前に関する情報(例えば、テキスト)が格納されている。
【0045】
「ユーザ画像」フィールドには、ユーザの顔を含む画像の画像データが格納されている。
【0046】
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
【0047】
「性別」フィールドには、ユーザの性別に関する情報が格納される。
【0048】
「年齢」フィールドには、ユーザの年齢に関する情報が格納される。
【0049】
「職業」フィールドには、ユーザの職業に関する情報が格納される。
【0050】
(1-3-2)メイキャップパターン情報マスタテーブル
第1実施形態のメイキャップパターン情報マスタテーブルについて説明する。
図5は、第1実施形態のメイキャップパターン情報マスタテーブルのデータ構造を示す図である。
【0051】
図5のメイキャップパターン情報マスタテーブルには、メイキャップパターンに関するメイキャップパターン情報が記憶される。
メイキャップパターン情報マスタテーブルは、「パターンID」フィールドと、「パターン名」フィールドと、「アイテム」フィールドと、を含む。
【0052】
「パターンID」フィールドには、メイキャップパターンを識別するメイキャップパターンID(「メイキャップパターン識別情報」の一例)が格納される。
【0053】
「パターン名」フィールドには、メイキャップパターンのパターン名に関する情報(例えば、テキスト)が格納されている。
【0054】
「アイテム」フィールドには、メイキャップシミュレーションで使用されるメイキャップアイテムに関するアイテム情報が格納される。「アイテム」フィールドは、「カテゴリ」フィールドと、「アイテムID」フィールドと、「パラメータ」フィールドと、を含む。「カテゴリ」フィールド、「アイテムID」フィールド、及び、「パラメータ」フィールドは、互いに関連付けられている。
【0055】
「カテゴリ」フィールドには、メイキャップアイテムのカテゴリ(例えば、ファンデーション、口紅、及び、チーク)に関する情報が格納される。
【0056】
「アイテムID」フィールドには、メイキャップアイテムを識別するアイテムID(「メイキャップアイテム識別情報」の一例)が格納される。
【0057】
「パラメータ」フィールドには、メイキャップアイテムを使用したときの効果に関するメイキャップパラメータが格納される。メイキャップパラメータは、例えば、元画像(一例として、ユーザUの顔の画像)に適用すべき画像処理パラメータ(例えば、元画像の画素の色情報を変換するための色変換パラメータ)である。
【0058】
(1-3-3)シミュレーションログ情報データベース
第1実施形態のシミュレーションログ情報データベースについて説明する。
図6は、第1実施形態のシミュレーションログ情報データベースのデータ構造を示す図である。
【0059】
図6のシミュレーションログ情報データベースには、メイキャップシミュレーションの結果に関する情報が時系列に記憶される。
シミュレーションログ情報データベースは、「シミュレーションID」フィールドと、「シミュレーション実行日」フィールドと、「シミュレーション条件」フィールドと、「アイトラッキング信号」フィールドと、「視線分布」フィールドと、を含む。
シミュレーションログ情報データベースは、ユーザIDに関連付けられている。
【0060】
「シミュレーションID」フィールドには、メイキャップシミュレーションを識別するシミュレーションID(「シミュレーション識別情報」の一例)が格納される。
【0061】
「シミュレーション実行日」フィールドには、メイキャップシミュレーションの実行日に関する情報が格納される。
【0062】
「シミュレーション条件」フィールドには、メイキャップシミュレーションのシミュレーション条件に関する情報が格納される。「シミュレーション条件」フィールドは、「元画像」フィールドと、「パターン」フィールドと、を含む。
【0063】
「元画像」フィールドには、メイキャップシミュレーションの対象となる元画像(例えば、ユーザUの顔の画像)の画像データが格納される。
【0064】
「パターン」フィールドには、「元画像」フィールドの画像データに対して適用されるメイキャップパターンのメイキャップパターンIDが格納される。
【0065】
「アイトラッキング信号」フィールドには、アイトラッカ20によって生成されたアイトラッキング信号が格納される。「アイトラッキング信号」フィールドは、「計測座標」フィールドと、「計測時間」フィールドと、を含む。「計測座標」フィールド及び「計測時間」フィールドは、互いに関連付けられている。
【0066】
「計測座標」フィールドには、画像空間におけるユーザの視線の位置を示す計測座標が格納される。
【0067】
「計測時間」フィールドには、アイトラッカ20がアイトラッキング信号を生成したタイミングに関する計測時間情報が格納される。計測時間情報は、例えば、アイトラッカ20がアイトラッキング信号の生成を開始した時点からの経過時間である。
「計測座標」フィールドの座標、及び、「計測時間」フィールドの情報の組合せにより、ユーザUの視線の動きが特定される。
【0068】
「視線分布」フィールドには、「アイトラッキング信号」フィールドの情報から導出される視線分布(「視線パラメータ」の一例)が格納される。視線分布は、メイキャップシミュレーション画像の画像空間におけるユーザの視線の分布を示す。「視線分布」フィールドは、「R分布」フィールドと、「L分布」フィールドと、を含む。
【0069】
「R分布」フィールドには、メイキャップシミュレーション画像の画像空間において、メイキャップシミュレーション画像に対して向かって右側(つまり、観察者から向かって右側)の第1領域におけるユーザの視線の分布率が格納される。
【0070】
「L分布」フィールドには、メイキャップシミュレーション画像の画像空間において、メイキャップシミュレーション画像に対して向かって左側(つまり、観察者から向かって左側)の第2領域におけるユーザの視線の分布率が格納される。
【0071】
(1-4)情報処理
第1実施形態の情報処理について説明する。
図7は、第1実施形態の情報処理のフローチャートである。
図8~
図10は、
図7の情報処理において表示される画面例を示す図である。
図11は、
図7の視線パラメータの計算の詳細なフローチャートである。
図12は、
図7の視線パラメータの計算の説明図である。
【0072】
図7に示すように、クライアント装置10は、元画像の決定(S100)を実行する。
具体的には、プロセッサ12は、画面P100(
図8)をディスプレイ15に表示する。
【0073】
画面P100は、画像オブジェクトIMG100を含む。
画像オブジェクトIMG100は、ユーザUの顔の画像を含む。画像オブジェクトIMG100は、例えば、以下の何れかである。
・記憶装置11に予め記憶されていた画像
・ユーザ情報データベース(
図4)の「ユーザ画像」フィールドの画像データから再現される画像
・入出力インタフェース13に接続されたカメラ16によって撮像された画像
【0074】
ステップS100の後、クライアント装置10は、メイキャップシミュレーション画像の生成(S101)を実行する。
具体的には、プロセッサ12は、メイキャップパターン情報マスタテーブル(
図5)の任意のレコードを特定する。
プロセッサ12は、ステップS100で決定したシミュレーション画像SIMGに、特定したレコードの「パラメータ」フィールドの情報を適用することにより、メイキャップシミュレーション画像を生成する。
【0075】
ステップS101の後、クライアント装置10は、メイキャップシミュレーション画像の提示(S102)を実行する。
具体的には、プロセッサ12は、画面P101(
図8)をディスプレイ15に表示する。
【0076】
画面P101は、画像オブジェクトIMG101を含む。
画像オブジェクトIMG101は、ステップS101で生成されたメイキャップシミュレーション画像である。
【0077】
ステップS102の後、クライアント装置10は、視線パラメータの計算(S103)を実行する。
【0078】
図11に示すように、クライアント装置10は、アイトラッキング信号の取得(S1030)を実行する。
具体的には、プロセッサ12は、アイトラッカ20から、アイトラッキング信号を取得する。
プロセッサ12は、アイトラッキング信号に基づいて、計測座標と、計測時間と、を関連付けて記憶装置11に記憶する。
【0079】
ステップS1030の後、クライアント装置10は、画像空間の分割(S1031)を実行する。
具体的には、プロセッサ12は、
図12に示すように、画像空間の基準線(例えば、両目を結ぶ線の中間点と、鼻の中心と、を結ぶ線)IRLの座標を計算する。
プロセッサ12は、基準線IRLを境界線として、メイキャップシミュレーション画像SIMGの画像空間を、第1領域A1及び第2領域A2に分割する。
第1領域A1は、メイキャップシミュレーション画像SIMGに対して向かって右側の領域(つまり、右目REを含む領域)である。
第2領域A2は、メイキャップシミュレーション画像SIMGに対して向かって左側の領域(つまり、左目LEを含む領域)である。
【0080】
ステップS1031の後、クライアント装置10は、領域座標の特定(S1032)を実行する。
具体的には、プロセッサ12は、ステップS1030で記憶装置11に記憶した計測座標のうち、第1領域A1に含まれる計測座標を第1領域座標C1として特定し、且つ、第2領域A2に含まれる計測座標を第2領域座標C2として特定する。
【0081】
ステップS1032の後、クライアント装置10は、視線分布率の計算(S1033)を実行する。
具体的には、プロセッサ12は、式1を用いて、ユーザUが第1領域A1に視線を向けた割合(以下「第1視線分布率」という)E1と、ユーザUが第2領域A2に視線を向けた割合(以下「第2視線分布率」という)E2と、を計算する。
【数1】
・E1…第1視線分布率
・E2…第2視線分布率
・N(C1)…第1領域座標C1の総数
・N(C2)…第2領域座標C2の総数
【0082】
図7のSS1(ステップS101~S103)は、第1実施形態のメイキャップシミュレーションの処理に相当する。つまり、メイキャップシミュレーションは、複数のメイキャップパターンのそれぞれについて、複数回実行される。
【0083】
例えば、2回目のステップS101では、プロセッサ12は、1回目のステップS101で用いられたメイキャップパターンとは異なるメイキャップパターンを元画像に適用することにより、1回目のステップS101で得られたメイキャップシミュレーション画像とは異なるメイキャップシミュレーション画像を生成する。
【0084】
2回目のステップS102では、プロセッサ12は、画面P102(
図9)をディスプレイ15に表示する。
【0085】
画面P102は、画像オブジェクトIMG102を含む。
画像オブジェクトIMG102は、2回目のステップS101で生成されたメイキャップシミュレーション画像である。
【0086】
つまり、プロセッサ12は、複数のメイキャップシミュレーション画像を個別に提示し、且つ、各メイキャップシミュレーション画像に対する視線分布を計算する。これにより、各メイキャップシミュレーション画像に対する視線分布が得られる。
【0087】
ステップS103の後、クライアント装置10は、視線パラメータの提示(S104)を実行する。
具体的には、プロセッサ12は、画面P103(
図10)をディスプレイ15に表示する。
【0088】
画面P103は、表示オブジェクトA103a~A103bと、画像オブジェクトIMG101及びIMG102と、を含む。
表示オブジェクトA103aには、画像オブジェクトIMG101の生成に使用されたメイキャップパターンに関する情報(例えば、パターン名)と、画像オブジェクトIMG101に対する第1視線分布率E1及び第2視線分布率E2と、が表示される。
表示オブジェクトA103bには、画像オブジェクトIMG102の生成に使用されたメイキャップパターンに関する情報(例えば、パターン名)と、画像オブジェクトIMG102に対する第1視線分布率E1及び第2視線分布率E2と、が表示される。
【0089】
ステップS104の後、クライアント装置10は、レコメンド情報の決定(S105)を実行する。
【0090】
ステップS105の第1例では、プロセッサ12は、ステップS103で計算した複数のメイキャップシミュレーション画像に対する視線分布率(つまり、画面P103の表示オブジェクトA103a~A103bに表示された第1視線分布率E1及び第2視線分布率E2)から、第1視線分布率E1が最も大きいメイキャップシミュレーション画像を選択する。
【0091】
ステップS105の第2例では、プロセッサ12は、ステップS103で計算した複数のメイキャップシミュレーション画像に対する視線分布率(つまり、画面P103の表示オブジェクトA103a~A103bに表示された第1視線分布率E1及び第2視線分布率E2)から、第1視線分布率が所定値以上である少なくとも1つのメイキャップシミュレーション画像を選択する。
なお、全てのメイキャップシミュレーション画像の第1視線分布率E1が所定値未満である場合、レコメンド情報は提示されない。
【0092】
文献”Brady, N., Campbell, M., & Flaherty, M. (2005). Perceptual asymmetries are preserved in memory for highly familiar faces of self and friend. Brain & Cognition, 58, 334-342.”には、その人らしさは、顔の右側半分に表れるという研究成果が記載されている。人が日常的に見る自分の顔は鏡に映った顔である。したがって、人が鏡に写った自分の顔を見る場合、観察者から向かって右側に自分らしさを感じる傾向がある。
また、文献”Guo, K., Tunnicliffe, D., & Roebuck, H. (2010). Human spontaneous gaze patterns in viewing of faces of different species. Perception, 39, 533-542.”には、人間や霊長類が人や動物を注視するときに、観察者から向かって顔の左側半分を見る傾向にあるという研究成果が記載されている。
【0093】
第1例の第1視線分布率E1が最も大きいメイキャップシミュレーション画像とは、複数のメイキャップシミュレーション画像のうち、右目側が最も注視されたメイキャップシミュレーション画像を意味する。換言すると、第1視線分布率E1が最も大きいメイキャップシミュレーション画像は、ユーザUの潜在的な評価が高い画像(例えば、最も関心が高い画像、最も自分らしさを感じる画像、最も親和性を感じる画像、又は、最も印象的に感じる画像)とも言える。
【0094】
第2例の第1視線分布率E1が所定値以上である少なくとも1つのメイキャップシミュレーション画像とは、複数のメイキャップシミュレーション画像のうち、右目側が一定以上注視されたメイキャップシミュレーション画像を意味する。換言すると、第1視線分布率E1が所定値以上のメイキャップシミュレーション画像は、ユーザUの潜在的な評価が一定の基準を超えている画像(例えば、一定程度関心が高い画像、一定程度自分らしさを感じる画像、一定程度親和性を感じる画像、又は、一定程度印象的に感じる画像)とも言える。
【0095】
画面P103の例では、画像オブジェクトIMG101及びIMG102のうち、画像オブジェクトIMG101の第1視線分布率E1が最も大きいので、画像オブジェクトIMG101に対応するメイキャップシミュレーション画像(つまり、パターン名「MC1」のメイキャップパターンが適用されたメイキャップシミュレーション画像)がレコメンド情報として決定される。
【0096】
ステップS105の後、クライアント装置10は、レコメンド情報の提示(S106)を実行する。
具体的には、プロセッサ12は、画面P104(
図10)をディスプレイ15に表示する。
【0097】
画面P104は、画像オブジェクトIMG101と、表示オブジェクトA104a~A104bと、操作オブジェクトB104a~B104bと、を含む。
表示オブジェクトA104aには、メイキャップシミュレーション画像の生成に用いられたメイキャップパターンのパターン名が表示される。
表示オブジェクトA104bには、メイキャップシミュレーション画像の生成に用いられたメイキャップパターンに対応するアイテムに関するアイテム情報(例えば、アイテムのカテゴリ及びアイテムID)が表示される。
操作オブジェクトB104aは、レコメンド情報(例えば、画像オブジェクトIMG101、表示オブジェクトA104a~A104bの内容)を用いてサーバ30上のデータベースを更新するためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB104bは、表示オブジェクトA104bに表示されたアイテムを販売するウェブサイトにアクセスするためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB104bには、当該ウェブサイトのURL(Uniform Resource Locator)が割り当てられている。
【0098】
ステップS106の後、クライアント装置10は、更新リクエスト(S107)を実行する。
具体的には、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・ユーザUのユーザID
・ステップS100で決定された画像データ
・ステップS101で参照されたメイキャップパターンID
・ステップS103の実行日に関する情報
・ステップS1030で記憶装置11に記憶された計測座標及び計測時間
・ステップS1033で計算された第1視線分布率E1及び第2視線分布率E2
【0099】
ステップS107の後、サーバ30は、データベースの更新(S300)を実行する。
具体的には、プロセッサ32は、更新リクエストデータに含まれるユーザIDに関連付けられたシミュレーションログ情報データベース(
図6)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「シミュレーションID」フィールドには、新たなシミュレーションIDが格納される。
・「シミュレーション実行日」フィールドには、更新リクエストデータに含まれる実行日に関する情報が格納される。
・「元画像」フィールドには、更新リクエストデータに含まれる画像データが格納される。
・「パターンID」フィールドには、更新リクエストデータに含まれるメイキャップパターンIDが格納される。
・「計測座標」フィールドには、更新リクエストデータに含まれる計測座標が格納される。
・「計測時間」フィールドには、更新リクエストデータに含まれる計測時間が格納される。
・「R分布」フィールドには、更新リクエストデータに含まれる第1視線分布率E1が格納される。
・「L分布」フィールドには、更新リクエストデータに含まれる第2視線分布率E2が格納される。
【0100】
第1実施形態によれば、ユーザUに提示した顔の画像(例えば、メイキャップシミュレーション画像)に対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、複数のメイキャップシミュレーション画像の中から、ユーザUの潜在的な評価の高いメイキャップシミュレーション画像)を提示する。これにより、ユーザUが観察する顔の画像に対するユーザUの潜在的な評価が高い情報を提示することができる。
【0101】
(2)第2実施形態
本発明の第2実施形態について説明する。第2実施形態は、自分の顔の鏡像における視線の偏りに基づいてレコメンド情報を提示する例である。
【0102】
(2-1)クライアント装置の構成
第2実施形態のクライアント装置10の構成について説明する。
図13は、第2実施形態のクライアント装置の外観図である。
【0103】
図13に示すように、クライアント装置10は、ハーフミラー17を更に備える。ハーフミラー17は、ディスプレイ15上に配置される。ハーフミラー17は、外光を反射し、且つ、ディスプレイ15から発光された光を透過するので、ユーザUは、鏡像MIとシミュレーション画像SIMGとを同時に観察することができる。
【0104】
(2-2)情報処理
第2実施形態の情報処理について説明する。
図14は、第2実施形態の情報処理のフローチャートである。
図15は、
図14の視線パラメータの計算の詳細なフローチャートである。
図16は、
図14の視線パラメータの計算の説明図である。
図17は、
図14の情報処理において表示される画面例を示す図である。
【0105】
図14に示すように、クライアント装置10は、視線パラメータの計算(S110)を実行する。
【0106】
図15に示すように、クライアント装置10は、ステップS1030(
図11)の後、ユーザ画像の撮像(S1100)を実行する。
具体的には、カメラ16が、ハーフミラー17に写っている鏡像MIを観察しているユーザUの顔の画像を撮像する。
プロセッサ12は、カメラ16によって取得された画像の画像データを生成する。
【0107】
ステップS1100の後、クライアント装置10は、鏡像座標の計算(S1101)を実行する。
具体的には、プロセッサ12は、ステップS1100で生成した画像データの特徴量を解析することにより、ユーザUの顔の各部(例えば、輪郭、目、鼻、及び、口)の画像空間における座標及びサイズを計算する。
プロセッサ12は、顔の各部の座標及びサイズと、クライアント装置10におけるカメラ16の位置と、に基づいて、ハーフミラー17とユーザUとの間の距離を計算する。
プロセッサ12は、計算した距離と、画像空間における座標と、に基づいて、鏡像MIの座標空間(以下「鏡像空間」という)における顔の各部の座標(以下「鏡像座標」という)を計算する。
【0108】
ステップS1101の後、クライアント装置10は、鏡像空間の分割(S1102)を実行する。
具体的には、
図16に示すように、プロセッサ12は、ステップS1101で計算した各部の鏡像座標に基づいて、鏡像空間の基準線(例えば、両目を結ぶ線の中間点と、鼻の中心と、を結ぶ線)MRLの座標を計算する。
プロセッサ12は、基準線MRLを境界線として、鏡像空間を、第1領域A1及び第2領域A2に分割する。
第1領域A1は、鏡像MIにおいてユーザUから向かって右側に位置する(つまり、右目REを含む)領域である。
第2領域A2は、鏡像MIにおいてユーザUから向かって左側に位置する(つまり、左目LEを含む)領域である。
【0109】
ステップS1102の後、クライアント装置10は、ステップS1032~S1033(
図11)を実行する。
【0110】
ステップS110の後、クライアント装置10は、レコメンド情報の決定(S111)を実行する。
具体的には、プロセッサ12は、ステップS110で計算した第1視線分布率E1及び第2視線分布率E2を式2に適用することにより、鏡像MIに対するユーザUの評価に関するスコアSを計算する。
【数2】
・S…スコア
・a…第1視線分布率の係数
・b…第2視線分布率の係数
【0111】
ステップS111の後、レコメンド情報の提示(S112)を実行する。
具体的には、プロセッサ12は、画面P110(
図17A)をディスプレイ15に表示する。
画面P110は、表示オブジェクトA110を含む。
表示オブジェクトA110には、ステップS111で計算されたスコアSが表示される。
【0112】
鏡像MIが変化する(例えば、ユーザUの顔のメイキャップの仕上がりが変わる)と、ステップS110~S112の処理結果も変化する。
その結果、プロセッサ12は、画面P111(
図17B)をディスプレイ15に表示する。
画面P111は、表示オブジェクトA111を含む。
表示オブジェクトA111には、ステップS111で計算されたスコアSが表示される。このスコアSは、表示オブジェクトA110に表示されたスコアSとは異なる。
【0113】
第2実施形態によれば、ユーザUの顔の鏡像MIに対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、鏡像MIに対するユーザUの評価に関するスコアS)を提示する。これにより、ユーザが観察する顔の鏡像MIに対するユーザの潜在的な評価を提示することができる。
【0114】
例えば、ユーザUがハーフミラー17に写った鏡像MIを観察しながら、複数のメイキャップアイテムを用いてメイキャップをしている場合、スコアSは、各メイキャップアイテムを用いたメイキャップに対するユーザUの潜在的な評価を表す。つまり、スコアSは、メイキャップアイテム毎のユーザUの反応を表す。
【0115】
例えば、ユーザUがハーフミラー17に写った鏡像MIを観察しながらメイキャップをしている場合、スコアSは、ユーザUがメイキャップを開始してから終了するまでの間の鏡像MI(つまり、メイキャップ中の顔)に対するユーザの潜在的な評価を表す。つまり、スコアSは、ユーザUがメイキャップを開始してから終了するまでの間のメイキャップの出来栄えに対するユーザUの反応の推移を表す。
【0116】
図13では、クライアント装置10がハーフミラー17を備える例を示したが、第2実施形態は、これに限られるものではない。ハーフミラー17が光を全反射する鏡であり、且つ、ディスプレイ15はクライアント装置10の外部に配置されてもよい。この場合、ユーザUは、鏡に写った自身の顔の鏡像を観察する。画面P110~P111は、クライアント装置10の外部に配置されたディスプレイに表示される。
【0117】
(3)第3実施形態
第3実施形態について説明する。第3実施形態は、コンピュータ空間においてユーザの化身として振る舞うアバタの画像(以下「アバタ画像」という)に対するユーザの潜在的な評価を提示する例である。
【0118】
第3実施形態の情報処理について説明する。
図18は、第3実施形態の情報処理のフローチャートである。
図19~
図20は、
図18の情報処理において表示される画面例を示す図である。
図18の情報処理は、例えば、第3実施形態がコンピュータゲームに適用される場合、コンピュータゲームのプレイを開始する前、又は、プレイ中に実行される。
【0119】
図18に示すように、クライアント装置10は、アバタ画像の提示(S120)を実行する。
具体的には、プロセッサ12は、画面P120(
図19)をディスプレイ15に表示する。
【0120】
画面P120は、画像オブジェクトIMG120と、メッセージオブジェクトM120と、を含む。
画像オブジェクトIMG120は、アバタ画像である。
メッセージオブジェクトM120は、ユーザUの視線を画像オブジェクトIMG101に誘導するためのメッセージである。
【0121】
ステップS120の後、クライアント装置10は、ステップS103(
図7)を実行する。
【0122】
図18のSS3(ステップS120及びS103)は、複数のアバタ画像のそれぞれについて、複数回実行される。
【0123】
例えば、2回目のステップS120では、プロセッサ12は、画面P121(
図19)をディスプレイ15に表示する。
【0124】
画面P121は、画像オブジェクトIMG121と、メッセージオブジェクトM120と、を含む。
画像オブジェクトIMG121は、1回目のステップS120で提示されたアバタ画像とは異なるアバタ画像である。
【0125】
これにより、複数のアバタ画像に対する視線分布が得られる。
【0126】
ステップS103の後、クライアント装置10は、レコメンド情報の決定(S121)を実行する。
具体的には、プロセッサ12は、各アバタ画像の第1視線分布率E1及び第2視線分布率E2を式3に適用することにより、各アバタ画像の自己同一視指数Si(レコメンド情報の一例)を計算する。自己同一視指数Siは、アバタ画像に対して「自分の化身である」とユーザUが感じるレベルに関する指標である。
【数3】
・Si…スコア
・α…第1視線分布率の係数
・β…第2視線分布率の係数
【0127】
ステップS121の後、レコメンド情報の提示(S122)を実行する。
具体的には、プロセッサ12は、画面P122(
図20)をディスプレイ15に表示する。
【0128】
画面P122は、表示オブジェクトA122a~A122bと、画像オブジェクトIMG120~IMG121と、操作オブジェクトB122a~B122bと、を含む。
表示オブジェクトA122aには、画像オブジェクトIMG120に対応するアバタ画像のアバタ名と、画像オブジェクトIMG120に対する第1視線分布率E1及び第2視線分布率E2と、画像オブジェクトIMG120の自己同一視指数Siと、が表示される。
表示オブジェクトA122bには、画像オブジェクトIMG121に対応するアバタ画像のアバタ名と、画像オブジェクトIMG121に対する第1視線分布率E1及び第2視線分布率E2と、画像オブジェクトIMG121の自己同一視指数Siと、が表示される。
【0129】
ステップS122の後、クライアント装置10は、更新リクエスト(S123)を実行する。
具体的には、プロセッサ12は、画面P123をディスプレイ15に表示する。
【0130】
画面P123は、表示オブジェクトA123と、操作オブジェクトB123a~B123bと、画像オブジェクトIMG123と、を含む。
表示オブジェクトA123には、ステップS121で計算された自己同一視指数Siが最も高いアバタ画像に関する情報(アバタ名、第1視線分布率E1、第2視線分布率E2、及び、自己同一視指数Si)が表示される。
画像オブジェクトIMG123は、自己同一視指数Siが最も高いアバタ画像である。
操作オブジェクトB123aは、画像オブジェクトIMG123のアバタ画像としての使用を確定させるためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB123bは、画像オブジェクトIMG123のアバタ画像としての使用を拒否するためのユーザ指示を受け付けるオブジェクトである。
【0131】
ユーザが操作オブジェクトB123aを操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・ユーザID
・画像オブジェクトIMG123に割り当てられたアバタ画像の画像データ
【0132】
ステップS123の後、サーバ30は、データベースの更新(S300)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(
図4)を参照して、更新リクエストデータに含まれるユーザIDに関連付けられたレコードを特定する。
プロセッサ32は、特定したレコードの「ユーザ画像」フィールドに、更新リクエストデータに含まれる画像データを格納する。
これにより、ユーザUは、自己同一視指数Siが最も高いアバタ画像を使用可能になる。
【0133】
第3実施形態によれば、アバタ画像に対するユーザの潜在的な評価を提示することができる。これにより、ユーザは、自身の潜在的な評価が高いアバタ(例えば、最も関心が高いアバタ、最も自分らしさを感じる(つまり、自分と同一視できる)アバタ、最も親和性を感じるアバタ、又は、最も印象的に感じるアバタ)を容易に選択することができる。
【0134】
(4)第4実施形態
第4実施形態について説明する。第4実施形態は、視線の動きのパターンに基づいて、画像に対するユーザの潜在的な評価を提示する例である。
【0135】
(4-1)第4実施形態の概要
第4実施形態の概要について説明する。
図23は、第4実施形態の概要の説明図である。
【0136】
図23に示すように、第4実施形態では、第1実施形態(
図3)と同様に、人(例えば、ユーザU)の顔を含むシミュレーション画像SIMGを提示する。
次に、シミュレーション画像SIMGを観察している間のユーザUの視線の動きに関するアイトラッキング信号を生成する。
次に、アイトラッキング信号に基づいて、シミュレーション画像SIMGを構成する画素の座標空間(以下「画像空間」という)において、ユーザUの視線の動きのパターンに関する視線パターン(「視線パラメータ」の一例)を計算する。
次に、視線パターンに基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価に関するレコメンド情報を提供する。
【0137】
このように、第4実施形態では、シミュレーション画像SIMGの画像空間におけるユーザUの視線パターンに基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価が反映されたレコメンド情報を提示する。
【0138】
(4-2)情報処理
第4実施形態の情報処理について説明する。
図24は、第4実施形態の視線パラメータの計算の処理のフローチャートである。
図25及び
図26は、
図24の視線パターンの計算の説明図である。
【0139】
第4実施形態の情報処理は、第1実施形態(
図7)と同様に実行される。
【0140】
図24に示すように、クライアント装置10は、ステップS1030の後、視線パターンの計算(S1034)を実行する。
具体的には、プロセッサ12は、視線分布に代えて、以下の少なくとも1つの視線パターンを計算する。
・所定の大きさの領域(以下「停留領域」という)に視線が停留した停留時間
・停留領域に視線が停留した停留回数
・視線の移動範囲
・視線の移動順序
・視線の移動面積
【0141】
第1例として、プロセッサ12は、式4を用いて、停留時間Tsを計算する。
【数4】
・Ts…停留時間
・n…停留領域に含まれる計測座標の数
・t…計測時間の間隔
図25Aに示すように、ユーザUの顔の画像FIMGに対する視線EMは、例えば、停留領域1の5秒間停留した後、停留領域2に10秒間停留したとする。この場合、停留領域1の停留時間Ts1は5秒であり、停留領域2の停留時間Ts2は10秒であり、総停留時間ΣTsは15秒である。
プロセッサ12は、計測時間と、停留時間と、を関連付けて記憶装置11に記憶する。
【0142】
第2例として、プロセッサ12は、式5を用いて、停留回数Nsを計算する。
【数5】
・Ns…停留回数
・ns…一定時間停留領域に含まれた回数
図25Aの例では、停留回数は、2回である。
プロセッサ12は、計測時間と、停留回数と、を関連付けて記憶装置11に記憶する。
【0143】
第3例として、プロセッサ12は、計測座標の端点に位置するX座標及びY座標(以下「端点座標」という)によって定義される矩形領域を、移動範囲として計算する。
図25Bの例では、移動範囲は、端点座標{(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2)}によって定義される矩形領域Zである。
プロセッサ12は、矩形領域Zを規定する端点座標を記憶装置11に記憶する。
【0144】
第4例として、プロセッサ12は、以下の方法により移動順序を計算する。
プロセッサ12は、画像FIMGの画素領域を、顔の部位(例えば、左目、右目、鼻、及び、口)毎の画素領域(例えば、左目画素領域、右目画素領域、鼻画素領域、及び、口画素領域)に分割する。
プロセッサ12は、視線EMが各画素領域を通過した順序(以下「移動順序」という)と、を計算する。
図25Cの例では、移動順序は、{右目画素領域、鼻画素領域、口画素領域、そして、左目画素領域}である。
プロセッサ12は、移動順序を記憶装置11に記憶する。
【0145】
第5例として、プロセッサ12は、以下の何れかに基づいて、移動面積を計算する。
・XY空間における計測座標の数(但し、重複する計測座標は1座標と数える)(
図26A)
・画像FIMGの画素領域を所定面積で区切られた区画SECに分割した場合、計測座標を含む区画SECの数の合計(
図26B)
プロセッサ12は、移動面積を記憶装置11に記憶する。
【0146】
記憶装置11には、視線パターン評価モデルが記憶されている。視線パターン評価モデルは、視線パターンを入力とし、且つ、顔に対する評価を出力とするモデルである。
【0147】
ステップS103の後、クライアント装置10のプロセッサ12は、ステップS105において、記憶装置11に記憶された視線パターン評価モデルを参照し、ステップS103で計算した視線パターンに対応する評価を計算する。
【0148】
第4実施形態によれば、視線パターンを用いた場合であっても、画像FIMGに対するユーザUの潜在的な評価を提示することができる。
【0149】
第1例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、停留時間が計算される。
一例として、計測時間が早いとき(例えば、計測の開始から、全体の計測時間の所定時間(一例として、全体の計測時間の1/10の時間)が経過するまでの間)に停留時間が長い場合、ユーザUは、メイキャップを開始した直後において、メイキャップの出来栄えに違和感を覚えていることを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が低いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが違和感を覚えている旨のメッセージ)を提示する。
別の例として、計測時間が遅いとき(例えば、計測の終了から、全体の計測時間の所定時間(一例として、全体の計測時間の1/10の時間)を遡るまでの間)に停留時間が長い場合、ユーザUは、メイキャップ中に違和感を覚えていないことを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が高いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが満足している旨のメッセージ)を提示する。
【0150】
第2例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、停留回数が計算される。
一例として、計測時間が早いときに停留回数が多い場合、ユーザUは、メイキャップを開始した直後において、メイキャップの出来栄えに違和感を覚えていることを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が低いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが違和感を覚えている旨のメッセージ)を提示する。
別の例として、計測時間が遅いときに停留回数が多い場合、ユーザUは、メイキャップの終了直前はメイキャップの出来栄えに違和感を覚えているが、メイキャップの終了後はメイキャップの出来栄えに違和感を覚えていないことを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が高いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが満足している旨のメッセージ)を提示する。
【0151】
第3例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、移動範囲が計算される。
化粧の評価の専門家は、顔の全体を見ていることが知られている。また、人は、他人の顔を見るときは全体を見るのに対して、自分の顔を見るときは部分的に見る傾向があることが知られている。つまり、顔の全体を見ることは、自分の顔を客観的に見ていることを意味する。プロセッサ12は、移動範囲を計算することにより、観察者自身による評価と他人による評価の一致度を、レコメンド情報として提示する。
【0152】
第4例では、例えば、メイキャップが終了した後にメイキャップの出来栄えを評価するために、ユーザUが画像FIMGを見ているときの視線EMの移動順序が計算される。
一般に、移動順序は、メイキャップを施した箇所に対してユーザUが注目する順番を表している。この順番は、ユーザUにとって、メイキャップの特性の優先順位を意味している。プロセッサ12は、移動順序に基づいて、ユーザUにとっての優先順位の高い特性を特定することにより、優先順位の高い特性に適合したメイキャップアイテムをレコメンド情報として提示する。
【0153】
第5例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、移動面積が計算される。
移動面積は、第3例の移動範囲と同様に、自己評価と他人の評価の一致度を表す。プロセッサ12は、移動面積を計算することにより、自己評価と他人の評価の一致度を、レコメンド情報として提示する。
【0154】
第4実施形態は、第2実施形態にも適用可能である。第4実施形態を第2実施形態に適用した場合、視線分布以外の視線パラメータを用いた場合であっても、鏡像MIに対するユーザUの潜在的な評価を提示することができる。
【0155】
(5)変形例
本実施形態の変形例について説明する。
【0156】
(5-1)変形例1
変形例1について説明する。変形例1は、
図7のメイキャップシミュレーション画像の提示(S102)において、ユーザUの視線を誘導する例である。
図21は、変形例1の画面例を示す図である。
変形例1は、第1実施形態~第3実施形態の何れにも適用可能である。
【0157】
変形例1のステップS102では、プロセッサ12は、画面P101a(
図21)をディスプレイ15に表示する。
【0158】
画面P101aは、画像オブジェクトIMG101aが表示される点において、画面P101(
図8)と異なる。画像オブジェクトIMG101aは、ユーザUの視線を誘導するためのオブジェクトである。
画像オブジェクトIMG101aは、画像オブジェクトIMG101の第2領域A2に表示される。
【0159】
一般に、左視野は全体処理に関連し、右視野は部分処理に関連することが知られている。変形例1によれば、第2領域A2に視線を誘導するための画像オブジェクトIMG101aが表示されるので、ユーザUが自身の顔を観察する際に全体処理が優勢となり、より客観的な自己評価が可能となる。メイキャップの目的のひとつは他者への印象形成である。自己評価の客観性が向上することで、自己評価と他者評価の差が低減する。その結果、自分の顔のメイキャップによって自己評価を上げると、そのメイキャップに対する他者からの評価も向上することになる。
【0160】
なお、自己評価と他者評価との差は、視線を誘導しない場合と比べて、視線を誘導する場合の方が小さくなる。したがって、数値を用いて、視線を誘導したときの効果(客観性の向上による他者評価と自己評価との間のずれの低減の程度)を示すことができる。例えば、移動範囲又は移動面積を用いて自己評価と他人の評価の一致度を計算し、且つ、その計算結果を用いて、視線を誘導したときの効果を示すことができる。
【0161】
(5-2)変形例2
変形例2について説明する。変形例2は、1枚の画像に対するユーザの潜在的な評価を提示する例である。
図22は、変形例2の情報処理において表示される画面例を示す図である。
変形例2は、第1実施形態~第4実施形態の何れにも適用可能である。
【0162】
変形例2の情報処理は、第1実施形態の情報処理(
図7)と同様である。但し、ステップS104(
図7)は省略される。
【0163】
ステップS103の後、クライアント装置10のプロセッサ12は、ステップS105において、ステップS103で計算した視線分布率(つまり、
図12の第1視線分布率E1及び第2視線分布率E2)を式2に適用することにより、メイキャップシミュレーション画像SIMGに対するユーザUの評価に関するスコアSを計算する。
【0164】
ステップS105の後、ステップS106において、プロセッサ12は、画面P104(
図10)に代えて、画面P130(
図22)をディスプレイ15に表示する。
【0165】
画面P130は、表示オブジェクトA103a、A104b、及び、A130と、画像オブジェクトIMG101と、を含む。
表示オブジェクトA130には、ステップS105で計算されたスコアが表示される。
【0166】
変形例2によれば、1つのメイキャップシミュレーション画像に対するスコアSをディスプレイ15に表示する。これにより、1種類の画像に対するユーザUの潜在的な評価を提示することができる。
【0167】
(5-3)変形例3
変形例3について説明する。変形例3は、メイキャップシミュレーション画像及びアバタ画像以外の顔の画像に対して本実施形態を適用する例である。
【0168】
第1例として、本実施形態は、任意の髪型が適用された顔の画像にも適用可能である。
この場合、ユーザUに提示した顔の画像(例えば、任意の髪型が適用された顔の画像)に対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、複数のヘアシミュレーション画像の中から、ユーザUの潜在的な評価の高いヘアシミュレーション画像)を提示する。これにより、ユーザUが観察する顔の画像に対するユーザUの潜在的な評価が高い情報を提示することができる。
【0169】
第2例として、本実施形態は、任意の手術が施された顔の画像にも適用可能である。
この場合、ユーザUに提示した顔の画像(例えば、任意の手術が施された後の顔の画像)に対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、複数の手術シミュレーション画像の中から、ユーザUの潜在的な評価の高い手術シミュレーション画像)を提示する。これにより、ユーザUが観察する顔の画像に対するユーザUの潜在的な評価が高い情報を提示することができる。
【0170】
(6)本実施形態の小括
本実施形態について小括する。
【0171】
本実施形態の第1態様は、
ユーザに対して、顔を含む画像を提示する手段(例えば、ステップS102の処理を実行するプロセッサ12)を備え、
ユーザの視線の動きに関する視線情報を取得する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を備え、
視線情報に基づいて、画像におけるユーザの視線の偏りを計算する手段(例えば、ステップS1033の処理を実行するプロセッサ12)を備え、
視線の偏りに基づいて、画像に関するレコメンド情報を決定する手段(例えば、ステップS105の処理を実行するプロセッサ12)を備え、
レコメンド情報を提示する手段(例えば、ステップS106の処理を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
【0172】
第1態様によれば、顔の画像に対するユーザUの視線の偏りに基づいて、ユーザUに提示するレコメンド情報が決定される。これにより、ユーザUが観察する顔に対するユーザUの潜在的な評価を提示することができる。
【0173】
本実施形態の第2態様は、
計算する手段は、
画像の画像空間を所定の境界線で第1領域及び第2領域に分割し、
第1領域における第1視線分布と、
第2領域における第2視線分布と、
を計算する、情報処理装置である。
【0174】
第2態様によれば、画像空間を構成する2つの領域(第1領域及び第2領域)のそれぞれにおける視線分布に基づいて、ユーザUに提示するレコメンド情報が決定される。
これにより、視線分布の偏りに応じたレコメンド情報を提示することができる。
【0175】
本実施形態の第3態様は、
提示する手段は、互いに異なる複数の画像を個別に提示し、
計算する手段は、各画像について、第1視線分布及び第2視線分布を計算し、
決定する手段は、複数の画像の少なくとも1つをレコメンド情報として決定する、情報処理装置である。
【0176】
第3態様によれば、複数の画像のそれぞれについて、画像空間を構成する2つの領域(第1領域及び第2領域)のそれぞれにおける視線分布に基づいて、レコメンド情報が決定される。
これにより、複数の画像の中から少なくとも1つをレコメンド情報として提示することができる。
【0177】
本実施形態の第4態様は、
第1領域は、画像に対して向かって右側の領域であり、
第2領域は、画像に対して向かって左側の領域であり、
レコメンド情報は、複数の画像のうち、第1視線分布の割合が所定値以上である少なくとも1つの画像である、情報処理装置である。
【0178】
第4態様によれば、画像に対して向かって右側の領域の視線分布の割合が所定値以上である画像をレコメンド情報として提示する。これにより、ユーザUの潜在的な評価が高い画像を容易に特定することができる。
【0179】
本実施形態の第5態様は、
画像は、ユーザの顔 に対して互いに異なるメイキャップが施された複数のメイキャップシミュレーション画像を含み、
第1領域は、各メイキャップシミュレーション画像に対して向かって右側の領域であり、
第2領域は、各メイキャップシミュレーション画像に対して向かって左側の領域であり、
レコメンド情報は、複数のメイキャップシミュレーション画像のうち、第1視線分布の割合が最も多いメイキャップシミュレーション画像である、情報処理装置である。
【0180】
第5態様によれば、複数のメイキャップシミュレーション画像の中から、各メイキャップシミュレーション画像に対して向かって右側の領域に対する視線分布の割合が所定以上であるメイキャップシミュレーション画像が提示される。これにより、ユーザの潜在的な評価が高いメイキャップシミュレーション画像を容易に特定することができる。
【0181】
本実施形態の第6態様は、
画像は、ユーザの顔に対してメイキャップが施されたメイキャップシミュレーション画像であり、
第1領域は、メイキャップシミュレーション画像に対して向かって右側の領域であり、
第2領域は、メイキャップシミュレーション画像に対して向かって左側の領域であり、
レコメンド情報は、メイキャップシミュレーション画像における第1視線分布の割合に応じた情報である、情報処理装置である。
【0182】
第6態様によれば、メイキャップシミュレーション画像に対して向かって右側の領域に対する視線分布の割合に応じたレコメンド情報(例えば、スコア)が提示される。これにより、メイキャップシミュレーション画像に対するユーザUの潜在的な評価を知ることができる。
【0183】
本実施形態の第7態様は、
画像は、互いに異なる複数のアバタ画像を含み、
第1領域は、各アバタ画像に対して向かって右側の領域であり、
第2領域は、各アバタ画像に対して向かって左側の領域であり、
レコメンド情報は、複数のアバタ画像のうち、第1視線分布の割合が最も多いアバタ画像である、
情報処理装置である。
【0184】
第7態様によれば、複数のアバタ画像の中から、各アバタ画像に対して向かって右側の領域に対する視線分布の割合が所定以上であるアバタ画像が提示される。これにより、ユーザUの潜在的な評価が高いアバタ画像を容易に特定することができる。
【0185】
本実施形態の第8態様は、
画像は、アバタ画像であり、
第1領域は、アバタ画像に対して向かって右側の領域であり、
第2領域は、アバタ画像に対して向かって左側の領域であり、
レコメンド情報は、アバタ画像における第1視線分布の割合に応じた情報である、
情報処理装置である。
【0186】
第8態様によれば、アバタ画像に対して向かって右側の領域に対する視線分布の割合に応じたレコメンド情報(例えば、スコア)が提示される。これにより、アバタ画像に対するユーザUの潜在的な評価を知ることができる。
【0187】
本実施形態の第9態様は、
画像は、ユーザの顔に対して互いに異なる髪型が適用された複数の画像、及び、ユーザの顔に対して互いに異なる手術が施された画像の少なくとも1つを含む、
情報処理装置である。
【0188】
第9態様によれば、任意の髪型が適用された顔及び手術後の顔の少なくとも1つを表す画像に基づくレコメンド情報が提示される。これにより、当該顔に対するユーザUの潜在的な評価を知ることができる。
【0189】
本実施形態の第10態様は、
ユーザの顔の鏡像に対するユーザの視線の動きに関する視線情報を取得する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を備え、
視線情報に基づいて、鏡像におけるユーザの視線の偏りを計算する手段(例えば、ステップS1033の処理を実行するプロセッサ12)を備え、
視線の偏りに基づいて、鏡像に関するレコメンド情報を決定する手段(例えば、ステップS111の処理を実行するプロセッサ12)を備え、
レコメンド情報を提示する手段(例えば、ステップS112の処理を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
【0190】
第10態様によれば、顔の鏡像に対するユーザの視線の偏りに基づいて、レコメンド情報が決定される。これにより、鏡に写ったユーザUの顔に対するユーザUの潜在的な評価を提示することができる。
【0191】
本実施形態の第11態様は、
計算する手段は、
鏡像の鏡像空間を所定の境界線で第1領域及び第2領域に分割し、
第1領域における第1視線分布と、
第2領域における第2視線分布と、
を計算する、
情報処理装置である。
【0192】
第11態様によれば、鏡像空間を構成する2つの領域(第1領域及び第2領域)のそれぞれにおける視線分布に基づいて、ユーザに提示するレコメンド情報が決定される。
これにより、視線分布の偏りに応じたレコメンド情報を提示することができる。
【0193】
本実施形態の第12態様は、
第1領域は、右目を含み、
第2領域は、左目を含み、
レコメンド情報は、第1視線分布の割合に応じた情報であって、且つ、鏡像に対するユーザの評価に関する情報である、
情報処理装置である。
【0194】
第12態様によれば、鏡像に対して向かって右側の領域に対する視線分布の割合に応じたレコメンド情報(例えば、スコア)が提示される。これにより、鏡像(例えば、メイキャップを施した自身の顔の鏡像)に対するユーザUの潜在的な評価を知ることができる。
【0195】
本実施形態の第13態様は、
ユーザの顔の画像を提示する手段(例えば、ステップS102の処理を実行するプロセッサ12)を備え、
ユーザの視線の動きに関する視線情報を取得する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を備え、
視線情報に基づいて、画像におけるユーザの視線の動きのパターンに関する視線パターンを計算する手段(例えば、ステップS1034の処理を実行するプロセッサ12)を備え、
計算した視線パターンに基づいて、ユーザに提示すべきレコメンド情報を決定する手段を備え、
決定したレコメンド情報を提示する手段(例えば、ステップS106の処理を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
【0196】
第13態様によれば、顔の画像に対するユーザUの視線パターンに基づいて、ユーザに提示するレコメンド情報が決定される。これにより、ユーザUが観察する顔に対するユーザUの潜在的な評価を提示することができる。
【0197】
本実施形態の第14態様は、
計算する手段は、ユーザの視線が所定範囲の停留領域に停留した時間である停留時間を、視線パターンとして計算する、
情報処理装置である。
【0198】
本実施形態の第15態様は、
計算する手段は、ユーザの視線が所定範囲の停留領域に停留した回数である停留回数を、視線パターンとして計算する、
情報処理装置である。
【0199】
本実施形態の第16態様は、
計算する手段は、ユーザの視線が分布する面積を、視線パターンとして計算する、
情報処理装置である。
【0200】
本実施形態の第17態様は、
計算する手段は、ユーザの視線が動く順序を、視線パターンとして計算する、
情報処理装置である。
【0201】
本実施形態の第18態様は、
計算する手段は、ユーザの視線が移動した面積を、視線パターンとして計算する、
情報処理装置である。
【0202】
本実施形態の第19態様は、
コンピュータ(例えば、プロセッサ12)を、上記の何れかに記載の各手段として機能させるためのプログラムである。
【0203】
(7)その他の変形例
【0204】
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
【0205】
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
【0206】
上記実施形態では、シミュレーション画像SIMGの一例として、メイキャップシミュレーション画像を例示した。しかし、本実施形態は、シミュレーション画像SIMGが以下の少なくとも1つである場合にも適用可能である。
・治療(例えば、整形手術)の後の顔のシミュレーション画像
・カラーリングした後の頭髪を含む顔のシミュレーション画像
【0207】
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
【符号の説明】
【0208】
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :ディスプレイ
16 :カメラ
17 :ハーフミラー
20 :アイトラッカ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース