特許第6547013号(P6547013)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 麗寶大數據股▲フン▼有限公司の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6547013
(24)【登録日】2019年6月28日
(45)【発行日】2019年7月17日
(54)【発明の名称】生体情報解析装置及びその頬紅解析方法
(51)【国際特許分類】
   G06T 7/00 20170101AFI20190705BHJP
   A45D 44/00 20060101ALI20190705BHJP
   G06T 7/90 20170101ALI20190705BHJP
【FI】
   G06T7/00 660A
   A45D44/00 A
   G06T7/90 Z
【請求項の数】15
【全頁数】26
(21)【出願番号】特願2018-6566(P2018-6566)
(22)【出願日】2018年1月18日
(65)【公開番号】特開2019-53708(P2019-53708A)
(43)【公開日】2019年4月4日
【審査請求日】2018年1月18日
(31)【優先権主張番号】201710833322.8
(32)【優先日】2017年9月15日
(33)【優先権主張国】CN
(73)【特許権者】
【識別番号】517058635
【氏名又は名称】麗寶大數據股▲フン▼有限公司
(74)【代理人】
【識別番号】110000383
【氏名又は名称】特許業務法人 エビス国際特許事務所
(72)【発明者】
【氏名】沈 軾榮
(72)【発明者】
【氏名】季 敏昶
(72)【発明者】
【氏名】▲呉▼ 孝宗
【審査官】 松田 直也
(56)【参考文献】
【文献】 特開2014−149696(JP,A)
【文献】 特開2015−072697(JP,A)
【文献】 特開2008−257381(JP,A)
【文献】 特開2009−213751(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
A45D 44/00
G06T 7/90
(57)【特許請求の範囲】
【請求項1】
生体情報解析装置に適用する頬紅解析方法であって、
前記生体情報解析装置の撮像モジュールにより外部画像を撮像するステップa)と、
前記生体情報解析装置の処理部により前記外部画像から顔を識別した場合、前記顔の各パーツを位置合わせして前記顔が複数種類の顔型のうちの1つであることを判断するステップb)と、
前記処理部により前記顔の顔型に応じて対応する位置合わせプログラムを実行し、前記顔から左側頬紅の化粧領域及び右側頬紅の化粧領域を探すステップc)と、
前記処理部により前記左側頬紅の化粧領域の第1平均色値及び前記右側頬紅の化粧領域の第2平均色値を解析するステップd)と、
前記第1平均色値及び前記第2平均色値を所定の色値と比較するか、または前記第1平均色値を前記第2平均色値と比較して、比較結果を生成するステップe)と、
前記生体情報解析装置の表示モジュールにより前記比較結果を表示するステップf)と、を含むことを特徴とする頬紅解析方法。
【請求項2】
前記ステップc)は、
前記処理部により前記顔が前記複数種類の顔型のうちの楕円顔であると判断した場合、第1位置合わせプログラムを実行して前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を探すステップc1)と、
前記処理部により前記顔が前記複数種類の顔型のうちの丸顔または四角顔であると判断した場合、第2位置合わせプログラムを実行して前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を探すステップc2)と、
前記処理部により前記顔が前記複数種類の顔型のうちの面長顔であると判断した場合、第3位置合わせプログラムを実行して前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を探すステップc3)と、
前記処理部により前記顔が前記複数種類の顔型のうちの逆三角顔または菱顔であると判断した場合、第4位置合わせプログラムを実行して前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を探すステップc4)と、を含むことを特徴とする請求項1に記載の頬紅解析方法。
【請求項3】
前記比較結果が化粧完了基準を満たすか否かを判断するステップg1)と、
前記比較結果が前記化粧完了基準を満す場合、ステップc)〜ステップf)を繰り返し実行するステップg2)と、を含むことを特徴とする請求項2に記載の頬紅解析方法。
【請求項4】
ステップc1)の前記第1位置合わせプログラムは、
前記顔の目の下縁の位置より第1水平線を設定するステップc11)と、
前記第1水平線と前記顔の輪郭との第1交差点を設定するステップc12)と、
前記第1交差点と前記顔の口角の位置とを結ぶ第1補助線を設定するステップc13)と、
前記顔の口角の位置より第2水平線を設定するステップc14)と、
前記第2水平線と前記顔の輪郭との第2交差点を設定するステップc15)と、
前記第2交差点と前記顔の下まぶたの中点の位置とを結ぶ第2補助線を設定するステップc16)と、
前記顔の鼻の最下点の位置より第3水平線を第3補助線として設定するステップc17)と、
前記第1補助線、前記第2補助線及び前記第3補助線により前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を形成するステップc18)と、を含むことを特徴とする請求項2に記載の頬紅解析方法。
【請求項5】
ステップc2)の前記第2位置合わせプログラムは、
前記顔の鼻の最下点の位置より第1水平線を設定するステップc21)と、
前記顔の目の下縁の位置より第2水平線を設定するステップc22)と、
前記第2水平線と前記顔の輪郭との第1交差点を設定するステップc23)と、
前記第1交差点と前記顔の鼻翼の最高点の位置とを結ぶ第4補助線を設定するステップc24)と、
前記第4補助線と前記第1水平線との交差位置まで前記第4補助線を下方へ平行移動させて第5補助線を設定するステップc25)と、
前記顔の口角の位置より垂直線を第6補助線として設定するステップc26)と、
前記第4補助線、前記第5補助線及び前記第6補助線により前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を形成するステップc27)と、を含むことを特徴とする請求項2に記載の頬紅解析方法。
【請求項6】
ステップc3)の前記第3位置合わせプログラムは、
前記顔の目の下縁の位置より第1水平線を第7補助線として設定するステップc31)と、
前記顔の鼻翼の最高点の位置より第2水平線を第8補助線として設定するステップc32)と、
前記顔の鼻翼の外側位置より垂直線を第9補助線として設定するステップc33)と、
前記第7補助線、前記第8補助線及び前記第9補助線により前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を形成するステップc34)と、を含むことを特徴とする請求項2に記載の頬紅解析方法。
【請求項7】
ステップc4)の前記第4位置合わせプログラムは、
前記顔の目の下縁の位置より第1水平線を設定するステップc41)と、
前記第1水平線と前記顔の輪郭との第1交差点を設定するステップc42)と、
前記第1交差点と前記顔の鼻翼の最高点の位置とを結ぶ第10補助線を設定するステップc43)と、
前記顔の眉山の位置より垂直線を第11補助線として設定するステップc44)と、
前記顔の鼻の最下点の位置より第2水平線を設定するステップc45)と、
前記第2水平線と前記顔の輪郭との第2交差点を設定するステップc46)と、
前記第2交差点と前記鼻翼の最高点の位置とを結ぶ第12補助線を設定するステップc47)と、
前記第10補助線、前記第11補助線及び前記第12補助線により前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を形成するステップc48)と、を含むことを特徴とする請求項2に記載の頬紅解析方法。
【請求項8】
前記処理部により前記左側頬紅の化粧領域の第1標準偏差(Standard Deviation, SD)及び前記右側頬紅の化粧領域の第2標準偏差を解析するステップi)と、
前記第1標準偏差及び前記第2標準偏差を所定の標準偏差と比較するか、前記第1標準偏差を前記第2標準偏差と比較して、第2比較結果を生成するステップj)と、
前記表示モジュールに前記第2比較結果を表示するステップk)と、をさらに含むことを特徴とする請求項2に記載の頬紅解析方法。
【請求項9】
生体情報解析装置であって、
外部画像を撮像するための撮像モジュールと、
表示モジュールと、
前記撮像モジュール及び前記表示モジュールに電気的に接続され、前記外部画像を識別し、前記外部画像から顔を識別した場合に前記顔の各パーツを位置合わせして前記顔が複数種類の顔型のうちの1つであることを判断する処理部と、を含み、
前記処理部は、前記顔の顔型に応じて対応する位置合わせプログラムを実行して前記顔から左側頬紅の化粧領域及び右側頬紅の化粧領域を探した後、前記左側頬紅の化粧領域の第1平均色値及び前記右側頬紅の化粧領域の第2平均色値を解析し、前記第1平均色値及び前記第2平均色値を所定の色値と比較するか、または前記第1平均色値を前記第2平均色値と比較して、比較結果を生成し、
前記表示モジュールは、前記比較結果を表示することを特徴とする生体情報解析装置。
【請求項10】
前記処理部は、
前記外部画像を識別し、前記外部画像に前記顔があるか否かを判断する顔識別モジュールと、
前記顔の各パーツを位置合わせし、前記顔が前記複数種類の顔型のうちの1つであることを判断する位置合わせモジュールと、
前記顔の顔型に応じて対応する前記位置合わせプログラムを実行し、前記顔から前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を探す判断モジュールと、
アルゴリズムにより前記左側頬紅の化粧領域の画像及び前記右側頬紅の化粧領域の画像を解析して、前記第1平均色値及び前記第2平均色値を生成する判断モジュールと、
前記第1平均色値及び前記第2平均色値を所定の色値と比較するか、または前記第1平均色値を前記第2平均色値と比較して、比較結果を生成する比較モジュールと、を含むことを特徴とする請求項9に記載の生体情報解析装置。
【請求項11】
前記判断モジュールは、前記顔が前記複数種類の顔型のうちの楕円顔であると判断した場合に第1位置合わせプログラムを実行する工程では、
前記顔の目の下縁の位置より第1水平線を設定し、
前記第1水平線と前記顔の輪郭との第1交差点を設定し、
前記第1交差点と前記顔の口角の位置とを結ぶ第1補助線を設定し、
前記顔の口角の位置より第2水平線を設定し、
前記第2水平線と前記顔の輪郭との第2交差点を設定し、
前記第2交差点と前記顔の下まぶたの中点の位置とを結ぶ第2補助線を設定し、
前記顔の鼻の最下点の位置より第3水平線を第3補助線として設定し、
前記第1補助線、前記第2補助線及び前記第3補助線により前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を形成することを特徴とする請求項10に記載の生体情報解析装置。
【請求項12】
前記判断モジュールは、前記顔が前記複数種類の顔型のうちの丸顔または四角顔であると判断した場合に第2位置合わせプログラムを実行する工程では、
前記顔の鼻の最下点の位置より第1水平線を設定し、
前記顔の目の下縁の位置より第2水平線を設定し、
前記第2水平線と前記顔の輪郭との第1交差点を設定し、
前記第1交差点と前記顔の鼻翼の最高点の位置とを結ぶ第4補助線を設定し、
前記第4補助線と前記第1水平線との交差位置まで前記第4補助線を下方へ平行移動させて第5補助線を設定し、
前記顔の口角の位置より垂直線を第6補助線として設定し、
前記第4補助線、前記第5補助線及び前記第6補助線により前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を形成することを特徴とする請求項10に記載の生体情報解析装置。
【請求項13】
前記判断モジュールは、前記顔が前記複数種類の顔型のうちの面長顔であると判断した場合に第3位置合わせプログラムを実行する工程では、
前記顔の目の下縁の位置より第1水平線を第7補助線として設定し、
前記顔の鼻翼の最高点の位置より第2水平線を第8補助線として設定し、
前記顔の鼻翼の外側位置より垂直線を第9補助線として設定し、
前記第7補助線、前記第8補助線及び前記第9補助線により前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を形成することを特徴とする請求項10に記載の生体情報解析装置。
【請求項14】
前記判断モジュールは、前記顔が前記複数種類の顔型のうちの逆三角顔または菱顔であると判断した場合に第4位置合わせプログラムを実行する工程では、
前記顔の目の下縁の位置より第1水平線を設定し、
前記第1水平線と前記顔の輪郭との第1交差点を設定し、
前記第1交差点と前記顔の鼻翼の最高点の位置とを結ぶ第10補助線を設定し、
前記顔の眉山の位置より垂直線を第11補助線として設定し、
前記顔の鼻の最下点の位置より第2水平線を設定し、
前記第2水平線と前記顔の輪郭との第2交差点を設定し、
前記第2交差点と前記鼻翼の最高点の位置とを結ぶ第12補助線を設定し、
前記第10補助線、前記第11補助線及び前記第12補助線により前記左側頬紅の化粧領域及び前記右側頬紅の化粧領域を形成することを特徴とする請求項10に記載の生体情報解析装置。
【請求項15】
前記処理部は、
前記左側頬紅の化粧領域の第1標準偏差(Standard Deviation, SD)及び前記右側頬紅の化粧領域の第2標準偏差を解析するように前記判断モジュールを制御し、
前記第1標準偏差及び前記第2標準偏差を所定の標準偏差と比較するか、前記第1標準偏差を前記第2標準偏差と比較して第2比較結果を生成するように前記比較モジュールを制御し、
前記表示モジュールに前記第2比較結果を表示させることを特徴とする請求項10に記載の生体情報解析装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、解析装置及び解析方法に関し、特に、生体情報解析装置及びその頬紅解析方法に関する。
【背景技術】
【0002】
化粧は女性にとってほぼ毎日不可欠なものとなっている。
通常、ユーザは鏡の前に座って化粧を施したり、スマートフォンやタブレットなどの装置のカメラ及びディスプレイを用いて化粧を施したりする。
【発明の概要】
【発明が解決しようとする課題】
【0003】
しかしながら、ユーザは、化粧肌を均一に仕上げるか否か、色が適切か否かなどを肉眼で視認する場合が多い。このため、化粧経験不足のユーザの一部は、化粧に時間がかかりすぎたり、化粧を上手に施すことができなかったりする問題を抱えていた。
【0004】
以上に鑑みて、本技術分野において、ユーザのスピード化粧や経験不足のユーザの綺麗な化粧の完成を効果的に支援可能な支援装置が求められている。
【0005】
従って、本発明の目的は、化粧時にユーザの頬紅位置の画像を解析してユーザを誘導し、ユーザが化粧を迅速かつ正確に施すのを支援可能な生体情報解析装置及びその頬紅解析方法を提供することである。
【課題を解決するための手段】
【0006】
上記目的を達成するために、本発明に係る生体情報解析装置に適用する頬紅解析方法は、前記生体情報解析装置の撮像モジュールにより外部画像を撮像するステップa)と、前記生体情報解析装置の処理部により前記外部画像から顔を識別した場合、前記顔の各パーツを位置合わせして前記顔が複数種類の顔型のうちの1つであることを判断するステップb)と、前記処理部により前記顔の顔型に応じて対応する位置合わせプログラムを実行し、前記顔から左側頬紅の化粧領域及び右側頬紅の化粧領域を探すステップc)と、前記処理部により前記左側頬紅の化粧領域の第1平均色値及び前記右側頬紅の化粧領域の第2平均色値を解析するステップd)と、前記第1平均色値及び前記第2平均色値を所定の色値と比較するか、または前記第1平均色値を前記第2平均色値と比較して、比較結果を生成するステップe)と、前記生体情報解析装置の表示モジュールにより前記比較結果を表示するステップf)と、を含む。
【0007】
また、本発明に係る生体情報解析装置は、外部画像を撮像するための撮像モジュールと、表示モジュールと、前記撮像モジュール及び前記表示モジュールに電気的に接続され、前記外部画像を識別し、前記外部画像から顔を識別した場合に前記顔の各パーツを位置合わせして前記顔が複数種類の顔型のうちの1つであることを判断する処理部と、を含む。前記処理部は、前記顔の顔型に応じて対応する位置合わせプログラムを実行して前記顔から左側頬紅の化粧領域及び右側頬紅の化粧領域を探した後、前記左側頬紅の化粧領域の第1平均色値及び前記右側頬紅の化粧領域の第2平均色値を解析し、前記第1平均色値及び前記第2平均色値を所定の色値と比較するか、または前記第1平均色値を前記第2平均色値と比較して、比較結果を生成する。前記表示モジュールは、前記比較結果を表示する。
【発明の効果】
【0008】
従来技術と比べると、本発明に係る生体情報解析装置及びその頬紅解析方法によれば、ユーザは化粧中に自分の顔の様子を目視することができるほか、頬紅位置の画像解析をそのまま得ることができ、その結果、化粧をより迅速かつ完全に施すことができる。
【図面の簡単な説明】
【0009】
図1】本発明の生体情報解析装置のシステムの構成の第1実施形態を示す図である。
図2】本発明の解析装置の第1実施形態を示す図である。
図3】本発明の解析装置の第2実施形態を示す図である。
図4】本発明の解析装置の第3実施形態を示すブロック図である。
図5】本発明の処理部の第1実施形態を示す図である。
図6A】本発明の第1実施形態の第1頬紅解析の流れを示すフローチャートである。
図6B】本発明の第1実施形態の第2頬紅解析の流れを示すフローチャートである。
図6C】本発明の第1実施形態の第3頬紅解析の流れを示すフローチャートである。
図7】顔の位置合わせを説明するための図である。
図8A】本発明の頬紅位置合わせの流れの第1実施形態を示すフローチャートである。
図8B】本発明の頬紅位置の第1実施形態を示す図である。
図9A】本発明の頬紅位置合わせの流れの第2実施形態を示すフローチャートである。
図9B】本発明の頬紅位置の第2実施形態を示す図である。
図10A】本発明の頬紅位置合わせの流れの第3実施形態を示すフローチャートである。
図10B】本発明の頬紅位置の第3実施形態を示す図である。
図11A】本発明の頬紅位置合わせの流れの第4実施形態を示すフローチャートである。
図11B】本発明の頬紅位置の第4実施形態を示す図である。
図12】本発明の所定数値の解析の流れの第1実施形態を示すフローチャートである。
図13】本発明の解析装置の第4実施形態を示す図である。
【発明を実施するための形態】
【0010】
以下、本発明の好適な実施形態について、図面を参照しつつ説明する。
【0011】
図1は、本発明の生体情報解析装置のシステムの構成の第1実施形態を示すシステム図である。本発明に係る生体情報解析装置(以下、解析装置1と称される)は、主に頬紅解析方法(以下、解析方法と称される)を実行し、ユーザによる迅速かつ正確な頬紅の塗布を支援する。
【0012】
一実施形態では、ユーザは、電子装置2を操作することで解析装置1を設定する。詳細には、解析装置1は、電子装置2と共に同じワイヤレスルータ3に接続すると、ワイヤレスルータ3を介して電子装置2に無線で接続可能である。また、解析装置1と電子装置2とは、他の無線通信プロトコル(例えば、ブルートゥース(登録商標)、Zigbee(登録商標)、RFなど)でペアリングしたり接続したりすることで、相互にデータ、指令及び信号を通信してもよい。
【0013】
図1に示すように、電子装置2内には、ソフトウェア21がインストールされている。詳細には、ソフトウェア21は、解析装置1と相互にサポート可能なソフトウェア21(例えば、解析装置1の製造メーカによって開発、提供されるソフトウェア)であってもよい。本発明では、ユーザは、ソフトウェア21を操作することで、解析装置1に対する様々な設定操作(例えば、顔情報の登録、様々な所定値の設定など)を完了することができる。
【0014】
一実施形態では、解析装置1は、区域におけるワイヤレスルータ3に接続され、ワイヤレスルータ3を介してインターネット4に接続されてもよい。こうすることで、解析装置1は、インターネット4を介してファームウェアのアップデート、データのアップロードやダウンロードなどの操作を行うことができる。また、解析装置1は、インターネット4を介してユーザの生体データを遠隔のコンピュータ装置(不図示)に送信し、これにより、ユーザが遠隔で確認したり、隔地保管の目的を実現したりできる。
【0015】
図2及び図3は、それぞれ本発明の解析装置の第1実施形態及び第2実施形態を示す図である。本発明に係る解析装置1は、主に、ユーザ5の寝室または化粧室に設置される。こうすることで、ユーザ5は、生体情報(例えば、顔部、首部、手部の皮膚状態)を容易に検出、解析し、解析装置1の支援によって化粧を施す。
【0016】
解析装置1は、ミラースクリーン11を有する。解析装置1は起動時に、ミラースクリーン11によりグラフィカル・ユーザ・インタフェース(Graphical User Interface, GUI)を表示し、GUIを介してユーザ5と対話することができる。一方、解析装置1は停止時に、ミラースクリーン11が単純にミラーとしてユーザ5の様子を反射してもよい。本発明では、主に解析装置1によりユーザ5の化粧動作を支援するため、ミラースクリーン11がユーザ5の様子を反映すると同時にGUIを表示することができる。こうすることで、解析装置1は、化粧中のユーザ5のメイクを解析するとともにユーザ5の化粧を支援する(詳細は後述する)。一実施形態では、ミラースクリーン11は、タッチスクリーンであってもよい。ユーザ5は、ミラースクリーン11により解析装置1にデータを入力してもよい。
【0017】
解析装置1は、角度を調整可能な撮像モジュール12をさらに含む。撮像モジュール12は、解析装置1に設置される。一実施形態では、撮像モジュール12は、ユーザ5の高解像度画像(例えば、顔画像、首画像、手画像など)を撮像することができる。解析装置1は、画像を用いてユーザ5の生体情報や化粧の進歩状況を解析することができる。他の実施形態では、撮像モジュール12は、外部の情報(例えば、一次元バーコード、二次元バーコードなど)を取得し、取得された情報の内容によって対応するデータを設定することができる。
【0018】
解析装置1は、複数のボタン13を有してもよい。本実施形態では、複数のボタン13は、実体のボタン(button)であってもよいし、タッチボタン(touch key)であってもよいが、これらに限定されない。ユーザ5は、ボタン13をトリガーにすることで上記GUIに対して操作(例えば、GUIを先頭頁や前の頁、次の頁などに戻す)を行ったり、対応する機能(例えば、ミラースクリーン11の起動、ミラースクリーン11の停止、撮像モジュール12の起動など)を迅速に実行するように解析装置1を制御したりできる。
【0019】
解析装置1は、1つ以上のセンサ14(例えば、温度センサ、湿度センサなど)を有してもよい。センサ14は、解析装置1の所在する環境の環境データを検出して、解析装置1によるユーザ5の生体情報の検出や解析の精度を高める。例えば、センサ14は、PIR(Pyroelectric Infrared Radial sensor:赤外線を感知)センサの場合、ユーザ5が解析装置1の動作領域に入ったことを随時に検出し、それに対応して待機モードから抜けるとともに、撮像モジュール12を起動してユーザ5の顔部の画像などを試し撮像して解析動作を開始する。
【0020】
一実施形態では、センサ14は、モーションセンサ(motion sensor)であってもよい。解析装置1は、モーションセンサでユーザ5の移動ジェスチャー(例えば、左への振り動作、右への振り動作、上への振り動作、下への振り動作、前方への押し動作または後方への引き動作など)を検出することができる。こうすることで、ユーザ5は、指紋が残らないように、上記ミラースクリーン11またはボタン13に触れることなく、ジェスチャーにより解析装置1にデータを入力することができる。
【0021】
図4は、本発明の解析装置の第3実施形態を示すブロック図である。図4に示すように、解析装置1は、主に処理部10、処理部10に電気的に接続される表示モジュール111、撮像モジュール12、入力インタフェース15及び無線伝送モジュール16を含む。
【0022】
一実施形態では、撮像モジュール12はカメラであり、外部画像を撮像して外部情報を取得する。解析装置1は、外部画像によりユーザを識別(例えば、顔識別、首識別、手識別など)することで、ユーザの顔、首、手などのパーツを解析することができる。また、解析装置1は、外部情報の内容によって対応する操作を行ってもよい。
【0023】
表示モジュール111は、上記GUIを表示する。一実施形態では、表示モジュール111は、ミラースクリーン11内に取り付けられる。表示モジュール111が有効な場合、表示モジュール111の光源は、ミラースクリーン11を透過してGUIをミラースクリーン11に表示する。表示モジュール111が無効な場合、ユーザは、ミラースクリーン11を通常のミラーとして使用することができる。一実施形態では、解析装置1が表示モジュール111の光源強度または表示領域を調整することで、ミラースクリーン11はユーザの画像を反射するとともにGUIを表示することができる。
【0024】
解析装置1は、入力インタフェース15を介して外部からのユーザの入力を受け付ける。これにより、ユーザは、GUIと対話したり、必要な設定操作を行ったりできる。一実施形態では、入力インタフェース15は、ユーザのジェスチャーによる入力を検出するための上記センサ14であってもよい。他の実施形態では、入力インタフェース15は、外部画像を撮像したり外部情報を取得したりするための上記撮像モジュール12であってもよい。別の実施形態では、入力インタフェース15は、ユーザの入力操作を受け付けるためのタッチスクリーンまたはボタン13であってもよい。もう1つの実施形態では、入力インタフェース15は、外部の音声を受け付けるためのマイクであってもよい。
【0025】
無線伝送モジュール16は、インターネット4に接続される。詳細には、ユーザは、インターネット4を介して遠隔から解析装置1へ接続され、解析装置1に記録されている様々な情報(例えば、生体情報)を随時に確認することができる。
【0026】
処理部10は、表示モジュール111、撮像モジュール12、入力インタフェース15及び無線伝送モジュール16に接続され、コンピュータで実行可能なプログラムコード(不図示)を含む。また、処理部10は、コンピュータで実行可能なプログラムコードを実行することで、本発明の解析方法を実現することができる。
【0027】
図5は、本発明の処理部の第1実施形態を示す図である。詳細には、処理部10は、主に上記コンピュータで実行可能なプログラムコードにより本発明の解析方法の各機能を実現する。また、上記コンピュータで実行可能なプログラムコードは、機能によって顔識別モジュール101、位置合わせモジュール102、判断モジュール103、解析モジュール104及び比較モジュール105に区分けられる。
【0028】
顔識別モジュール101は、撮像モジュール12によって撮像された外部画像を識別し、外部画像に顔があるか否かを判断する。
【0029】
位置合わせモジュール102は、アルゴリズムを用いて外部画像における顔を位置合わせし、顔の各パーツの位置を取得する。また、位置合わせモジュール102は、顔型をさらに判断する。
【0030】
判断モジュール103は、位置合わせモジュール102によって判断された顔型に応じて対応する位置合わせプログラムを実行し、顔から正確な頬紅位置を探す。
【0031】
解析モジュール104は、探し出された頬紅位置に対して画像解析を行い、ユーザの現在の頬紅の状況(左側頬紅の状況及び右側頬紅の状況、例えば、明度、色の分布などを含み)を取得する。
【0032】
比較モジュール105は、ユーザの現在の左側頬紅の状況を右側頬紅の状況と比較し、ユーザに比較結果(例えば、左側頬紅の色が右側頬紅の色より明るいこと、頬紅の色が不均一であることなど)を知らせ、ユーザによる化粧動作を支援する。
【0033】
他の実施形態では、比較モジュール105は、ユーザの左側頬紅を右側頬紅と比較せず、ユーザの現在の頬紅の状況を所定値と比較してもよい(後述する)。こうすることで、塗布された頬紅は好適なパターンになる(すなわち、ユーザによって選択されたパターンまたは解析装置の所定のパターンを満たす)。
【0034】
本実施形態では、位置合わせモジュール102は、位置合わせを完了した後、少なくとも楕円顔、丸顔、四角顔、面長顔、逆三角顔及び菱顔などの6種類の顔型を識別してもよいが、これらに限定されない。
【0035】
判断モジュール103は、顔が楕円顔であると識別された場合、第1位置合わせプログラムを実行し、顔から頬紅位置(左側頬紅の位置及び右側頬紅の位置を含む)を探す。また、判断モジュール103は、顔が丸顔または四角顔であると識別された場合、第2位置合わせプログラムを実行し、顔から頬紅位置を探す。また、判断モジュール103は、顔が面長顔であると識別された場合、第3位置合わせプログラムを実行し、顔から頬紅位置を探す。また、判断モジュール103は、顔が逆三角顔または菱顔であると識別された場合、第4位置合わせプログラムを実行し、顔から頬紅位置を探す。上述したのは本発明の複数の具体的な実施例にすぎず、本発明を制限するためのものではないことに理解されたい。
【0036】
ユーザが解析装置1に向かうと、解析装置1は撮像モジュール12によりユーザを含む外部画像を取得することができる。次に、解析装置1は、処理部10の顔識別モジュール101により外部画像から顔画像を抽出し、処理部10の位置合わせモジュール102により顔画像における顔型を識別する。次に、解析装置1は、処理部10の判断モジュール103により顔型に対応する位置合わせプログラムを実行し、顔画像から頬紅位置を探す。
【0037】
次に、解析装置1は、処理部10の解析モジュール104によりアルゴリズムを実行し、顔画像における左側頬紅の状況及び右側頬紅の状況を解析する。さらに、解析装置1は、処理部10の比較モジュール105により左側頬紅の状況を右側頬紅の状況と比較する。
【0038】
解析装置1は、比較を完了した後、ミラースクリーン11によりユーザの顔画像を反射するとともに、比較モジュール105による比較結果を表示モジュール111により表示する。こうすることで、ユーザは、ミラースクリーン11の顔画像及び比較結果により頬紅を塗布することができる。
【0039】
図6A図6B及び図6Cは、それぞれ本発明の第1実施形態の第1頬紅解析の流れ、第2頬紅解析の流れ及び第3の頬紅解析の流れを示すフローチャートである。図6A図6Cは、本発明の解析方法の各ステップを説明するためのものであり、主に図1図5に示す解析装置1に適用される。詳細には、本発明に係る解析装置1は、処理部10により上記コンピュータで実行可能なプログラムコード(すなわち、上記各機能モジュール101−105)を実行し、その結果、下記の各ステップを実現することができる。
【0040】
図6Aに示すように、本発明に係る解析装置1により上記解析方法を実行し、ユーザによる化粧動作を支援する。まず、ユーザは解析装置1を起動する(ステップS10)。一実施形態では、ユーザは、タッチスクリーンまたはボタン13をトリガーにすることで解析装置1を起動する。他の実施形態では、解析装置1が電源オン後に自動的に待機モードに入り、ユーザが撮像モジュール12またはセンサ14によってジェスチャーを入力して解析装置1を起動してもよいが、これに限定されない。
【0041】
詳細には、本発明に係る解析装置1は、異なる機能を提供するための異なるモードを有する。本実施形態では、解析装置1は起動後にユーザの化粧動作を支援する支援モードに自動的に入る。他の実施形態では、解析装置1は起動後に待機モードに入り、ユーザからの指令を受信した後に支援モードに入ってもよい。
【0042】
解析装置1の起動後に外部画像を撮像モジュール12により継続的に撮像する(ステップS12)。また、撮像された外部画像に顔があるか否かを処理部10により継続的に判断する(ステップS14)。一実施形態では、処理部10が撮像モジュール12から外部画像を取得するとともに、顔識別モジュール101が外部画像から顔を識別し、外部画像に顔があるか否かを判断する。
【0043】
解析装置1は、外部画像に顔がない場合、ステップS12及びステップS14を再実行し、外部画像を継続的に撮像、解析する。例えば、外部画像には、ベッド、扉、椅子などのもののみがあったり(すなわち、寝室に人がいないことを表す)、ユーザの身体または背中のみがあったり(すなわち、ユーザが化粧を施そうとしない)する場合、解析装置1は本発明の解析方法をアクティブに実行しないようになっている。
【0044】
図6Bに示すように、処理部10は識別後、外部画像に顔があると判断し、顔の各パーツ(主にユーザの五官)を位置合わせして顔の顔型を判断する(ステップS16)。一実施形態では、処理部10は、外部画像に顔があると判断した後、顔のサイズが特定の割合よりも大きい(例えば、外部画像の40%以上)か否かを判断する。さらに、処理部10は、顔のサイズが特定の割合よりも大きい場合のみに顔の各パーツを位置合わせして顔の顔型を判断する。
【0045】
一実施形態では、処理部10は、外部画像に顔があると判断した後、顔画像を上記位置合わせモジュール102に送信する。位置合わせモジュール102は、顔を位置合わせして顔型を識別する。本実施形態では、位置合わせモジュール102は、顔の各パーツの位置、割合などのパラメータに基づいて顔型を判断し、少なくとも楕円顔、丸顔、四角顔、面長顔、逆三角顔及び菱顔などの6種類の顔型を識別することができる。
【0046】
なお、本実施形態では、位置合わせモジュール102は、主にDlib Face Landmarkシステムにより顔の各パーツを位置合わせするが、これに限定されない。
【0047】
図7は、顔の位置合わせを説明するための図である。処理部10は、外部画像に顔があると識別した後、上記Dlib Face Landmarkシステムにより顔部51の画像を解析する。Dlib Face Landmarkシステムは、本技術領域において慣用技術であり、解析後に顔部51の画像に複数の位置合わせポイント6(例えば、198個の位置合わせポイントであってもよい)を生成する。こうすることで、Dlib Face Landmarkシステムは、複数の位置合わせポイント6の番号、形状、順序などの情報に基づき、顔部51の画像に各パーツの位置を決定し、位置合わせ操作を実現する。
【0048】
さらに、位置合わせモジュール102は、複数の位置合わせポイント6の位置に基づいて顔部51の各パーツの位置や割合関係を確認することで、顔部51の顔型を確認する。
【0049】
図6Bに戻る。ステップS16の後、処理部10は、上記顔がどの顔型に属するかを知り、顔型に応じて対応する位置合わせプログラムを用いて顔から頬紅位置を探すとともに、ユーザの現在の頬紅状況を解析する。本発明では、処理部10は、顔が楕円顔であると判断した場合に第1位置合わせプログラムを実行し、顔が丸顔または四角顔であると判断した場合に第2位置合わせプログラムを実行し、顔が面長顔であると判断した場合に第3位置合わせプログラムを実行し、顔が逆三角顔または菱顔であると判断した場合に第4位置合わせプログラムを実行する。
【0050】
第1実施形態では、処理部10は、識別後に生成される顔型情報を判断モジュール103に送信する。顔が楕円顔であると判断された場合、判断モジュール103は第1位置合わせプログラムを実行し、第1位置合わせプログラムにより顔から頬紅位置を探す(ステップS18)。本実施形態の頬紅位置は、顔の左側頬紅の位置及び右側頬紅の位置を含む。
【0051】
第2実施形態では、処理部10は、識別後に生成される顔型情報を判断モジュール103に送信する。顔が丸顔または四角顔であると判断された場合、判断モジュール103は第2位置合わせプログラムを実行し、第2位置合わせプログラムにより顔から頬紅位置を探す(ステップS20)。
【0052】
第3実施形態では、処理部10は、識別後に生成される顔型情報を判断モジュール103に送信する。顔が丸顔または面長顔であると判断された場合、判断モジュール103は第3位置合わせプログラムを実行し、第3位置合わせプログラムにより顔から頬紅位置を探す(ステップS22)。
【0053】
第4実施形態では、処理部10は、識別後に生成される顔型情報を判断モジュール103に送信する。顔が逆三角顔または菱顔であると判断された場合、判断モジュール103は第4位置合わせプログラムを実行し、第4位置合わせプログラムにより顔から頬紅位置を探す(ステップS24)。
【0054】
なお、本発明の1つの目的は、ユーザによる頬紅の塗布を支援することである。このため、頬紅位置を探し出した後、解析装置1は、表示モジュール111(及びミラースクリーン11)により顔画像及び頬紅位置の標示を選択的に表示可能であり(ステップS26)、頬紅位置の標示を顔画像と重ねる。こうすることで、ユーザは、ミラースクリーン11において頬紅の塗布位置をそのまま目視することができる。
【0055】
次に、図6Cに示すように、処理部10は、左側頬紅の画像及び右側頬紅の画像に基づいて、左側頬紅の第1平均色値及び右側頬紅の第2平均色値を解析する(ステップS28)。
【0056】
一実施形態では、処理部10は、ステップS18、ステップS20、ステップS22及びステップS24にて取得された頬紅位置に基づいて、顔画像から左側頬紅の画像及び右側頬紅の画像を取得するとともに、左側頬紅の画像及び右側頬紅の画像を解析モジュール104にそれぞれ送信する。解析モジュール104は、左側頬紅の第1平均色値及び右側頬紅の第2平均色値を解析する。本実施形態では、解析モジュール104は、関連技術の様々な画像解析アルゴリズムを用いて、左側頬紅の画像により第1平均色値を解析するとともに右側頬紅の画像により第2平均色値を解析する。
【0057】
詳細には、平均色値は、処理部10が取得された頬紅の画像を異なる色空間フォーマットによって表示、解析することで算出されてもよい。例えば、色空間フォーマットは、RGB色空間、HSV色空間、HSL色空間などであってもよいが、これらに限定されない。なお、処理部10の解析形態の必要に応じて、2種類の色空間フォーマットを同時に用いて表示・解析を行ってもよいし、成分を抽出して解析してもよい。
【0058】
例えば、カラー画像の色空間フォーマットがHSV色空間の場合、画像における各画素の色は「色相成分(Hue)」、「彩度成分(Saturation)」、「明度成分(Value)」によって表示される。カラー画像の色空間フォーマットがRGB色空間の場合、画像における各画素の色は「赤色成分(Red)」、「緑色成分(Green)」、「青色成分(Blue)」によって表示される。
【0059】
ステップS28の後、処理部10は、第1平均色値を第2平均色値と比較して比較結果を生成する(ステップS30)。一実施形態では、処理部10は、第1平均色値及び第2平均色値を比較モジュール105にそのまま送信する。比較モジュール105は、ユーザの現在の左側頬紅の状況と右側頬紅の状況とが同じであるか否か、または近似するか否か(色、明度が同じである否か、または近似するか否か)を判断する。こうすることで、ユーザによって塗布された頬紅を左右揃えることができる。
【0060】
他の実施形態では、処理部10は、所定の色値(左側頬紅に対応する所定の色値及び右側頬紅に対応する所定の色値を含む)を取得するとともに、ステップS30において、比較モジュール105により第1/第2平均色値を所定の色値と比較する。こうすることで、ユーザは、現在の頬紅の状況と所望の頬紅の状況(すなわち、所定の色値で表す状況)との違いを知ることができる。
【0061】
本実施形態では、処理部10は、所定の色値を予め記憶してもよく、ステップS30において、第1/第2平均色値を所定の色値と比較する。また、処理部10は、1つ以上の比較画像(例えば、拡張現実画像(Augmented Reality, AR))を予め記憶してもよく、ステップS30を実行する前に比較画像を解析して所定の色値を得る。次に、ステップS30では、処理部10は、第1/第2平均色値を所定の色値と比較する。
【0062】
他の実施形態では、ユーザは、解析装置1に予め記憶されている頬紅製品または頬紅効果を自ら選択したり、使用したい頬紅製品を自ら入力して対応する効果を解析装置1で自動的に生成したりできる。拡張現実画像とは、解析装置1が撮像モジュール12によりユーザの現在の画像を即時に取得し、ユーザが自ら選択した効果をユーザの頬紅位置の画像と重ねたものである。また、ユーザは、選択した効果を満足する場合、対応する効果及び拡張現実画像を解析装置1に記憶するように更に選択してもよい。
【0063】
詳細には、上記実施形態では、解析装置1が作動中に複数の拡張現実画像を組み入れ、ユーザが入力インタフェース15により複数の拡張現実画像から1つを比較画像として選択する。また、ユーザは、周辺機器またはインターネットにより、好きな比較画像を解析装置1に入力して記憶させる。こうすることで、比較画像の種類や数を増やすことができる。本実施形態では、比較画像は、主に各顔型に対応する顔画像である。
【0064】
上記所定の色値は、例えば、標準色または標準明度であってもよい。一実施形態では、所定の色値は、処理部10によって比較画像を解析して得られるものである。標準色及び標準明度は、比較画像における顔部分の画像で現される色及び明度である。他の実施形態では、所定の色値は、解析装置1に予め記録されている。標準色または標準明度は、ユーザによって予め設定された理想の色及び明度である。別の実施形態では、解析装置1は、インターネット4によりユーザに必要なメイクをダウンロードし、ダウンロードされるメイクに画像解析を行って所定の色値を生成する。
【0065】
ステップS30の後、解析装置1は、表示モジュール111により比較結果をミラースクリーン11に表示する(ステップS32)。これにより、ユーザは、ミラースクリーン11から現在の頬紅の状況(例えば、左側頬紅の明度が右側頬紅の明度よりも大きいことや、右側頬紅の明度が標準明度よりも大きいことなど)をそのまま目視することができる。その結果、解析装置1による化粧支援を実現することができる。
【0066】
一実施形態では、第1平均色値、第2平均色値及び所定の色値が0から255の画素値であり、比較結果が%で表される。比較モジュール105は、下式(1)または下式(2)で比較結果を算出する。
【0067】
【数1】
【0068】
【数2】
上述したのは本発明の複数の具体的な実施例にすぎず、本発明を制限するためのものではないことに理解されたい。
【0069】
一実施形態では、処理部10は、左側頬紅の画像及び右側頬紅の画像に基づいて左側頬紅の第1標準偏差(Standard Deviation, SD)及び右側頬紅の第2標準偏差を解析する(ステップS34)。
【0070】
一実施形態では、処理部10は、左側頬紅の画像及び右側頬紅の画像を解析モジュール104に送信する。解析モジュール104は、第1標準偏差及び第2標準偏差を解析する。同様に、解析モジュール104は、関連技術の様々な画像解析アルゴリズムを用いて、左側頬紅の画像により第1標準偏差を解析するとともに右側頬紅の画像により第2標準偏差を解析する。
【0071】
ステップS34の後、処理部10は、第1標準偏差を第2標準偏差と比較して第2比較結果を生成する(ステップS36)。一実施形態では、処理部10は、第1標準偏差及び第2標準偏差を比較モジュール105にそのまま送信する。比較モジュール105は、ユーザの現在の左側頬紅の塗布状態と右側頬紅の塗布状態とが同じであるか否か、または近似するか否か(塗布が均一であるか否か)を判断する。
【0072】
他の実施形態では、処理部10は、解析モジュール104により比較画像を解析して所定の標準偏差(左側頬紅に対応する所定の標準偏差及び右側頬紅に対応する所定の標準偏差を含む)を得るとともに、比較モジュール105により第1/第2標準偏差を所定の標準偏差と比較して第2比較結果を生成する。
【0073】
他の実施形態では、処理部10は、比較モジュール105により所定の標準偏差を予め記憶し、ステップS34の後に第1標準偏差、第2標準偏差を比較モジュール105に送信する。こうすることで、比較モジュール105は、第1/第2標準偏差を予め記憶されている所定の標準偏差と比較して第2比較結果を生成する。
【0074】
ステップS36の後、解析装置1は、表示モジュール111により第2比較結果をミラースクリーン11に表示する(ステップS38)。これにより、ユーザは、現在の頬紅の状況が不均一であるか否かをそのまま目視することができ、さらなる補修を行うこともできる。
【0075】
なお、ステップS28〜ステップS32及びステップS34〜ステップS38の実行順番は一定ではないことを理解されたい。すなわち、解析装置1は、比較結果または第2比較結果を先に計算して表示してもよいし、複数の処理によって比較結果及び第2比較結果を同時に計算して表示してもよいが、図6Cで示されるステップの順番に限定されない。
【0076】
一実施形態では、標準偏差は平均色値と類似し、0〜255の画素値であってもよい。また、第2比較結果は、比較結果と類似し、%で表されてもよい。本実施形態では、比較モジュール105は、下式(3)または下式(4)で第2比較結果を算出する。
【0077】
【数3】
【0078】
【数4】
上述したのは本発明の複数の具体的な実施例にすぎず、本発明を制限するためのものではないことに理解されたい。
【0079】
次に、解析装置1は、今回の支援動作を完了したか否かを判断する(ステップS40)。また、解析装置1は、支援動作を完了する前にステップS18〜ステップS38を繰り返し実行し、これにより、左側頬紅及び右側頬紅の位置や画像を継続的に取得し、第1平均色値、第2平均色値、第1標準偏差及び第2標準偏差を継続的に解析して比較するとともに、比較結果及び第2比較結果を生成して表示する。解析装置1は、今回の支援動作を完了したと判断すると、今回の解析を終了する。ステップS18〜ステップS38を繰り返し実行すると、本発明の解析装置1及びその解析方法によるリアルタイム(real time)の化粧支援機能を実現することができる。
【0080】
例えば、解析装置1は、ユーザの顔部51を解析し、表示される比較結果により、ユーザの左側頬紅の色が右側頬紅の色よりも5%暗いことが見られる。ユーザは比較結果に基づいて、左側頬紅を補修してもよい。ユーザが補修を行いながら、解析装置1はユーザの顔部51を継続的に解析して比較結果を補正し、ユーザの左側頬紅の色が右側頬紅の色よりも3%暗いことを表示する。
【0081】
ユーザは、上記比較結果により、左側頬紅を続けて補修してもよい。また、解析装置1は、ユーザの顔部51を継続的に解析する。次に、解析装置1は、比較結果を再補正し、ユーザの左側頬紅の色が右側頬紅の色よりも1.5%暗いことを表示する。このようなことを繰り返すと、ユーザは、左側頬紅の明度と右側頬紅の明度とが同じであるかまたは近似するまで、頬紅を継続的に補修してもよい。
【0082】
一実施形態において、ステップS40では、解析装置1は比較結果(及び第2比較結果)が化粧完了基準を満たすか否かを判断する。例えば、解析装置1は、上記比較結果及び第2比較結果に基づいて、第1平均色値が第2平均色値に等しいか否かまたは近似するか否かを判断するほか、第1標準偏差が第2標準偏差に等しいか否かまたは近似するか否かを判断する。また、解析装置1は、第1平均色値が第2平均色値に等しいまたは近似する場合、かつ第1標準偏差が第2標準偏差に等しいまたは近似する場合、比較結果(及び第2比較結果)がメイク完成標準を満たすと判断する。
【0083】
他の実施形態において、ステップS40では、解析装置1はシャットダウンしたか否かを判断する。本実施形態において、解析装置1は、シャットダウンする前にステップS18〜ステップS38を繰り返し実行するとともに、シャットダウンした後に今回の解析を終了する。こうすることで、解析装置1は、起動後に化粧支援機能を一連に実現することができる。
【0084】
図8Aは、本発明の頬紅位置合わせの流れの第1実施形態を示すフローチャートである。図8Bは、本発明の頬紅位置の第1実施形態を示す図である。ステップS16においてユーザの顔型が楕円顔であると位置合わせモジュール102が判断した後、ステップS18において判断モジュール103が第1位置合わせプログラムにより頬紅位置をどのように探すかについて図8Aを用いて説明する。詳細には、第1位置合わせプログラムは、処理部10に記録されているコンピュータで実行可能なプログラムコードから構成される。判断モジュール103が第1位置合わせプログラムを実行した場合には、図8Aに示す各ステップを実行するようになっている。
【0085】
以下、第1位置合わせプログラムについて図8Bに合わせて説明する。
【0086】
まず、判断モジュール103は、顔の目の下縁の位置より第1水平線71を設定し(ステップS180)、第1水平線71と顔の輪郭との第1交差点61を設定する(ステップS182)。詳細には、第1交差点61は、第1水平線71と顔の左側輪郭との交差点、及び第1水平線71と顔の右側輪郭との交差点を含む。
【0087】
次に、判断モジュール103は、第1交差点61と顔の口角の位置81とを結ぶ第1補助線91を設定する(ステップS184)。詳細には、第1補助線91は、左側第1交差点と左側の口角とを結ぶ補助線、及び右側第1交差点と右側の口角とを結ぶ補助線を含む。
【0088】
次に、判断モジュール103は、口角の位置81より第2水平線72を設定する(ステップS186)。なお、第2水平線72は、顔の左側の口角及び顔の右側の口角と平行になる。また、判断モジュール103は、第2水平線72と顔の輪郭との第2交差点62を設定する(ステップS188)。詳細には、第2交差点62は、第2水平線72と顔の左側の輪郭との交差点、及び第2水平線72と顔の右側の輪郭との交差点を含む。
【0089】
次に、判断モジュール103は、第2交差点と顔の下まぶたの中点の位置82とを結ぶ第2補助線92を設定する(ステップS190)。詳細には、第2補助線92は、左側第2交差点と左側下まぶたを結ぶ補助線、及び右側第2交差点と右側下まぶたを結ぶ補助線を含む。
【0090】
最後に、判断モジュール103は、顔の鼻の最下点の位置83より第3水平線を第3補助線93として設定する(ステップS192)。詳細には、第3補助線93は、鼻より左向きに延びる補助線、及び鼻より右向きに延びる補助線を含む。こうすることで、判断モジュール103は、第1補助線91、第2補助線92及び第3補助線93により顔において頬紅位置A1を形成する(ステップS194)。
【0091】
詳細には、本実施形態では、頬紅位置A1は、左側に位置する第1補助線91、第2補助線92及び第3補助線93により形成される左側の頬紅位置A1、及び右側に位置する第1補助線91、第2補助線92及び第3補助線93により形成される右側の頬紅位置A1を含む。より詳細には、頬紅位置A1は、第1補助線91、第2補助線92、第3補助線93及び顔の輪郭により囲まれた領域である。
【0092】
図9Aは、本発明の頬紅位置合わせの流れの第2実施形態を示すフローチャートである。図9Bは、本発明の頬紅位置の第2実施形態を示す図である。ステップS16においてユーザの顔型が丸顔または四角顔であると位置合わせモジュール102が判断した後、ステップS20において判断モジュール103が第2位置合わせプログラムにより顔から頬紅位置をどのように探すかについて図9Aを用いて説明する。詳細には、第2位置合わせプログラムは、処理部10に記録されているコンピュータで実行可能なプログラムコードから構成される。判断モジュール103が第2位置合わせプログラムを実行した場合には、図9Aに示す各ステップを実行するようになっている。
【0093】
以下、第2位置合わせプログラムについて図9Bに合わせて説明する。
【0094】
まず、判断モジュール103は、顔の鼻の最下点の位置83より第1水平線71を設定する(ステップS200)。次に、判断モジュール103は、顔の目の下縁の位置より第2水平線72を設定し(ステップS202)、第2水平線72と顔の輪郭との第1交差点61を設定する(ステップS204)。詳細には、第1交差点61は、第2水平線72と顔の左側輪郭との交差点、及び第2水平線72と顔の右側輪郭との交差点を含む。
【0095】
次に、判断モジュール103は、第1交差点61と顔の鼻翼の最高点の位置84とを結ぶ第4補助線94を設定する(ステップS206)。詳細には、第4補助線94は、左側第1交差点と左側鼻翼とを結ぶ補助線、及び右側第1交差点と右側鼻翼とを結ぶ補助線を含む。
【0096】
次に、判断モジュール103は、第4補助線94と第1水平線71との交差位置まで第4補助線94を下方へ平行移動させて第5補助線95を設定する(ステップS208)。詳細には、第5補助線95は、左側の第4補助線94が下方へ平行移動して生成される補助線、及び右側の第4補助線94が下方へ平行移動して生成される補助線を含む。
【0097】
最後に、判断モジュール103は、顔の口角の位置81より垂直線を第6補助線96として設定する(ステップS210)。詳細には、第6補助線96は、左側口角より垂直に設定される補助線、及び右側口角より垂直に設定される補助線を含む。こうすることで、判断モジュール103は、第4補助線94、第5補助線95及び第6補助線96により顔において頬紅位置A2を形成する(ステップS212)。
【0098】
詳細には、本実施形態では、頬紅位置A2は、左側に位置する第4補助線94、第5補助線95及び第6補助線96により形成される左側の頬紅位置A2、及び右側に位置する第4補助線94、第5補助線95及び第6補助線96により形成される右側の頬紅位置A2を含む。より詳細には、頬紅位置A2は、第4補助線94、第5補助線95、第6補助線96及び顔の輪郭により囲まれた領域である。
【0099】
図10Aは、本発明の頬紅位置合わせの流れの第3実施形態を示すフローチャートである。図10Bは、本発明の頬紅位置の第3実施形態を示す図である。ステップS16においてユーザの顔型が面長顔であると位置合わせモジュール102が判断した後、ステップS22において判断モジュール103が第3位置合わせプログラムにより顔から頬紅位置をどのように探すかについて図10Aを用いて説明する。詳細には、第3位置合わせプログラムは、処理部10に記録されているコンピュータで実行可能なプログラムコードから構成される。判断モジュール103が第3位置合わせプログラムを実行した場合には、図10Aに示す各ステップを実行するようになっている。
【0100】
以下、第3位置合わせプログラムについて図10Bに合わせて説明する。
【0101】
まず、判断モジュール103は、顔の目の下縁の位置より第1水平線を第7補助線97として設定する(ステップS220)。詳細には、第7補助線97は、左目の下縁から左向きに延びる補助線、及び右目の下縁から右向きに延びる補助線を含む。次に、判断モジュール103は、顔の鼻翼の最高点の位置84より第2水平線を第8補助線98として設定する(ステップS222)。詳細には、第8補助線98は、左側鼻翼から左向きに延びる補助線、及び右側鼻翼から右向きに延びる補助線を含む。
【0102】
次に、判断モジュール103は、顔の鼻翼の外側の位置85より垂直線を第9補助線99として設定する(ステップS224)。詳細には、第9補助線99は、左側鼻翼より垂直に設定される補助線、及び右側鼻翼より垂直に設定される補助線を含む。こうすることで、判断モジュール103は、第7補助線97、第8補助線98及び第9補助線99により顔に頬紅位置A3を形成する(ステップS226)。
【0103】
詳細には、本実施形態では、頬紅位置A3は、左側に位置する第7補助線97、第8補助線98及び第9補助線99により形成される左側の頬紅位置A3、及び右側に位置する第7補助線97、第8補助線98及び第9補助線99により形成される右側の頬紅位置A3を含む。より詳細には、頬紅位置A3は、第7補助線97、第8補助線98、第9補助線99及び顔の輪郭により囲まれた領域である。
【0104】
図11Aは、本発明の頬紅位置合わせの流れの第4実施形態を示すフローチャートである。図11Bは、本発明の頬紅位置の第4実施形態を示す図である。ステップS16においてユーザの顔型が逆三角顔または菱顔であると位置合わせモジュール102が判断した後、ステップS24において判断モジュール103が第4位置合わせプログラムにより顔から頬紅位置をどのように探すかについて図11Aを用いて説明する。詳細には、第4位置合わせプログラムは、処理部10に記録されているコンピュータで実行可能なプログラムコードから構成される。判断モジュール103が第4位置合わせプログラムを実行した場合には、図11Aに示す各ステップを実行するようになっている。
【0105】
以下、第4位置合わせプログラムについて図11Bに合わせて説明する。
【0106】
まず、判断モジュール103は、顔の目の下縁の位置より第1水平線71を設定し(ステップS240)、第1水平線71と顔の輪郭との第1交差点61を設定する(ステップS242)。詳細には、第1交差点61は、第1水平線71と顔の左側輪郭との交差点、及び第1水平線71と顔の右側輪郭との交差点を含む。
【0107】
次に、判断モジュール103は、第1交差点61と顔の鼻翼の最高点の位置84とを結ぶ第10補助線910を設定する(ステップS244)。詳細には、第10補助線910は、左側第1交差点と左側鼻翼とを結ぶ補助線、及び右側第1交差点と右側鼻翼とを結ぶ補助線を含む。
【0108】
次に、判断モジュール103は、顔の眉山の位置86より垂直線を第11補助線911として設定する(ステップS246)。詳細には、第11補助線911は、左側眉山より垂直に設定される補助線、及び右側眉山より垂直に設定される補助線を含む。
【0109】
次に、判断モジュール103は、顔の鼻の最下点の位置83より第2水平線72を設定し(ステップS248)、第2水平線72と顔の輪郭との第2交差点62を設定する(ステップS250)。詳細には、第2交差点62は、第2水平線72と顔の左側輪郭との交差点、及び第2水平線72と顔の右側輪郭との交差点を含む。
【0110】
次に、判断モジュール103は、第2交差点62と鼻翼の最高点の位置84とを結ぶ第12補助線912を設定する(ステップS252)。詳細には、第12補助線912は、左側第2交差点と左側鼻翼とを結ぶ補助線、及び右側第2交差点と右側鼻翼とを結ぶ補助線を含む。こうすることで、判断モジュール103は、第10補助線910、第11補助線911及び第12補助線912により顔に頬紅位置A4を形成する(ステップS254)。
【0111】
詳細には、本実施形態では、頬紅位置A4は、左側に位置する第10補助線910、第11補助線911及び第12補助線912により形成される左側の頬紅位置A4、及び右側に位置する第10補助線910、第11補助線911及び第12補助線912により形成される右側の頬紅位置A4を含む。より詳細には、頬紅位置A4は、第10補助線910、第11補助線911、第12補助線912及び顔の輪郭により囲まれた領域である。
【0112】
処理部10が頬紅位置A1〜A4から1つを探し出した後、解析装置1は、ステップS26を続けて実行し、ミラースクリーン11に顔及び頬紅位置A1〜A4の標示を表示し、頬紅の状況をさらに解析して比較する。
【0113】
上述したように、本発明では、解析装置1の処理部10は、ユーザの左側頬紅を右側頬紅とそのまま比較してもよいし、ユーザの頬紅(左側頬紅及び右側頬紅を含む)を、予め記憶されている所定のデータまたは選択された比較画像(例えば、拡張現実画像)と比較してもよい。
【0114】
図12は、本発明の所定数値の解析の流れの第1実施形態を示すフローチャートである。上記所定の色値及び所定の標準偏差については、図12を用いてより詳しく説明する。
【0115】
本実施形態では、解析装置1は、処理部10により予め記憶されている複数の比較画像から1つを読み取る(ステップS50)。次に、位置合わせモジュール102は、選択された比較画像を位置合わせして解析する。次に、判断モジュール103は、比較画像から左側頬紅の画像及び右側頬紅の画像を取得する(ステップS52)。
【0116】
次に、処理部10は、解析モジュール104により左側頬紅の画像及び右側頬紅の画像を解析し、左側頬紅の平均色値及び右側頬紅の平均色値を上記所定の色値として取得する(ステップS54)。また、処理部10は、解析モジュール104により左側頬紅及び右側頬紅の標準偏差を上記所定の標準偏差として取得する(ステップS56)。本実施形態では、解析モジュール104は、関連技術の1つ以上の画像解析アルゴリズムを用いて、左側頬紅の画像及び右側頬紅の画像により所定の色値及び所定の標準偏差を解析する。
【0117】
本発明の一実施形態では、ユーザは化粧前に、解析装置1を操作して複数の比較画像を表示モジュール111に表示させ、入力インタフェース15により複数の比較画像から1つを選択する。こうすることで、ユーザは化粧前に、頬紅を塗布した後の様子を確認するために選択された比較画像をミラースクリーン11で目視ことができるとともに、現在表示される比較画像を利用するか否かを決定する。このように、解析装置1は、上記支援モードにおいてユーザの現在の頬紅を選択された比較画像と比較し、ユーザが比較画像と同様の頬紅を迅速に完成するのを支援する。
【0118】
図13は、本発明の解析装置の第4実施形態を示す図である。上述したように、本発明の解析装置1は、ユーザ5の顔画像を即時に撮像してユーザ5の現在の左側頬紅を右側頬紅と比較するとともに、比較結果をミラースクリーン11の情報表示領域1111に表示する。解析装置1は、ユーザの現在の頬紅状況を比較画像110と比較する場合、選択された比較画像110をミラースクリーン11の画像表示領域1112、1113にさらに表示し、これにより、ユーザが頬紅を塗布した後の様子を確認することができる。
【0119】
詳細には、解析装置1は、複数の比較画像から、ユーザ5によって選択された比較画像110を読み取り、処理(例えば、拡大処理)を行った後、画像表示領域1112、1113に比較画像110を完全に表示したり、比較画像110における左側頬紅の位置画像/右側頬紅の位置のアップを局部的に表示したりするように表示モジュール111を制御する。
【0120】
図13に示すように、ミラースクリーン11には、情報表示領域1111がさらに設定される。解析装置1は、上記比較結果(及び第2比較結果)をミラースクリーン11の情報表示領域1111に表示するように表示モジュール111を制御することが可能である。
【0121】
本実施形態では、ユーザ5は、ミラースクリーン11により自分の顔の反射画像を見ることができるほか、情報表示領域1111により現在の左側頬紅及び右側頬紅の色や分布状況が同じまたは近似するか否かを視認することができる。
【0122】
例えば、図13の実施形態では、比較結果により、現在の左側頬紅の明度が右側頬紅の明度よりも2%低く、現在の左側頬紅及び右側頬紅の色分布率が均一であるため、再調整が不要であることが表される。こうすることで、解析装置1は、ユーザ5による頬紅の塗布を効果的に支援することができ、ユーザ5の化粧スピードを高めて化粧効果を改善することができる。
【0123】
本発明に係る解析装置1及び解析方法によれば、ユーザ5は化粧中に、ミラースクリーン11により自分の顔の様子を目視することができるほか、頬紅位置の画像解析をそのまま得ることができ、その結果、化粧をより迅速かつ完全に施すことができる。
【0124】
以上、本発明の好ましい実施形態を挙げて説明したが、これは本発明の実施形態の一例に過ぎない。説明した実施形態は、本発明の範囲を限定するものではないことが理解されたい。当業者であれば本発明の概念又は技術的思想を含む各種の変動や交換は、本発明の保護を探す範囲内に属するものである。
【符号の説明】
【0125】
1 生体情報解析装置
10 処理部
101 顔識別モジュール
102 位置合わせモジュール
103 判断モジュール
104 解析モジュール
105 比較モジュール
11 ミラースクリーン
110 比較画像
111 表示モジュール
1111 情報表示領域
1112、1113 画像表示領域
12 撮像モジュール
13 ボタン
14 センサ
15 入力インタフェース
16 無線伝送モジュール
2 電子装置
21 ソフトウェア
3 ワイヤレスルータ
4 インターネット
5 ユーザ
51 顔部
6 位置合わせポイント
61 第1交差点
62 第2交差点
63 第3交差点
71 第1水平線
72 第2水平線
81 口角の位置
82 下まぶたの中点の位置
83 鼻の最下点の位置
84 鼻翼の最高点の位置
85 鼻翼の外側の位置
86 眉山の位置
91 第1補助線
92 第2補助線
93 第3補助線
94 第4補助線
95 第5補助線
96 第6補助線
97 第7補助線
98 第8補助線
99 第9補助線
910 第10補助線
911 第11補助線
912 第12補助線
A1、A2、A3、A4 頬紅位置
S10〜S40 解析ステップ
S180〜S194 位置合わせステップ
S200〜S212 位置合わせステップ
S220〜S226 位置合わせステップ
S240〜S254 位置合わせステップ
S50〜S56 解析ステップ
図1
図2
図3
図4
図5
図6A
図6B
図6C
図7
図8A
図8B
図9A
図9B
図10A
図10B
図11A
図11B
図12
図13