IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 宍戸 知行の特許一覧 ▶ 徳重 大輔の特許一覧

特許7505714褥瘡痕を含む皮膚のAI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル
<>
  • 特許-褥瘡痕を含む皮膚のAI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル 図1
  • 特許-褥瘡痕を含む皮膚のAI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル 図2
  • 特許-褥瘡痕を含む皮膚のAI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル 図3
  • 特許-褥瘡痕を含む皮膚のAI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル 図4
  • 特許-褥瘡痕を含む皮膚のAI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル 図5
  • 特許-褥瘡痕を含む皮膚のAI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル 図6
  • 特許-褥瘡痕を含む皮膚のAI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-06-17
(45)【発行日】2024-06-25
(54)【発明の名称】褥瘡痕を含む皮膚のAI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル
(51)【国際特許分類】
   A61B 5/00 20060101AFI20240618BHJP
   G06T 7/00 20170101ALI20240618BHJP
【FI】
A61B5/00 M
G06T7/00 350C
【請求項の数】 9
(21)【出願番号】P 2022076804
(22)【出願日】2022-05-08
(65)【公開番号】P2023166041
(43)【公開日】2023-11-20
【審査請求日】2022-10-08
【審判番号】
【審判請求日】2023-05-16
【早期審査対象出願】
(73)【特許権者】
【識別番号】318015644
【氏名又は名称】宍戸 知行
(73)【特許権者】
【識別番号】321003201
【氏名又は名称】徳重 大輔
(74)【代理人】
【識別番号】100125988
【弁理士】
【氏名又は名称】宍戸 知行
(72)【発明者】
【氏名】宍戸 知行
(72)【発明者】
【氏名】小野 靖弘
(72)【発明者】
【氏名】徳重 大輔
【合議体】
【審判長】石井 哲
【審判官】萩田 裕介
【審判官】松本 隆彦
(56)【参考文献】
【文献】米国特許出願公開第2019/0366119(US,A1)
【文献】中国特許出願公開第111166290(CN,A)
【文献】中国特許出願公開第104299011(CN,A)
【文献】特開2012-249917(JP,A)
【文献】中国特許出願公開第107692997(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 5/00-5/22
(57)【特許請求の範囲】
【請求項1】
AI肌解析方法であって、コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力工程と、
前記肌を含む画像から一又は複数のスキンユニットをAIで同定する同定工程と、
前記スキンユニット内の一又は複数の特徴を解析する解析工程と、
前記解析の結果を表示する表示制御工程と、を含み、
前記スキンユニットは、AIモデルで直接的に推論した結果の皮膚領域であ
前記一又は複数のスキンユニットが身体部位に特異的で、
前記身体部位が褥瘡痕のある臀部および/または足首の皮膚領域も含む、AI肌解析方法。
【請求項2】
前記スキンユニット内の前記一又は複数の特徴がAIモデルを利用して同定される、請求項1に記載の方法。
【請求項3】
前記一又は複数の特徴が、シミ数、毛穴数、角層水分量、肌荒れSU見た目グレード、透明感SU見た目グレード、シミSU見た目グレード、くすみSU見た目グレード、赤むらSU見た目グレード、ニキビSU見た目グレード、毛穴の開きSU見た目グレード、毛穴の黒ずみSU見た目グレード、キメの粗さSU見た目グレード、シワSU見た目グレード、およびハリSU見た目グレードからなる群より選択される一又は複数の特徴である、請求項1に記載の方法
【請求項4】
前記一又は複数の特徴が角層水分量であり、前記角層水分量が可視光画像データから推測される、請求項1に記載の方法。
【請求項5】
前記角層水分量が分類タイプのAIモデルで処理することにより推測される、請求項4に記載の方法。
【請求項6】
コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力部と、
一又は複数のスキンユニットをAIで同定する同定部と、
前記スキンユニット内の一又は複数の特徴を解析する解析部と、
前記解析の結果を表示する表示制御部と、を含み、
前記スキンユニットは、AIモデルで直接的に推論した結果の皮膚領域であ
前記一又は複数のスキンユニットが身体部位に特異的で、
前記身体部位が褥瘡痕のある臀部および/または足首の皮膚領域も含む、AI肌解析装置。
【請求項7】
コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力部と、
一又は複数のスキンユニットをAIで同定する同定部と、
前記スキンユニット内の一又は複数の特徴を解析する解析部と、
前記解析の結果を表示する表示制御部と、を含み、
前記スキンユニットは、AIモデルで直接的に推論した結果の皮膚領域であ
前記一又は複数のスキンユニットが身体部位に特異的で、
前記身体部位が褥瘡痕のある臀部および/または足首の皮膚領域も含む、AI肌解析システム。
【請求項8】
肌を含む画像データを入力する入力層と、
ニューラルネットワークからなり入力データを処理する中間層と、
一又は複数のスキンユニットを出力する出力層と、を含み、
請求項1、6、または7に記載の方法、装置、またはシステムで使用される学習済みスキンユニット同定AIモデル。
【請求項9】
入力された肌を含む画像データに対応する一又は複数のスキンユニットを出力するよう、コンピュータを機能させるための、請求項8に記載の学習済みスキンユニット同定AIモデル。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、AI肌解析方法、装置、またはシステム、およびスキンユニット同定AIモデル訓練方法または肌特徴解析AIモデル訓練方法、並びに学習済みスキンユニット同定AIモデルまたは学習済み肌特徴解析AIモデルに関する。
【背景技術】
【0002】
皮膚の画像を解析して情報を得ることは美容分野だけでなく、メディカル用途にも広く応用されている。皮膚の検査目的の各種医療機器が知られている。
【0003】
特許文献1は、医療用皮膚検査装置に関し、「皮膚病変を診断する医療用皮膚検査装置であって、ダーモスコープを介して撮影されたダーモスコピー構造物に係るオリジナルな第1の皮膚画像を保存する第一保存部と、前記第1の皮膚画像に高ダイナミックレンジ(HDR)を適用して、前記ダーモスコピー構造物をクリアーで目立たせた第2の皮膚画像を得る画像変換部と、前記第2の皮膚画像を保存する第二保存部と、制御を実行して前記第1の皮膚画像と前記第二の皮膚画像の少なくとも一つを表示する表示制御部とを備えることを特徴とする医療用皮膚検査装置」を開示する。
【0004】
また、皮膚画像の解析には最近はAIモデルを使用する方法が取り入れられている。
特許文献2は、様々な型の皮膚病変の検出と分類のためのシステム、方法、装置、およびコンピュータープログラム製品に関し、AIを利用して様々な型の皮膚病変の検出と分類を行う。請求項1は「皮膚病変を検出および分類するための皮膚異常の画像データを使用する方法であって、ユーザーの皮膚異常の画像を受信し、前記皮膚異常の前記画像は複数の検証済み皮膚病変画像を含む既存の訓練セット由来の訓練データセットを使用し学習された人工知能(AI)モデルへの入力として使用可能であり、二値化分類器を前記皮膚異常の前記画像に適用して、前記皮膚異常の前記画像が皮膚病変を示す十分なデータを含むかどうかを決定する工程等」を含む。
【0005】
従来、皮膚解析は医用だけでなく、美容分野で広く研究がなされてきた。特にSU見た目グレードに関しては訓練されたエキスパートに代替する機械的手法が開発されている。
特許文献3は、皮膚の透明感評価方法に関し、「皮膚表面にP偏光を入射させてS偏光成分の反射光を受光するとともに、皮膚表面にS偏光を入射させてP偏光成分の反射光を受光し、得られる該S偏光成分および該P偏光成分の2つの反射光の反射率の合計値に基づいて皮膚の透明感を評価することを特徴とする美容のための皮膚の透明感評価方法」を開示する。
【0006】
特許文献4はしみ・そばかす評価方法に関し、「対象となる皮膚領域のしみ・そばかすを美容上の観点から評価するしみ・そばかす評価方法であって、該皮膚領域のなかで最も目立つしみ・そばかすを特定し、該特定したしみ・そばかすを機器を用いて定量化した色情報データに基づいて、該皮膚領域全体のしみ・そばかすの目立ち程度を判定することを特徴とするしみ・そばかす評価方法」を開示する。
【0007】
また、皮膚解析においては、皮膚の角層水分量を推定するやり方が研究され、近赤外線画像を利用する方法が開発されている。
特許文献5は、唇部分の皮膚の水分量を効果的に測定できる方法および装置に関し、「被検者の唇の皮膚の水分量を定測定する方法であって、近赤外領域おいて撮影された前記被検者の唇を含む顔画像を取得する顔画像取得ステップと、前記顔画像取得影ステップにより取得した前記顔画像から前記被検者の唇の特定の測定領域を抽出する測定領域抽出ステップと、前記測定領域において計測された信号強度の平均値に基づき、前記被検者の唇の皮膚の水分量を定量する定量ステップとを含む、方法」を開示する。
【0008】
さらに現在、スマホで簡単に高精度な肌診断ができるアプリや技術が開示されている(非特許文献1、特許文献6)。また、各化粧品会社はヒトの感性も学習した肌評価AIを開示する(例、「Kirei肌AI」(非特許文献2)(花王株式会社)、「肌パシャ」(非特許文献3)(資生堂))。さらにまた、「化粧ノリの色彩度合いをai判断で画像に表示する計測方法」も開示されている(特許文献7)。
【先行技術文献】
【特許文献】
【0009】
【文献】米国出願公開第2015/0221087号公報
【文献】米国出願公開第2021/0118133号公報
【文献】特許第4105554号
【文献】特許第3734741号
【文献】特開2021-171365号公報
【文献】特許第6947460号
【文献】特許第6616541号
【非特許文献】
【0010】
【文献】https://aismiley.co.jp/ai_news/novera-develops-highly-accurate-skin-diagnostic-function/
【文献】https://www.toonippo.co.jp/articles/-/785622
【文献】https://www.shiseido.co.jp/sw/hadapasha/pc.html
【発明の概要】
【発明が解決しようとする課題】
【0011】
しかしながら、上記技術では規格化された皮膚ユニットを同定し、その皮膚ユニット内の情報を解析する思想や技術は開示されていない。
【0012】
特許文献1では、オリジナルな第1の皮膚画像を入力し、前記第1の皮膚画像の輝度成分を骨格成分と詳細成分に分離する分離部により皮膚部分を同定しているが、オリジナルな皮膚画像から規格化された皮膚ユニットを同定分離するものではない。また、AIモデルで皮膚画像を処理して解析領域を定めるものでもない。
【0013】
特許文献2では、AIを利用して様々な型の皮膚病変の検出と分類を行う。ユーザーの皮膚異常の画像を受信し、前記皮膚異常の前記画像は人工知能(AI)モデルへの入力として使用可能であり、二値化分類器を前記皮膚異常の前記画像に適用して、前記皮膚異常の前記画像が皮膚病変を示す十分なデータを含むかどうかを決定する工程を含むが、規格化されたスキンユニットを使用するものではない。また、その皮膚異常画像が皮膚病変を含むかどうかを二値化分類器で解析するので、規格化されたスキンユニットをAIモデルで分離する思想は開示も示唆もされていない。また、皮膚病変に特化したものであり、皮膚状態の各種パラメータを提供する目的ではない。
【0014】
特許文献3と4は、皮膚の透明感やしみ・そばかす評価方法であって、従来エキスパートの人的評価で処理してきた工程を機械的処理で代替するものである。SU見た目グレードに関する人的評価を機械的処理に置き換える思想や技術が開示されているが、AIモデルを使用して皮膚画像からSU見た目グレード評価を得る思想や技術は記載も示唆もされていない。
【0015】
特許文献5には、唇部分の皮膚の水分量を効果的に測定できる方法および装置が開示され、被検者の唇を含む顔画像を取得する顔画像取得ステップと、前記顔画像取得影ステップにより取得した前記顔画像から前記被検者の唇の特定の測定領域を抽出する測定領域抽出ステップが開示されている。しかしながら、唇の特定の測定領域を抽出する測定領域抽出ステップで抽出される測定領域が、規格化された皮膚ユニットとしてAIモデルを使用して抽出される思想も技術も開示されていない。また、測定画像は近赤外領域おいて撮影された画像に限定されており、可視光領域の画像を利用するものではない。さらに、皮膚水分量を分類タイプのAIモデルで評価する思想も開示されていない。
【0016】
非特許文献1~3と特許文献6~7は肌を含む画像から各種皮膚の特徴量を、AIモデルを使用して提示する技術が開示されているが、皮膚を含む画像から規格化されたスキンユニットをAIモデルで抽出し、そのスキンユニットの肌の特徴量を解析する思想や技術は開示されていない。また、皮膚水分量を可視光画像から分類タイプのAIモデルで解析する思想の示唆も開示もない。
【0017】
本発明の課題は、肌を含む画像から一又は複数の規格化されたスキンユニットを同定し、AIモデルを使用して、各種スコア評価、毛穴数、シミ数、または角層水分量等を推定することを可能とする方法、装置、またはシステムを提供することである。
【課題を解決するための手段】
【0018】
上記の目的を達成するために、本発明は、以下の(1)~(17)を提供する。
【0019】
本発明の第一観点では、以下の(1)~(9)のAI肌解析方法が提供される。
(1)AI肌解析方法であって、
コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力工程と
前記肌を含む画像から一又は複数の規格化されたスキンユニットを同定する同定工程と、
前記スキンユニット内の一又は複数の特徴を解析する解析工程と、
前記解析の結果を表示する表示制御工程と、を含むAI肌解析方法。
(2)前記一又は複数の規格化されたスキンユニットがAIモデルを利用して同定される、(1)に記載の方法。
(3)前記一又は複数の規格化されたスキンユニットが身体部位に特異的な、(1)または(2)に記載の方法。
(4)前記身体部位が顔の一又は複数の領域である、(3)に記載の方法。
(5)前記顔の一又は複数の領域が、目尻領域、目下領域、鼻領域、口元領域、及び頬領域からなる群より選択される一又は複数の領域である、(4)に記載の方法。
(6)前記スキンユニット内の前記一又は複数の特徴がAIモデルを利用して同定される、(1)に記載の方法。
(7)前記一又は複数の特徴が、シミ数、毛穴数、角層水分量、肌荒れSU見た目グレード、透明感SU見た目グレード、シミSU見た目グレード、くすみSU見た目グレード、赤むらSU見た目グレード、ニキビSU見た目グレード、毛穴の開きSU見た目グレード、毛穴の黒ずみSU見た目グレード、キメの粗さSU見た目グレード、シワSU見た目グレード、およびハリSU見た目グレードからなる群より選択される一又は複数の特徴である、(1)に記載の方法。
(8)前記角層水分量が可視光画像データから推測される、(7)に記載の方法。
(9)前記角層水分量が分類タイプのAIモデルで処理することにより推測される、(7)に記載の方法。
【0020】
本発明の第二の観点では、以下の(10)のAI肌解析装置が提供される。
【0021】
(10)コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力部と
一又は複数の規格化されたスキンユニットを同定する同定部と、
前記スキンユニット内の一又は複数の特徴を解析する解析部と、
前記解析の結果を表示する表示制御部と、を含むAI肌解析装置。
【0022】
本発明の第三の観点では、以下の(11)のAI肌解析システムが提供される。
【0023】
(11)コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力部と
一又は複数の規格化されたスキンユニットを同定する同定部と、
前記スキンユニット内の一又は複数の特徴を解析する解析部と、
前記解析の結果を表示する表示制御部と、を含むAI肌解析システム。
【0024】
本発明の第四の観点では、以下の(12)のスキンユニット同定AIモデル訓練方法が提供される。
【0025】
(12)規格化されたスキンユニットを教師データとして使用してAIモデルを訓練する工程を含む、スキンユニット同定AIモデル訓練方法。
【0026】
本発明の第五の観点では、以下の(13)の肌特徴解析AIモデル訓練方法が提供される。
【0027】
(13)規格化されたスキンユニット内の皮膚特徴量を教師データとして使用してAIモデルを訓練する工程を含む、肌特徴解析AIモデル訓練方法。
【0028】
本発明の第六の観点では、以下の(14)~(15)の学習済みスキンユニット同定AIモデルが提供される。
(14)肌を含む画像データを入力する入力層と、
ニューラルネットワークからなり入力データを処理する中間層と、
一又は複数の規格化されたスキンユニットを出力する出力層と、を含み、
(1)、(10)、または(11)に記載の方法、装置、またはシステムで使用される学習済みスキンユニット同定AIモデル。
(15)入力された肌を含む画像データに対応する一又は複数の規格化されたスキンユニットを出力するよう、コンピュータを機能させるための、(14)に記載の学習済みスキンユニット同定AIモデル。
【0029】
本発明の第七の観点は、以下の(16)~(17)の学習済み肌特徴解析AIモデルを提供する。
(16)スキンユニットを入力する入力層と、
ニューラルネットワークからなり入力データを処理する中間層と、
(7)に記載の一又は複数の特徴の解析結果を出力する出力層と、を含み、
スキンユニットの特徴を解析できる学習済み肌特徴解析AIモデル。
(17)入力されたスキンユニットデータに対応する一又は複数の特徴を出力するよう、コンピュータを機能させるための、(16)に記載の学習済み肌特徴解析AIモデル。
【発明の効果】
【0030】
本発明の一態様によれば、被験者(例、ユーザー)のAI肌解析ができるという効果を生じる。
【図面の簡単な説明】
【0031】
図1】本発明の一実施形態のAI肌解析装置またはシステムの概略図である。
図2】本発明の一実施形態のAI肌解析方法の工程を示すフローチャートである。
図3】本発明の一実施形態の方法でのスキンユニット同定を示す図である。図3Aは学習済みスキンユニットAIモデルを使用して同定されたスキンユニットを示す。図3Bはスキンユニットの拡大図である。トレーニング時には各スキンユニットは300×300ピクセル又は600×600ピクセルにリサイズされて用いた。図3Cは足首部分(過去の褥瘡の傷跡あり)の画像からスキンユニットがAIモデルを使用して同定できたことを示す図である。図3Dは、臀部(過去の褥瘡の傷跡あり)の画像からスキンユニットがAIモデルを使用して同定できたことを示す図である。
図4】本発明の一実施形態の方法での、顔面領域中の規格化された特定スキンユニット(S0:目尻スキンユニット、S1:目下スキンユニット、S2:鼻肌スキンユニット、S3:口元スキンユニット、S4:頬スキンユニット)が認識できたことを示す図である。
図5】本発明の一実施形態の方法で、スキンユニット内の肌状態のSU見た目グレード評価のトレーニングが可能であることを示すグラフである。A.肌荒れ_SU見た目グレード、B.透明感_SU見た目グレード、C.シミ_SU見た目グレードを示す。図5DとEは比較例1であり、顔面画像(D:300×300ピクセル、E:600×600ピクセルの画像)を使用して、肌荒れ_見た目グレードをトレーニングした結果を示す。
図6】本発明の一実施形態の方法での、スキンユニット内の毛穴数とシミ数がAIモデルを使用して同定/計数できることを示す図である。図6Aは、毛穴数・シミ数AIモデルの訓練の状態(mAP_0.5、precision、recall)を示すグラフである。図6Bは、12枚のテストデータであるスキンユニット内で毛穴(va0)とシミ(va1)が複数個同定できたことを示すスキンユニット画像である。
図7】本発明の一実施形態の水分量予測AIモデルのトレーニング結果を示すグラフである。図7は、分類タイプの水分量予測AIモデルのトレーニング結果を示す。
【発明を実施するための形態】
【0032】
以下、本発明の実施形態について、図面を参照して詳細に説明する。
【0033】
用語と定義
本明細書中では、用語「スキンユニット」は、規格化された皮膚領域を含む。「規格化」は、トレーニングデータ作成中の、例えばバウンディングボックスのサイズを統一して得られる一又は複数の領域を用いて実施される場合があり、AIモデルで推論した結果のスキンユニット領域が、トレーニングデータで設定された領域のサイズ(長辺または短辺の長さ)と比べ、好ましくは5倍以下、より好ましくは4倍以下、さらに好ましくは3倍以下、およびさらに好ましくは2倍以下であるもの、および、好ましくは5分の1以上、より好ましくは4分の1以上、さらに好ましくは3分の1以上、およびさらに好ましくは2分の1以上であるものを指す。スキンユニットは規格化された皮膚領域であればその形状は限定されず、任意の形状(例、長方形、正方形、円、菱形)が使用可能である。また、本明細書中では「スキン」「皮膚」「肌」は互換的に用いられる。
【0034】
本明細書中では、用語「SU(スキンユニット)見た目グレード」は、一般のヒトの試験者や訓練されたエキスパートが視覚的に感じる評価を含む。その評価は、任意ではあるがグレードとしてラベル化されたものであってもよい。ラベル化は、好ましくは数値(例、0,1,2,3,4,5等)で示されるが、限定はされない。
【0035】
本明細書中では、用語「水分量」は、皮膚の水分量、好ましくは角層水分量を含む。実際の水分量の同定(実測値)する方法には任意の従来法が含まれ、限定はされないが、キャパシタンス法(静電容量法)、コンダクタンス法(電導度)、カールフィッシャー法が挙げられる。実際の水分量の同定(実測値)は計測機器を用い実施される場合があるが、その計測機器は水分量が計測できる限り、限定はされない。水分量の値は任意の尺度(A.U.)が使用可能である。
【0036】
実施形態1:AI肌解析方法
実施形態1は、
AI肌解析方法であって、
コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力工程と
前記肌を含む画像から一又は複数の規格化されたスキンユニットを同定する同定工程と、
前記スキンユニット内の一又は複数の特徴を解析する解析工程と、
前記解析の結果を表示する表示制御工程と、を含むAI肌解析方法である。
【0037】
本AI肌解析方法は、リアルまたはバーチャルなハードウエア資源上で実行されるソフトウエアとして設置可能である。例えば、アプリケーションまたはWebアプリケーションとして装置/サーバー上にデプロイされる。Webアプリケーションは任意のフロントエンドおよびバックエンドにより構成される。
【0038】
使用されるデータベースまたは保存部は特に限定されず、使用可能なものなら任意のものが用いられる。データベースの種類には、階層型、NoSQL、リレーショナル型、ネットワーク型等が挙げられる。具体的には、MySQL、MariaDB、SQLite、Amazon Aurora、PostgreSQL、Oracle Database、MongoDB、Microsoft SQL Server等が挙げられるが、これらに限定はされない。また、入力される対象の皮膚を含む画像のデータを保存するデータベース(例、図1のデータベース20)とスキンユニットの同定やスキンユニット内の皮膚特徴量を解析したり、その解析結果を表示したりするのに用いるデータベース(例、図1のデータベース20)は同じであってもよいし、異なっていてもよい。どちらにしても特異的なテーブルを個別に用意するので、両者のデータは区別して管理可能である。さらに、本発明では、データベースまたは保存部には一時的または永続的にメモリ等に保存される場合の保存場所も含まれる。
【0039】
入力、送信、同定、解析、表示に用いられる言語は、フレームワークに依存する場合があるが、例えば、Python、Java、JavaScript、PHP、Swift、Kotlin、Flutter、Dart、C、C++、Arduino、R等が用いられる。同定部(図1の30)および/または解析部(図1の40)は、物理的ハードウエア(例、RAM、ROM、キャッシュ、SSD、ハードディスク)上またはバーチャルな空間、例えば、クラウド上のAWS(Amazon)、GCP(Google)、Azure(Microsoft)等に設置されてもよいし、同じ場所にあってもよいし、異なる場所にデプロイされてもよい。
【0040】
コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力工程と、前記肌を含む画像から一又は複数の規格化されたスキンユニットを同定する同定工程と、前記スキンユニット内の一又は複数の特徴を解析する解析工程と、前記解析の結果を表示する表示制御工程とを介してAI肌解析を実施する。以下、各工程要素を、図2を参照しながら詳細に説明する。
【0041】
(I)コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力工程(S100:対象画像入力)
入力工程では、肌を含む画像(対象画像)をユーザーが入力し、その画像データをコンピュータがデータベースまたは保存部に入力する(図1の入力部10)。肌を含む画像の種類は特に限定されず、様々なフォーマットの写真や画像データ(例、.jpg、.png、.heic、.tiff)が含まれる。データベースや保存部(図1のデータベースまたは保存部20)の種類は上記したものである。
【0042】
画像のデータ数は、例えば、1、2、3、4、5、10、20、30、50、100、250、500、1000、2500、5000、10000、25000、50000、100000、1000000、5000000、10000000、100000000、または1000000000以上であってもよい。その数値は任意の上記2つの値の間であっても、その値以上、それより大きく、それ以下、またはそれ未満であってもよい。
【0043】
コンピュータのハードウエアとソフトウエア資源を利用して皮膚画像データをデータベースまたは保存部に登録保存する任意の方法が使用可能である。
【0044】
(II)前記肌を含む画像から一又は複数の規格化されたスキンユニットを同定する同定工程(S200:スキンユニット同定)
本工程では、前記肌を含む画像から一又は複数の規格化されたスキンユニットを同定(認識、検出)する(図1の同定部30)。スキンユニットは規格化された皮膚領域であり、上記で定義されたものである。規格化されたスキンユニットは、画像内の肌部分の一部分のみからなる領域であってもよい。上記一部分は、特徴の解析対象となる部分であってもよい。一又は複数の規格化されたスキンユニットはAIモデルを利用して同定される場合がある。複数の規格化されたスキンユニットが好ましい。この場合、これら規格化されたスキンユニットは統計解析に供され、従って、スキンユニット内の特徴がより正確に定量化可能である。前記複数の規格化されたスキンユニットの数は、2、3、4、5、10、又は100個であってもよく、それらいずれかの値以上、又はそれらいずれか2つの値の範囲内であってもよい。実施例1で実際にAIモデル(YOLOv5)を使用して一又は複数の規格化されたスキンユニットが効率的に同定できたことが実証され、スキンユニットの皮膚画像を解析して各種皮膚パラメータを定量的および統計的にも得ることができるという優れた効果を奏する。
【0045】
また、一又は複数の規格化されたスキンユニットは身体部位に特異的な規格化された領域である場合もある。実施例2では、顔の特定領域(目尻領域、目下領域、鼻領域、口元領域、または頬領域)のスキンユニットが効率的に検出できたことを実証する。これにより、部位特異的な皮膚領域の皮膚特徴量(皮膚パラメータ)の解析を可能とするという優れた効果を奏する。また、比較例1では肌を含む顔面画像を用いているが、特定の規格化された肌領域を選択的に利用するものではない。したがって、特定の皮膚領域の情報を得るためには、何らかの領域選択手段が必要であり、効率的に規格化された特定領域を同定分離する方法は知られていない。規格化されたスキンユニットを用いることで、その内部の皮膚特徴量が定量的および統計的に解析可能となるという顕著な効果を奏する。
【0046】
認識されたスキンユニットはトレーニングに用いた規格化されたバウンディングボックスによるスキンユニットのサイズ(長辺または短辺)が、好ましくは5倍以下、より好ましくは4倍以下、さらに好ましくは3倍以下、およびさらに好ましくは2倍以下であり、好ましくは5分の1以上、より好ましくは4分の1以上、さらに好ましくは3分の1以上、およびさらに好ましくは2分の1以上である。
【0047】
スキンユニットを効率的に認識できるスキンユニットAIモデルが構築できたことは優れた効果を奏する。
【0048】
(III)前記スキンユニット内の一又は複数の特徴を解析する解析工程(S300:皮膚特徴量解析)
本工程では、前記スキンユニット内の一又は複数の特徴を解析する(図1の解析部40)。好ましくは、スキンユニット内の一又は複数の特徴がAIモデルを利用して同定される。好ましくは、一又は複数の特徴は、シミ数、毛穴数、角層水分量、肌荒れSU見た目グレード、透明感SU見た目グレード、シミSU見た目グレード、くすみSU見た目グレード、赤むらSU見た目グレード、ニキビSU見た目グレード、毛穴の開きSU見た目グレード、毛穴の黒ずみSU見た目グレード、キメの粗さSU見た目グレード、シワSU見た目グレード、およびハリSU見た目グレードからなる群より選択される一又は複数の特徴である。
【0049】
解析部は、装置またはアプリの内部から提供されてもよいし、API(Application Programming Interface)として外部から提供されていてもよい。前記APIは、好ましくはREST(REpresentational State Transfer)ful APIである。
【0050】
好ましくは、実際に機器やヒトを介して得られた値をAIモデルの教師データとして使用する。これによりスキンユニットを使用したAIモデルのトレーニングが可能となり有用な肌特徴解析AIモデルが可能となることが、実施例3~5で実証され、機器やヒトに頼らないでAIモデルにより皮膚の特徴量(皮膚パラメータ)を得ることができるという優れた効果が得られた。
【0051】
各種SU見た目グレード(例、肌荒れSU見た目グレード、透明感SU見た目グレード、シミSU見た目グレード、くすみSU見た目グレード、赤むらSU見た目グレード、ニキビSU見た目グレード、毛穴の開きSU見た目グレード、毛穴の黒ずみSU見た目グレード、キメの粗さSU見た目グレード、シワSU見た目グレード、およびハリSU見た目グレード)評価が機械(実際の測定機器)やヒトを介さずに得られることは時間的およびコスト的に顕著な効果がある。実施例3では、各種SU見た目グレードAIモデルを構築し、1270個のスキンユニットとそのエキスパートの平均評価を教師データとしてトレーニングを実施した。その結果、いずれのSU見た目グレード評価もトレーニング過程は異なるが、正確度が約1になるまでトレーニングできた。このことにより、データ数を増やしてトレーニングすることにより、予測/推測値の精度が向上することが分かり、各種SU見た目グレードAIモデルが構築/実施可能なことを示す。
【0052】
また、実施例4では、スキンユニットを使用した毛穴数/シミ数AIモデルを作成した。ベースモデルにはYOLOv5を用いた。スキンユニットに毛穴とシミをラベリングしたデータを教師データとしてモデルのトレーニングを行った。その結果、スキンユニット画像中の毛穴数とシミ数が精度高く検出できることを実証した。これにより、スキンユニット内の皮膚特徴量(毛穴数、シミ数)が機器やヒトを使用せずにAIモデルで計測でき、時間的およびコスト的に顕著な効果を奏することを示した。また、複数のスキンユニットの各値を統計処理(例、平均、加算)することによって、より有用で精度の高い値を得ることができる。
【0053】
また、好ましくは、角層水分量は可視光画像データから推測される。実施例5では、可視光皮膚画像を利用して分類タイプの水分量AIモデルをトレーニングした。水分量の予測は、水分量を複数の値領域(範囲)としてラベル化して予想する分類モデル(実施例5)を作成して実施した。図7に示すように、可視光皮膚スキンユニット画像から水分量AI分類モデルがトレーニング可能であることが判明した。これによりデータ数を増やすことにより、より精度の高いモデルが得られることが分かった。近赤外画像から水分量の予想ができることが特許文献5に示されているが、適切な分類タイプのAIモデルを使用することにより可視光画像からも水分量の予想ができることを示す結果であり、汎用性のある皮膚スキンユニット画像から水分量を予測できるという顕著な効果を奏する。
【0054】
(IV)前記解析の結果を表示する表示制御工程(S400:解析結果表示)
本工程では、前記解析結果をユーザーに表示する(図1の表示制御部50)。表示制御部は、装置にあるものでも、スマートフォン上のアプリ内のものであってもよいし、ウェブサイト上にデータを表示するのに使用されるものであってもよい。ネイティブアプリの場合は、例えば、Swift,Java,Kotlin,Flutterを使用して処理が実行される。Web上に表示する場合は、フロントエンドは、限定はされないが、HTMLやCSS、JavaScriptで構成される。また、フロントエンドフレームワークを用いる場合もあり、その例には、React、Vue.js、Angular、Ember.js、Backbone.js等が含まれる。サーバーサイドと連携して処理するためにバックエンドのフレームワーク(例、Django、Laravel、Ruby on Rails、Flask、Node.js)を利用する。
【0055】
なお、本明細書中に記載される方法の工程での処理の順番は特に限定されない。例えば、S100:対象画像入力、S200:スキンユニット同定、S300:皮膚特徴量解析、およびS400:解析結果表示は繰り返して行われる場合もあり、S100、S200、および/またはS300だけを繰り返す場合もあり、中間的または最終的にS400を行う場合もあるが特に限定はされない。
【0056】
実施形態2または3:AI肌解析装置またはシステム
実施形態2または3は、
コンピュータが、肌を含む画像をデータベースまたは保存部に入力する入力部と
一又は複数の規格化されたスキンユニットを同定する同定部と、
前記スキンユニット内の一又は複数の特徴を解析する解析部と、
前記解析の結果を表示する表示制御部と、を含むAI肌解析装置またはシステムである。
【0057】
本実施形態のAI肌解析装置またはシステムでは、第一の観点の(1)~(9)の方法を実行する装置またはシステムが提供される。本装置またはシステムは、実際のハードウエアの装置またはスマートフォン等のアプリ、例えば、Webアプリまたは(スマートフォンやタブレット上の)ネイティブアプリとして実施可能である。
【0058】
AI肌解析装置またはシステムは、入力部10(図1参照)と、データべース/保存部20と、同定部30と、解析部40と、表示制御部50を備えるが、これ以外の機能部を有していてもよい。本装置またはシステムにより効率的に肌の特徴量(皮膚パラメータ)が解析されて、ユーザーに表示される。具体的には、入力部10は、肌を含む画像をデータベースまたは保存部20に入力し、同定部30でその画像から一又は複数の規格化されたスキンユニットを同定し、解析部40でその各スキンユニット内の皮膚特徴量(皮膚パラメータ)を解析し、表示制御部50でその解析結果を表示する。
【0059】
解析部は後述する実施形態7で記載する学習済み肌特徴解析AIモデルを使用する場合がある。解析部や学習済み肌特徴解析AIモデルは、同じ装置またはシステム内にあってもよいし、API(Application Programming Interface)として外部から提供されていてもよい。前記APIは、好ましくはREST(REpresentational State Transfer)ful APIである。モデルは、解析部で使用可能である。
【0060】
本装置またはシステムがネイティブアプリの形でスマートフォンやタブレットで提供される場合は、Swift、Java、Kotlin、Flutter、Dart等の言語を用いてもよい。
【0061】
ユーザーに表示する表示制御部は、デバイス上のものであってもよいし、スマートフォン上のアプリ内のものであってもよいし、ウェブサイト上にデータを表示するのに使用されるものであってもよい。ネイティブアプリの場合は、例えば、Swift,Java,Kotlin,Flutterを使用して処理が実行される。Web上に表示する場合は、フロントエンドは、限定はされないが、HTMLやCSS、JavaScriptで構成される。また、フロントエンドフレームワークを用いる場合もあり、その例には、React、Vue.js、Angular、Ember.js、Backbone.js等が含まれる。サーバーサイドと連携して処理するためにバックエンドのフレームワーク(例、Django、Laravel、Ruby on Rails、Flask、Node.js)を利用する。
【0062】
実施形態2または3のAI肌解析装置またはシステムでは、各部分(例、入力部、データベースまたは保存部、同定部、解析部、表示制御部)は同じクラウドまたはデバイス上等にあってもよいし、なくてもよい。実施形態1の方法で特定される要素や好ましい態様が同等に適用され顕著な効果を生じる。
【0063】
実施形態4:スキンユニット同定AIモデル訓練方法
実施形態4では、
規格化されたスキンユニットを教師データとして使用してAIモデルを訓練する工程を含む、スキンユニット同定AIモデル訓練方法が提供される。
【0064】
規格化されたスキンユニットを教師データとして使用してスキンユニット同定AIモデルを訓練する。
【0065】
AIモデルの例には、限定はされないが、機械学習モデル、ディープラーニングモデル等が挙げられる。教師あり学習の機械学習の例には、線形回帰、ロジスティック回帰、サポートベクターマシン(SVM: Support Vector Machine)、決定木、ニューラルネットワーク(NN: Neural Network)、ナイーブベイズ等が挙げられる。決定木では、ランダムフォレストやXGBoostといったブースティングを使ったモデルも利用可能である。
【0066】
ニューラルネットワークの例には、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、GAN(Generative Adversarial Networks)等が挙げられる。これらディープラーニングモデルも、規格化されたスキンユニットを教師データとして使用して訓練できるものであれば、特に限定はされず、任意のものが利用訓練可能である。
【0067】
訓練は、好ましくは別のクラウドまたはオンプレミス環境で実行する。クラウド環境の例には、Google ColaboratoryやAWS上のGPU付EC2インスタンスまたはSageMakerが挙げられる。訓練にはGPU、TPU、CPUが利用できるが、限定はされない。機械学習ではscikit-learnが使用できる。また、ディープラーニングフレームワークとして、TensorFlow、Keras、PyTorch、MXNet、Caffe等が使用可能である。
【0068】
第4実施形態の訓練部は別のクラウドVirtual Private Cloud(VPC)やデバイス上に配置されるのが好ましい。例えば、Google ColaboratoryやAWS上のGPU付EC2インスタンスまたはSageMakerを用いて訓練可能である。
【0069】
また、(1)~(11)の方法、システム、または装置を実行/配備する環境と(12)の訓練方法を実行する環境は同じでもよいし、異なっていてもよい。好ましくは、異なる環境で実行/配備される。
【0070】
訓練は、実施形態1~3に記載される規格化されたスキンユニットを使用して実施される。ゼロからトレーニングを実施してもよいし、既存の別の重みを使用してもよいし、本モデルに対して既に得られた重みを使用して転移学習してもよい。転移学習では、モデルを時系列に沿ったデータで再度トレーニングして学習効率を高める効果がある場合がある。
【0071】
実施形態5:肌特徴解析AIモデル訓練方法
実施形態5では、
規格化されたスキンユニット内の皮膚特徴量を教師データとして使用してAIモデルを訓練する工程を含む、肌特徴解析AIモデル訓練方法。
【0072】
規格化されたスキンユニット内の皮膚特徴量を教師データとして使用して肌特徴解析AIモデルを訓練する。実施形態5の訓練環境は実施形態4に記載されたものと同様なものが適用される。
【0073】
皮膚特徴量の例は、限定はされないが、シミ数、毛穴数、角層水分量、肌荒れSU見た目グレード、透明感SU見た目グレード、シミSU見た目グレード、くすみSU見た目グレード、赤むらSU見た目グレード、ニキビSU見た目グレード、毛穴の開きSU見た目グレード、毛穴の黒ずみSU見た目グレード、キメの粗さSU見た目グレード、シワSU見た目グレード、およびハリSU見た目グレードからなる群より選択される一又は複数の特徴量である。これらの特徴量がスキンユニットを使用するAIモデルで解析可能なことは実施例3~5で実証された。これにより、本AIモデルが訓練可能なことが示され、よって皮膚特徴量を効率的に解析できるという顕著な効果が奏された。
【0074】
実施形態6:学習済みスキンユニット同定AIモデル
実施形態6は、
(14)肌を含む画像データを入力する入力層と、
ニューラルネットワークからなり入力データを処理する中間層と、
一又は複数の規格化されたスキンユニットを出力する出力層と、を含み、
(1)、(10)、または(11)に記載の方法、装置、またはシステムで使用される学習済みスキンユニット同定AIモデル、である。
【0075】
また、
(15)入力された肌を含む画像データに対応する一又は複数の規格化されたスキンユニットを出力するよう、コンピュータを機能させるための、(14)に記載の学習済みスキンユニット同定AIモデルも提供される。
【0076】
スキンユニット同定AIモデルは、好ましくは、機械学習モデルであり、さらに好ましくは、ディープラーニングモデルである。上記した任意の機械学習モデルおよび/またはディープラーニングモデル等が使用可能である。
【0077】
スキンユニット同定AIモデルは、入力層と、中間層と、出力層を含むが、他の(一又は複数の)層を含んでもよい。
【0078】
入力層には、肌を含む画像データを入力する。他の情報(例、性別、年齢、肌の特徴量)を組み合わせて入力することもできる。
【0079】
中間層(隠れ層)は、入力層から入力されたデータを処理する層である。中間層の数は限定されず、任意の数の中間層が配置される。畳み込みニューラルネットワーク(CNN)、プーリング層、全結合層、ドロップアウト層等の層が任意の数で任意の組み合わせで使用可能である。
【0080】
出力層は、一又は複数の規格化されたスキンユニットを出力する。出力は、一又は複数の異なる種類の特定スキンユニットを出力する場合がある。
【0081】
実施例1と2により実際のスキンユニット同定AIモデルが構築可能であることが実証された。
【0082】
実施形態7:学習済み肌特徴解析AIモデル
実施形態7は、
(16)スキンユニットを入力する入力層と、
ニューラルネットワークからなり入力データを処理する中間層と、
(7)に記載の一又は複数の特徴の解析結果を出力する出力層と、を含み、
スキンユニットの特徴を解析できる学習済み肌特徴解析AIモデル、および
(17)入力されたスキンユニットデータに対応する一又は複数の特徴を出力するよう、コンピュータを機能させるための、(16)に記載の学習済み肌特徴解析AIモデルを提供する。
【0083】
肌特徴解析AIモデルは、入力層と、中間層と、出力層を含むが、他の(一又は複数の)層を含んでもよい。また、統合AIモデルとして、一又は複数の入力層と、中間層と、出力層を含むこともできる。
【0084】
入力層には、スキンユニット画像データを入力してもよいし、テキストデータを組み合わせた複合的データを入力してもよい。複数の特徴量を入力することもできる。また、カテゴリー変数は、One-Hotエンコーディングを用いてデータ化してもよい。
【0085】
中間層は、実施形態6と同様なものが適用可能である。
【0086】
出力層は、値を回帰してもよいし、例えば、SU見た目グレード評価を含むカテゴリー/評価(グレード)を分類してもよい。複数の出力を持つことも可能である。
【0087】
一又は複数の特徴は、好ましくは、シミ数、毛穴数、角層水分量、肌荒れSU見た目グレード、透明感SU見た目グレード、シミSU見た目グレード、くすみSU見た目グレード、赤むらSU見た目グレード、ニキビSU見た目グレード、毛穴の開きSU見た目グレード、毛穴の黒ずみSU見た目グレード、キメの粗さSU見た目グレード、シワSU見た目グレード、およびハリSU見た目グレードからなる群より選択される一又は複数の特徴であることが好ましい。
【0088】
肌特徴解析AIモデルは、入力されたスキンユニットデータに対応する一又は複数の特徴を出力するよう、コンピュータを機能させてもよい。
【0089】
学習済み肌特徴解析AIモデルや解析部は、装置またはアプリの内部から提供されてもよいし、API(Application Programming Interface)として外部から提供されていてもよい。前記APIは、好ましくはREST(REpresentational State Transfer)ful APIである。本モデルは、解析部で使用される。
【0090】
本発明で使用するプログラムは、本発明の方法およびモデルを実施できる限り、プログラム全体または部分を含む。その言語の例には、特に限定はされないが、Python,Java,Kotlin,Flutter,Swift,C,C#,C++,PHP,Ruby,JavaScript,Scala,Go,R,Perl,Unity,COBOL等が含まれる。
【0091】
本発明で使用されるコンピューティングデバイスの例には、特に限定はされないが、RAM、ROM、キャッシュ、SSD、ハードディスクが含まれる。また、クラウド上のもの、サーバー上のもの、オンプレミスのコンピュータ上のもの等の任意の形態のコンピューティングデバイスが含まれる。
【0092】
本明細書中で「A~B」という記載は、AおよびBを含む。また、本発明に係る工程等について各実施形態で説明したが、これらの記載に限定されるものではなく、種々の変更を行うことができる。
【0093】
さらに、本発明の方法で実施される工程や装置等の各部を実行する順序は限定されない。
【0094】
以下、実施例と比較例を参照して本発明をさらに詳細に説明するが、本発明は以下の実施例に限定はされない。
【実施例
【0095】
実施例1:スキンユニットのAIモデルによる同定
スキンユニット(皮膚領域)をAIモデルが認識できるように、顔の領域を認識できるYOLOv5モデル(https://github.com/ultralytics/yolov5)をトレーニングした。以下のYOLOv5のフレームワークにはPyTorchを使用した。GoogleColab環境でGPU(例、V100)を使用してトレーニングを実行した。トレーニングには、VISIA(Canfield Scientific社製)で得られた可視光の顔面画像を使用し、スキンユニット(顔面の5か所の同じサイズの皮膚領域)(x0)と、眼の領域(x1)、鼻の領域(x2)、口の領域(x3)を別々のラベルに割り当てた。訓練データの作成にはlabelImgソフトウエア(https://github.com/tzutalin/labelImg)を使用してバウンディングボックス(Bounding Box)を各イメージ中で各タイプに割り当てた。スキンユニットは頬部分に約5個の同じサイズのバウンディングボックスを複製して全ての画像に適用して、スキンユニットの皮膚領域を規格化した。141人の顔面のラベル付きトレーニングデータ(416×416ピクセルにリサイズしたもの)と16人の顔面のバリデーションデータを使い学習を実行した。学習に用いた初期重みは特許第6985433号における楽譜の小節を認識するモデルの重みを使用した。バッチ数16で300エポック訓練した。300エポック時のmAP@.5は0.957に達した。学習済みモデルを使用して、ある男性(53歳)の写真からスキンユニット等を予測した結果を図3Aに示す。同定されたスキンユニットは分離されて、図3Bのように皮膚の領域として、任意のサイズにリサイズすることができた。以後のスキンユニットを用いたトレーニングでは300×300ピクセルまたは600×600ピクセルにリサイズしたスキンユニット画像データを用いて次の段階のAIモデルのデータとした。
【0096】
学習済みモデルを使用してトレーニングに用いなかったテストデータ(ある男性のスマートフォンの自撮り写真)でスキンユニット等を予測した結果を図3Aに示す。スキンユニット(x0)は3か所同定され、認識されたスキンユニットのサイズ(長辺または短辺)がトレーニング時より2倍より大きいまたは2分の1より小さいものは無かった。
【0097】
また得られたスキンユニットAIモデルが、美容分野だけでなくメディカル(医用)分野でも適用可能であることを証明するために、足首(男性、53歳、過去に足首部分に褥瘡ができ、その痕跡がある)(図3C)と臀部(男性、53歳、過去に臀部に褥瘡ができ、その痕跡がある)(図3D)の写真をスマートフォンで撮影し、その画像に本学習済みスキンユニットAIモデルを適用した。結果、足首部分は6か所のスキンユニットが同定され、臀部も6か所の規格化されたスキンユニットが同定できた。認識されたスキンユニットのサイズ(長辺または短辺)がトレーニング時より2倍より大きいまたは2分の1より小さいものは無かった。本結果により、スキンユニットAIモデルが作成できることが実証され、その適用範囲は顔面領域だけでなくメディカル用途に使用される皮膚領域(例、足首、臀部)にも応用可能であることが証明された。また、単一の領域でなく、スキンユニットが複数の領域で認識同定されたことから、その複数のスキンユニットを解析して統計的に処理することができるので、定量的により精度の高い皮膚データを得ることができるという優れた効果を奏することも実証された。
【0098】
優れたスキンユニットAIモデルができたことは顕著な効果である。
【0099】
実施例2:特定スキンユニットのAIモデルによる同定
次に、一般的なスキンユニットだけでなく特定領域のスキンユニットが同定できるかどうかを検証した。実施例1と同様にしてYOLOv5モデルをトレーニングした。但し、実施例2では顔面の特定皮膚領域(特定スキンユニット)を区別してラベルした(S0:目尻スキンユニット、S1:目下スキンユニット、S2:鼻肌スキンユニット、S3:口元スキンユニット、S4:頬スキンユニット)。各スキンユニットは同じサイズのバウンディングボックスを複製して用いることで、スキンユニットを統一して規格化した。実施例1と同様に141人の顔面のラベル付きトレーニングデータ(416×416ピクセルにリサイズしたもの)と16人の顔面のバリデーションデータを使い学習を実行した。
【0100】
図4Aにトレーニングに用いなかったある男性の顔面のテスト結果を示す。また、コンフィデンス値を50%にして予測検出した15例のテストデータの結果、S0:目尻スキンユニットは100%、S1:目下スキンユニットは100%、S2:鼻肌スキンユニットは100%、S3:口元スキンユニットは100%、S4:頬スキンユニットは93%の精度で各特定スキンユニットが同定できた。認識されたスキンユニットのサイズ(長辺または短辺)がトレーニング時より2倍より大きいまたは2分の1より小さいものは無かった。この実験データは、一般的スキンユニットだけでなく、特定の皮膚領域に特化した特定スキンユニットが画像からAIモデルを使用して規格化されたスキンユニットとして認識同定できることを実証した。これにより、皮膚の特定領域に絞って解析したい場合にも、本特定スキンユニットAIモデルが適用できるという優れた効果を示す。
【0101】
実施例3:スキンユニットを使用した各種SU見た目グレードAIモデルの作成
次に同定されたスキンユニットの皮膚の状態を解析する手段として各種SU見た目グレードAIモデルが適用できるかどうかを検証した。元コホート集団は206人の被験者で、そこから、1270個のスキンユニットを抽出しトレーニングに使用した。SU見た目グレードの実測データは熟練トレーニングされた2から3人の平均を取って実測SU見た目グレード値をグレード化した(グレード1~5)。そのグレードを教師データとして、各種SU見た目グレード値をトレーニングした。SU見た目グレードは、肌荒れSU見た目グレード、透明感SU見た目グレード、シミSU見た目グレード、くすみSU見た目グレード、赤むらSU見た目グレード、ニキビSU見た目グレード、毛穴の開きSU見た目グレード、毛穴の黒ずみSU見た目グレード、キメの粗さSU見た目グレード、シワSU見た目グレード、およびハリSU見た目グレードを含み、各SU見た目グレードについてトレーニングしてAIモデルが作成できるかどうかをテストした。
【0102】
各種SU見た目グレードAIモデルのトレーニング結果を図5A~Cに示す。まず、肌荒れSU見た目グレード(図3A)に関してトレーニングを実施した。EfficientNetB3モデルをベースモデルとした。以下のEfficientNetのモデルの設計と運用はTensorFlowとKerasのフレームワークをGoogleColab環境(例、Pro+)でGPU(例、V100)を使用して実行した。スキンユニットデータは300×300ピクセルにリサイズしたものを使用した。また、初期の重みには、デフォルト(None)で最初からトレーニングを500エポック行った。約300エポックからトレーニングデータの正確度(Accuracy)が上昇を始め、500エポックでaccuracy:0.8906に到達した。さらに300エポック転移学習でトレーニングするとaccuracy:0.9698に到達した。これにより、肌荒れSU見た目グレードのグレードを1270個のスキンユニットから正確に同定できるようにAIモデルをトレーニング可能であることが実証された。バリデーションデータの正確度は変動しているがある程度のレベル(0.5)であることが分かった。これらのデータから、データ数(被験者数)を増やすことにより、SU見た目グレードを予測するAIモデルの精度が向上することが予想され、実際にSU見た目グレードのAIモデルがトレーニング可能であることから、データ数を増やすことによって、より優れたSU見た目グレードモデルが作成できることが分かった。
【0103】
また、その他のSU見た目グレードモデル(スキンユニット300x300ピクセル使用)(例、図5B~C)(肌荒れSU見た目グレード、透明感SU見た目グレード、シミSU見た目グレード、くすみSU見た目グレード、赤むらSU見た目グレード、ニキビSU見た目グレード、毛穴の開きSU見た目グレード、毛穴の黒ずみSU見た目グレード、キメの粗さSU見た目グレード、シワSU見た目グレード、およびハリSU見た目グレード)に関しては、学習済み肌荒れSU見た目グレードモデルの重みを初期重みにして同様にトレーニングを実施した。図から分かるように、各SU見た目グレードのモデルはそれぞれ異なった様式でトレーニングが進むが、どれも最終的には正確度が約1にまで到達した(肌荒れSU見た目グレード(800エポック後;accuracy:0.9698)、透明感SU見た目グレード(500エポック後;accuracy:0.9719)、シミSU見た目グレード(500エポック後;accuracy:0.9937)、くすみSU見た目グレード(300エポック後;accuracy:0.9771)、赤むらSU見た目グレード(300エポック後;accuracy:0.9750)、ニキビSU見た目グレード(300エポック後;accuracy:0.9760)、毛穴の開きSU見た目グレード(300エポック後;accuracy:0.9740)、毛穴の黒ずみSU見た目グレード(300エポック後;accuracy:0.9792)、キメの粗さSU見た目グレード(500エポック後;accuracy:0.9865)、シワSU見た目グレード(300エポック後;accuracy:0.9823)、およびハリSU見た目グレード(300エポック後;accuracy:0.9656))。バリデーションの正確度も各SU見た目グレードAIモデルでばらつきがあるが、ある程度の変動はあるがある一定の値を示した。これらSU見た目グレードAIモデルも、データ数(被験者数)を増やすことにより、SU見た目グレードを予測するAIモデルの精度が向上することが予想され、実際にSU見た目グレードのAIモデルがトレーニング可能であることから、データ数を増やすことによって、より優れたSU見た目グレードモデルが作成できることが分かった。
【0104】
比較例1:肌を含む顔面画像を使用したSU見た目グレードAIモデルの作成
トレーニングに用いた画像をスキンユニット画像から肌を含む顔面画像に変えた以外は実施例3と同様にして肌荒れ_見た目グレードAIモデルをトレーニングした。結果を図5Dに示す。用いた顔面画像のデータ数は172個であった。トレーニングの経過はスキンユニットを使ったトレーニング(図5A)と異なっていたが、正確度は徐々に上昇していった。しかし、用いた顔面画像は肌以外の領域(眼、髪)等も含むことから皮膚特異的に学習が進んだかどうかは不明である。また、用いた画像データ数は172個で、実施例3でのスキンユニット画像数1270よりも一桁少ないものであった。従って、多数のデータで同様に学習が進むかどうかは不明である。
【0105】
また、スキンユニット画像は、顔面画像の一部であり、解像度が異なる。そこで顔面画像を600×600ピクセルにリサイズし、対応するサイズのベースモデルをEfficientNetB3からEfficientNetB7に変更する以外は、実施例3と同様にトレーニングを実施した。結果を図5Eに示す。トレーニングは500エポック実施したが、正確度(accuracy)は0.5から0.6の間にあり、トレーニングすることができなかった。トレーニングできなかった理由は不明であるが、画像のサイズや使用したベースモデルが適応しなかった可能性もある。
【0106】
実施例4:スキンユニットを使用した毛穴数/シミ数AIモデルの作成
スキンユニット内の毛穴数とシミ数を直接AIモデルでカウントできるかどうかを検証した。実施例3と同じスキンユニットデータの一部を使用してラベリングデータを作成した。ベースモデルはYOLOv5を用いた。トレーニングには127枚のスキンユニットデータを用い、各スキンユニット中に「毛穴(va0)」と「シミ(va1)」についてlabelImgソフトウエアを使用してラベリングした。各画像中において、0~50程度の毛穴や0~10程度のシミをラベリングした。
【0107】
図6Aはトレーニング結果を示す。左からそれぞれ、mAP_0.5、precision、recallを示す。約80~100エポックで値は一定の値を示すようになった。mAP_0.5が約0.35であるが、これは毛穴のラベリングの際に、毛穴の状態が様々であり、そのバリエーションが影響した可能性がある。
【0108】
図6Bはトレーニングに使用しなかったテストスキンユニットデータを用いて学習済みモデルで予測認識させた結果である。12枚のテスト画像のいずれも毛穴(va0)とシミ(va1)が、予測の確度を調整することによって精度よく検出できることが分かる。このスキンユニット画像中の毛穴とシミの数は検出された数から計算できる。従って、スキンユニット画像中の毛穴数とシミ数が精度高く検出できることを実証した。
【0109】
実施例5:水分量AIモデルの作成とスキンユニットへの適用(分類モデル)
スキンユニット内の水分量を一般の可視光画像から推測できることは汎用性の面から大きなメリットがある。そこで、スキンユニットの水分量を予測するAIモデルが作成できるかどうかを検証した。まず、被験者コホートの角層水分量を実測した。実測には水分量測定器を用いて、この水分量の範囲を5ずつの11個のビン(数値範囲)に分割してサンプル化した(0~5、5~10、10~15、15~20、20~25、25~30,30~35、35~40、40~45、45~50、および50以上)(ここのA~BはA以上B未満)(それぞれ、ラベル0、1、2、3、4、5、6、7、8、9、および10に対応する)。そして、角層水分量の実測値を0から10のラベルにしてトレーニングデータを作成して、分類型水分量モデルをトレーニングした。
【0110】
EfficientNetB3モデルをベースモデルとした分類モデル(classification)をまず作成した。スキンユニットデータは300×300にリサイズしたものを使用した。また、初期の重みには、デフォルト(None)で最初からトレーニングを500エポック行った。実施例3で使用したと同じ1270個のスキンユニットトレーニングデータを使用した。トレーニング結果を図7Aに示す。500エポック後にはaccuracy:0.9771に到達した。したがって、このトレーニング設定で、角層水分量の実測値のラベルを学習できることが実証された。バリデーションでの正確度(accuracy)が約0.2であるが、本AIモデルがトレーニング可能であることから、データ数を増やしてトレーニングすれば正確度が上がると考えられる。これにより、水分量を予測する分類モデルが作成可能なことが分かった。
【産業上の利用可能性】
【0111】
本発明は、美容分野のみならずメディカル分野においても皮膚の状態(例、各種SU見た目グレード、毛穴数、シミ数、角層水分量)を基礎パラメータとして提供する用途一般に有用である。
図1
図2
図3
図4
図5
図6
図7