(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024101714
(43)【公開日】2024-07-30
(54)【発明の名称】毛状体の抽出方法、および推論モデルの生成方法
(51)【国際特許分類】
G06T 7/00 20170101AFI20240723BHJP
A61B 5/107 20060101ALI20240723BHJP
【FI】
G06T7/00 612
A61B5/107 700
【審査請求】未請求
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2023005789
(22)【出願日】2023-01-18
(71)【出願人】
【識別番号】599016431
【氏名又は名称】学校法人 芝浦工業大学
(74)【代理人】
【識別番号】110001416
【氏名又は名称】弁理士法人信栄事務所
(72)【発明者】
【氏名】高橋 正信
(72)【発明者】
【氏名】後藤 敬之
【テーマコード(参考)】
4C038
5L096
【Fターム(参考)】
4C038VA04
4C038VB21
4C038VC05
5L096EA18
5L096EA43
5L096FA10
5L096FA59
5L096FA69
5L096GA30
5L096GA51
5L096JA03
5L096KA04
(57)【要約】
【課題】毛状体の状態を定量的に評価可能でかつ簡略化された手法を提供する。
【解決手段】予測画像データEDは、それぞれ一本の頭髪が映り込んでいると予測された複数の黒色領域を含んでいる予測画像20に対応する。シード画像データSDは、一つの黒色領域21aに対応する位置において黒色領域21aよりも小さい面積を有するシード311を含んでいるシード画像31に対応する。第二推論モデル102は、予測画像データEDとシード画像データSDに基づいて、シード311に対応する位置を含む一本の頭髪が原画像に映り込んでいる確率を推論する。当該確率を二値化することにより、抽出画像41に対応する抽出画像データXDが取得される。抽出画像41は、シード311に対応する位置を含み、かつシード311よりも大きい面積を有するように一本の頭髪の少なくとも一部が抽出された黒色領域411を含んでいる。
【選択図】
図6
【特許請求の範囲】
【請求項1】
原画像に映り込んだ複数の毛状体の一つを抽出する方法であって、
複数の毛状体が映り込んだ原画像に対応する原画像データを取得し、
前記原画像データに画像処理を適用することにより、前記原画像の各画素に前記複数の毛状体のいずれかの一部が映り込んでいるかを予測し、
各々が前記複数の毛状体の一つが映り込んでいると予測された複数の領域を含んでいる予測画像に対応する予測画像データを取得し、
前記複数の領域の一つに対応する位置において当該領域よりも小さい面積を有する第一サブ領域を含んでいる第一シード画像に対応する第一シード画像データを取得し、
前記原画像データおよび前記予測画像データの少なくとも一方と前記第一シード画像データとに基づいて、前記第一サブ領域に対応する位置を含む前記複数の毛状体の一つが前記原画像に映り込んでいる確率を、推論モデルを用いて推論し、
前記確率を二値化することにより、前記第一サブ領域に対応する位置を含み、かつ前記第一サブ領域よりも大きい面積を有するように前記複数の毛状体の一つの少なくとも一部が抽出された画像を含んでいる第一抽出画像に対応する第一抽出画像データを取得する、
毛状体の抽出方法。
【請求項2】
前記画像処理は、入力された原画像データに対応する原画像の各画素に前記複数の毛状体の一部が映り込んでいる確率を出力する推論モデルに前記原画像データを入力する処理を含んでいる、
請求項1に記載の毛状体の抽出方法。
【請求項3】
前記第一シード画像の取得に先立ち、前記予測画像における前記複数の毛状体の一部が映り込んでいると予測された領域の幅が規格化される、
請求項1に記載の毛状体の抽出方法。
【請求項4】
前記第一サブ領域は、前記領域の端部に対応する位置に配置される、
請求項1に記載の毛状体の抽出方法。
【請求項5】
前記複数の領域の一つに対応する位置において当該領域よりも小さい面積を有する第二サブ領域を前記第一サブ領域とは異なる位置に含んでいる第二シード画像に対応する第二シード画像データを取得し、
前記原画像データおよび前記予測画像データの少なくとも一方と前記第二シード画像データに基づいて、前記第二サブ領域に対応する位置を含む前記複数の毛状体の一つが前記原画像に映り込んでいる確率を推論し、
前記確率を二値化することにより、前記第二サブ領域に対応する位置を含み、かつ前記第二サブ領域よりも大きい面積を有するように前記複数の毛状体の一つの少なくとも一部が抽出された画像を含んでいる第二抽出画像に対応する第二抽出画像データを取得し、
前記第一抽出画像に抽出されている画像と、前記第二抽出画像に抽出されている画像との類似性を示す指標値を取得し、
前記指標値が閾値を上回る場合、前記第一抽出画像と前記第二抽出画像に基づいて前記複数の毛状体の一つの少なくとも一部を含むように生成された新たな抽出画像に対応するデータを、前記第一抽出画像データとして採用する、
請求項1に記載の毛状体の抽出方法。
【請求項6】
前記第一抽出画像データの取得後に、前記第一サブ領域に対応付けられた前記複数の領域の一つが前記予測画像から削除された修正予測画像に対応する修正予測画像データを取得し、
前記修正予測画像における前記複数の領域の別の一つに対応する位置において当該領域よりも小さい面積を有する第二サブ領域を含んでいる第二シード画像に対応する第二シード画像データを取得し、
前記原画像データおよび前記予測画像データの少なくとも一方と前記第二シード画像データに基づいて、前記第二サブ領域に対応する位置を含む前記複数の毛状体の別の一つが前記原画像に映り込んでいる確率を推論し、
前記確率を二値化することにより、前記第二サブ領域に対応する位置を含み、かつ前記第二サブ領域よりも大きい面積を有するように前記複数の毛状体の別の一つの少なくとも一部が抽出された画像を含んでいる第二抽出画像に対応する第二抽出画像データを取得する、
請求項1に記載の毛状体の抽出方法。
【請求項7】
前記修正予測画像においては、前記第一サブ領域に対応付けられた前記複数の領域の一つを含み、かつ当該領域よりも大きな面積を有する範囲の画像が、前記予測画像から削除されている、
請求項6に記載の毛状体の抽出方法。
【請求項8】
前記第一抽出画像に抽出されている画像と、前記第二抽出画像に抽出されている画像との類似性を示す指標値を取得し、
前記指標値が閾値を上回る場合、前記第一抽出画像と前記第二抽出画像に基づいて前記複数の毛状体の一つの少なくとも一部を含むように生成された新たな抽出画像に対応するデータを、前記第一抽出画像データとして採用する、
請求項6に記載の毛状体の抽出方法。
【請求項9】
前記第一抽出画像データを新たな前記第一シード画像データとして前記確率を再推論する、
請求項1に記載の毛状体の抽出方法。
【請求項10】
前記第一抽出画像データが新たな前記第一シード画像データとされる前に、前記複数の毛状体の一つが抽出された画像の幅を規格化する処理に対応する修正を、前記第一抽出画像データに対して行なう、
請求項9に記載の毛状体の抽出方法。
【請求項11】
前記第一サブ領域に対応する位置を含むように抽出されていない画像を前記第一抽出画像から削除する処理に対応する修正を、前記第一抽出画像データに対して行なう、
請求項1に記載の毛状体の抽出方法。
【請求項12】
前記第一サブ領域に対応する位置を含むように抽出された画像のうち、前記複数の毛状体の一部が映り込んでいると予測された領域と重なる部分以外を前記第一抽出画像から削除する処理に対応する修正を、前記第一抽出画像データに対して行なう、
請求項1に記載の毛状体の抽出方法。
【請求項13】
前記複数の毛状体の一つが抽出された画像が分岐点を含んでいる場合、当該分岐点から延びる当該画像の第一部分と第二部分の一方を前記第一抽出画像から削除する処理に対応する修正を、前記第一抽出画像データに対して行なう、
請求項1に記載の毛状体の抽出方法。
【請求項14】
複数の毛状体が映り込んだ原画像の各画素に当該複数の毛状体の一つの一部が映り込んでいる確率を推論する推論モデルの生成方法であって、
複数の毛状体が映り込んだ原画像に対応する原画像データを用意し、
前記複数の毛状体の一つが映り込んでいる領域に対応する位置において当該領域よりも小さい面積を有するサブ領域を含んでいるシード画像に対応するシード画像データを用意し、
少なくとも前記サブ領域に対応する位置を含むように映り込んだ前記複数の毛状体の一つが前記原画像から抽出された画像を含んでいる正解画像に対応する正解画像データを用意し、
前記原画像データと前記シード画像データが入力された場合の正解として前記正解画像データが出力されるように機械学習を実行する、
推論モデルの生成方法。
【請求項15】
複数の毛状体が映り込んだ原画像の各画素に当該複数の毛状体の一つの一部が映り込んでいる確率を推論する推論モデルの生成方法であって、
複数の毛状体が映り込んだ原画像を模した二値化画像である模擬画像に対応する模擬画像データを用意し、
前記複数の毛状体の一つが映り込んだ領域に対応する位置において当該領域よりも小さい面積を有する第一サブ領域を含んでいる第一シード画像に対応する第一シード画像データを用意し、
少なくとも前記第一サブ領域に対応する位置を含むように映り込んだ前記複数の毛状体の一つが前記模擬画像から抽出された画像を含んでいる第一正解画像に対応する第一正解画像データを用意し、
前記模擬画像データと前記第一シード画像データが入力された場合の正解として前記第一正解画像データが出力されるように機械学習を実行する、
推論モデルの生成方法。
【請求項16】
複数の毛状体が映り込んだ原画像に対応する原画像データを用意し、
前記複数の毛状体の一つが映り込んでいると予測された領域に対応する位置において当該領域よりも小さい面積を有する第二サブ領域を含んでいる第二シード画像に対応する第二シード画像データを用意し、
少なくとも前記第二サブ領域に対応する位置を含むように映り込んだ前記複数の毛状体の一つが前記原画像から抽出された画像を含んでいる第二正解画像に対応する第二正解画像データを用意し、
前記原画像データと前記第二シード画像データが入力された場合の正解として前記第二正解画像データが出力されるように機械学習を実行する、
請求項15に記載の推論モデルの生成方法。
【請求項17】
複数の毛状体が映り込んだ原画像に対応する原画像データを用意し、
前記原画像データ、前記模擬画像データ、および前記第一シード画像データが入力された場合の正解として前記第一正解画像データが出力されるように機械学習を実行する、
請求項15に記載の推論モデルの生成方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、原画像に映り込んだ複数の毛状体の一つを抽出する方法に関連する。本開示は、複数の毛状体が映り込んだ原画像の各画素に当該複数の毛状体の一つの一部が映り込んでいる確率を推論する推論モデルの生成方法にも関連する。
【背景技術】
【0002】
毛状体の状態の一例である毛髪密度(単位面積あたりの毛髪の本数)などを定量的に評価するための手法として、フォトトリコグラム法が知られている。特許文献1は、対象者の箭毛された部位をビデオカメラで撮影し、取得された当該部位の画像に基づいて毛髪特性を評価する手法を、フォトトリコグラム法の一例として開示している。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
毛状体の状態を定量的に評価可能でかつ簡略化された手法の提供が求められている。
【課題を解決するための手段】
【0005】
本開示により提供される態様例の一つは、原画像に映り込んだ複数の毛状体の一つを抽出する方法であって、
複数の毛状体が映り込んだ原画像に対応する原画像データを取得し、
前記原画像データに画像処理を適用することにより、前記原画像の各画素に前記複数の毛状体のいずれかの一部が映り込んでいるかを予測し、
各々が前記複数の毛状体の一つが映り込んでいると予測された複数の領域を含んでいる予測画像に対応する予測画像データを取得し、
前記複数の領域の一つに対応する位置において当該領域よりも小さい面積を有する第一サブ領域を含んでいる第一シード画像に対応する第一シード画像データを取得し、
前記原画像データおよび前記予測画像データの少なくとも一方と前記第一シード画像データとに基づいて、前記第一サブ領域に対応する位置を含む前記複数の毛状体の一つが前記原画像に映り込んでいる確率を、推論モデルを用いて推論し、
前記確率を二値化することにより、前記第一サブ領域に対応する位置を含み、かつ前記第一サブ領域よりも大きい面積を有するように前記複数の毛状体の一つの少なくとも一部が抽出された画像を含んでいる第一抽出画像に対応する第一抽出画像データを取得する。
【0006】
本開示により提供される態様例の一つは、複数の毛状体が映り込んだ原画像の各画素に当該複数の毛状体の一つの一部が映り込んでいる確率を推論する推論モデルの生成方法であって、
複数の毛状体が映り込んだ原画像に対応する原画像データを用意し、
前記複数の毛状体の一つが映り込んでいる領域に対応する位置において当該領域よりも小さい面積を有するサブ領域を含んでいるシード画像に対応するシード画像データを用意し、
少なくとも前記サブ領域に対応する位置を含むように映り込んだ前記複数の毛状体の一つが前記原画像から抽出された画像を含んでいる正解画像に対応する正解画像データを用意し、
前記原画像データと前記シード画像データが入力された場合の正解として前記正解画像データが出力されるように機械学習を実行する。
【0007】
本開示により提供される態様例の一つは、複数の毛状体が映り込んだ原画像の各画素に当該複数の毛状体の一つの一部が映り込んでいる確率を推論する推論モデルの生成方法であって、
複数の毛状体が映り込んだ原画像を模した二値化画像である模擬画像に対応する模擬画像データを用意し、
前記複数の毛状体の一つが映り込んだ領域に対応する位置において当該領域よりも小さい面積を有する第一サブ領域を含んでいる第一シード画像に対応する第一シード画像データを用意し、
少なくとも前記第一サブ領域に対応する位置を含むように映り込んだ前記複数の毛状体の一つが前記模擬画像から抽出された画像を含んでいる第一正解画像に対応する第一正解画像データを用意し、
前記模擬画像データと前記第一シード画像データが入力された場合の正解として前記第一正解画像データが出力されるように機械学習を実行する。
【0008】
物体の領域抽出とクラス分類を画素単位で行なう手法として、インスタンスセグメンテーションが知られている。当該手法においては、バウンディングボックスを用いて個々の頭髪が映り込んでいる領域を絞り込み、バウンディングボックス内で頭髪のセグメンテーションを行なう。
【0009】
他方、上記の各態様例においては、インスタンスセグメンテーションとは根本的に異なる新規な思想が採用されている。上記の抽出方法においては、原画像に映り込んだ複数の毛状体のうち注目する一つについて、個々の毛状体よりも小さな面積を有する第一サブ領域が設定される。推論モデルは、そのような第一サブ領域を、当該一つの毛状体が映り込んだ領域を示すように「成長させる」機能を有しているとも言える。予測画像に含まれる毛状体が映り込んでいると予測された全ての領域について第一シード画像の生成と第一抽出画像の取得を繰り返すことにより、原画像に映り込んだ複数の毛状体を一つずつ抽出できる。
【0010】
したがって、毛状体の状態の定量的評価を適切に行なうことができる。加えて、毛状体の一例として個々の頭髪が抽出される場合において、対象者に箭毛を強いる必要もない。よって、毛状体の状態を定量的に評価可能で、かつ簡略化された手法を提供できる。
【図面の簡単な説明】
【0011】
【
図1】一実施形態に係る頭髪の抽出方法の流れを例示している。
【
図2】頭髪の原画像を取得する方法を例示している。
【
図5】予測画像を取得する方法の別例を示している。
【
図6】抽出画像を取得する方法の一例を示している。
【
図7】
図6の第二推論モデルを生成する方法の一例を示している。
【
図8】
図6の第二推論モデルを生成する方法の別例を示している。
【
図9】抽出画像を取得する方法の別例を示している。
【
図10】抽出画像を取得する方法の別例を示している。
【
図11】抽出画像を取得する方法の別例を示している。
【
図12】抽出画像を取得する方法の別例を示している。
【発明を実施するための形態】
【0012】
添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。
【0013】
一実施形態例においては、対象者の画像に映り込んだ複数の頭髪から一本の頭髪を抽出する画像処理が実行される。頭髪は、毛状体の一例である。
図1は、当該方法の流れを例示している。
【0014】
まず、対象者の頭髪の原画像が取得される(STEP1)。
図2は、対象者の頭髪の原画像を取得する方法の一例を示している。対象者の頭部1における頭髪状態の把握を所望する箇所と対向するように撮像装置2が配置される。可能であれば、ヘアピン3を用いて当該箇所の頭髪を分け留め、頭皮が露出した状態とされることが望ましい。
【0015】
図3は、撮像装置2により撮像された頭髪の原画像10を例示している。原画像10には複数の頭髪11が映り込んでいる。本例においては、原画像10は、256×256個の画素を含んでいる。撮像装置2は、原画像10に対応する原画像データを出力する。
【0016】
続いて、
図1に例示されるように、予測画像が取得される(STEP2)。具体的には、原画像データに所定の画像処理が適用されることにより、原画像10の各画素に複数の頭髪11のいずれかの一部が映り込んでいるかが予測される。
【0017】
本例においては、
図4に示されるように、原画像10に対応する原画像データODが第一推論モデル101に入力される。第一推論モデル101は、入力された原画像データODに対応する原画像10の各画素に頭髪11の一部が映り込んでいる確率を出力するように機械学習がなされたコンピュータアルゴリズムである。換言すると、第一推論モデル101は、原画像10に映り込んだ頭部の画像から頭髪をセグメンテーションするように機械学習がなされている。第一推論モデル101に用いられるコンピュータアルゴリズムの例としては、U-netが挙げられる。
【0018】
例えば第一推論モデル101により出力された確率を二値化する処理を行なうことにより、同図に例示される予測画像20が取得されうる。予測画像20もまた、256×256個の画素を含んでいる。
【0019】
予測画像20は、複数の黒色領域21を含んでいる。複数の黒色領域21の各々は、第一推論モデル101により出力された確率が閾値以上である画素を含んでいる。すなわち、黒色領域21は、頭髪11の一部が映り込んでいると予測された原画像10の画素に対応している。
【0020】
予測画像20は、白色領域22を含んでいる。白色領域22は、当該確率が閾値未満である画素を含んでいる。すなわち、白色領域22は、頭髪11の一部が映り込んでいないと予測された原画像10の画素に対応している。なお、当該確率に対する黒色と白色の関係は逆でもよい。
【0021】
したがって、予測画像20に対応する予測画像データEDは、各々が黒色または白色に対応付けられた値を有する複数の画素データを含む。
【0022】
前述の画像処理は、
図5に例示される処理20a、処理20b、および処理20cの少なくとも一つを含みうる。
【0023】
処理20aにおいては、
図4に例示される予測画像20の周縁部が除去される。除去される部分の大きさは、例えば予測画像20の四辺から10画素の範囲とされうる。これにより注目する領域と隣接する領域から及びうる後段の抽出処理への影響を抑制できる。
【0024】
処理20bにおいては、予測画像20に含まれる複数の黒色領域21のうち、面積が所定の閾値未満であるものが除去される。これにより、頭髪である確からしさがより高い黒色領域21が残され、ノイズや頭皮上に位置する小さな異物などが後段の抽出処理に及ぼしうる影響を抑制できる。
【0025】
処理20cにおいては、黒色領域21の幅が規格化される。これにより、各黒色領域21の区別性を高めることができるので、比較的近い距離で隣り合う頭髪同士が一本の頭髪とみなされる可能性を低減できる。
【0026】
続いて、
図1に例示されるように、予測画像20に含まれる黒色領域21に対して「シード」と称されるサブ領域が設定されることにより、シード画像が取得される(STEP3)。「シード」とは、黒色領域21よりも小さい面積を有しているサブ領域であり、少なくとも一つの画素を含んでいる。
【0027】
具体的には、
図6に例示されるように、予測画像20に含まれる複数の黒色領域21の一つである黒色領域21aについて「シード」が配置される位置が決定され、シード画像31が生成される。シード画像31もまた、256×256個の画素を含んでいる。シード画像31は、黒色領域21aに対応する位置に配置された単一のシード311を含んでいる。本例においては、シード311は、少なくとも一つの黒色の画素を含んでいる。よって、シード画像31に対応するシード画像データSDは、黒色に対応付けられた値を有する少なくとも一つの画素データを含んでいる。
【0028】
続いて、
図1に例示されるように、黒色領域21aに対応する一本の頭髪を抽出する処理が行なわれる(STEP4)。具体的には、上記のように取得された予測画像データEDとシード画像データSDとに基づいて、原画像10における少なくともシード311に対応する位置に黒色領域21aに対応する一本の頭髪11が映り込んでいる確率が推論される。
【0029】
本例においては、
図6に示されるように、予測画像20に対応する予測画像データEDとシード画像31に対応するシード画像データSDが、第二推論モデル102に入力される。第二推論モデル102は、当該入力に基づいて、原画像10における少なくともシード311に対応する位置に複数の頭髪11の一本が映り込んでいる確率を出力するように機械学習がなされたコンピュータアルゴリズムである。換言すると、第二推論モデル102は、シード311が配置された位置を含むように映り込んだ頭髪を、原画像10に映り込んだ頭部の画像からセグメンテーションするように機械学習がなされている。第二推論モデル102に用いられるコンピュータアルゴリズムの例としては、U-netが挙げられる。
【0030】
図7は、機械学習により第二推論モデル102を生成する方法の一例を示している。本例においては、原画像データOD、シード画像データSD、および正解画像データCDのセットが多数用意される。
【0031】
原画像データODは、複数の頭髪51が映り込んだ原画像50に対応している。シード画像データSDは、複数の頭髪51の一本が映り込んでいる領域に対応する位置において当該領域よりも小さい面積を有するサブ領域(シード)61を含んでいるシード画像60に対応している。正解画像データCDは、少なくともサブ領域61を含む位置に映り込んだ複数の頭髪51の一本が原画像50から抽出された画像71を含んでいる正解画像70に対応している。
【0032】
機械学習は、各セットにおける原画像データODとシード画像データSDが入力された場合の正解として同セットにおける正解画像データCDが出力されるように推論パラメータのチューニングがなされる。その結果として、第二推論モデル102は、原画像に映り込んだ複数の頭髪の一本に着目して生成されたシードの位置に基づいて、当該シードの位置を含み、かつ当該一本の頭髪が映り込んでいる確率が高い領域を推論する能力を獲得できる。
【0033】
図8は、機械学習により第二推論モデル102を生成する方法の別例を示している。本例においては、模擬画像データID、シード画像データSD、および正解画像データCDのセットが多数用意される。
【0034】
模擬画像データIDは、複数の頭髪が映り込んだ原画像を模した二値化画像である模擬画像80に対応している。模擬画像80は、複数の模擬頭髪81を含んでいる。模擬画像80は、コンピュータにより実行される自動画像生成アルゴリズムにより生成されうる。
【0035】
例えば、512×512画素の大きさを有する正方形の領域内に複数の楕円弧を描画した後、256×256画素の大きさを有する当該領域の中心部を切り出す処理を行なうことにより、模擬画像80が取得されうる。描画された各楕円弧の一部が模擬頭髪81を形成する。楕円弧の描画パラメータは以下の通りとされうる。
本数:μ=30本,σ=20本の正規分布でランダム、かつ10~20本の範囲内
中心座標:正方形領域内でランダム
長径:正方形領域をはみ出さない範囲でランダム
短径:正方形領域をはみ出さない範囲でランダム
傾き角(偏角):0~360°でランダム
描画開始角度:偏角-45°~偏角+45°でランダム
描画終了角度:偏角-45°~偏角+45°でランダム
太さ:4~8画素でランダム
長さ:一定の閾値より長いもののみ描画
【0036】
本例におけるシード画像データSDは、複数の模擬頭髪81の一本が映り込んでいる領域に対応する位置において当該領域よりも小さい面積を有するサブ領域(シード)61を含んでいるシード画像60に対応している。正解画像データCDは、少なくともサブ領域61を含む位置に映り込んだ複数の模擬頭髪81の一本が模擬画像80から抽出された画像71を含んでいる正解画像70に対応している。
【0037】
機械学習は、各セットにおける模擬画像データIDとシード画像データSDが入力された場合の正解として同セットにおける正解画像データCDが出力されるように推論パラメータのチューニングがなされる。本例に係る手法によっても、第二推論モデル102は、原画像に映り込んだ複数の頭髪の一本に着目して生成されたシードの位置に基づいて、当該シードの位置を含み、かつ当該一本の頭髪が映り込んでいる確率が高い領域を推論する能力を獲得できる。加えて、模擬画像80はコンピュータアルゴリズムにより自動生成できるので、豊富な量の機械学習を効率よく実行できる。
【0038】
模擬画像データIDを用いた機械学習がある程度進行した段階で、
図7を参照して説明した原画像データODを用いる学習に移行してもよい。これにより、現実に取得される頭髪の原画像への対応性がより高められた第二推論モデル102の機械学習を効率よく実行できる。
【0039】
図6に例示されるように、上記のような機械学習を通じて生成された第二推論モデル102から予測画像データEDとシード画像31に対応するシード画像データSDに基づいて出力された確率を二値化することにより、抽出画像41が取得される。抽出画像41もまた、256×256個の画素を含んでいる。
【0040】
抽出画像41は、黒色領域411を含んでいる。黒色領域411は、第二推論モデル102により出力された確率が閾値以上である画素を含んでいる。黒色領域411は、シード画像31におけるシード311と対応する位置の画素を含んでいる。黒色領域411の面積は、シード311の面積よりも大きい。すなわち、黒色領域411は、一本の頭髪11が少なくともシード311に対応する位置を含むように映り込んでいると推論された原画像10の画素に対応している。
【0041】
抽出画像41は、白色領域410を含んでいる。白色領域410は、当該確率が閾値未満である画素を含んでいる。すなわち、白色領域22は、一本の頭髪11が少なくともシード311に対応する位置を含むように映り込んでいないと推論された原画像10の画素に対応している。なお、当該確率に対する黒色と白色の関係は逆でもよい。
【0042】
したがって、抽出画像41に対応する抽出画像データXDは、各々が黒色または白色に対応付けられた値を有する複数の画素データを含む。
【0043】
物体の領域抽出とクラス分類を画素単位で行なう手法として、インスタンスセグメンテーションが知られている。当該手法においては、バウンディングボックスを用いて個々の頭髪が映り込んでいる領域を絞り込み、バウンディングボックス内で頭髪のセグメンテーションを行なう。
【0044】
他方、本開示に係る抽出方法においては、インスタンスセグメンテーションとは根本的に異なる新規な思想が採用されている。本方法においては、原画像10に映り込んだ複数の頭髪11のうち注目する一本について、個々の頭髪11よりも小さな面積を有するシード311が設定される。第二推論モデル102は、そのようなシード311を、当該一本の頭髪11が映り込んだ領域を示すように「成長させる」機能を有しているとも言える。予測画像20に含まれる全ての黒色領域21についてシード画像の生成と抽出画像の取得を繰り返すことにより、原画像10に映り込んだ複数の頭髪11を一本ずつ抽出できる。
【0045】
したがって、対象者の頭髪状態(頭髪密度など)の定量的評価を適切に行なうことができる。加えて、個々の頭髪11を抽出するために対象者に箭毛を強いる必要もない。よって、頭髪状態を定量的に評価可能で、かつ簡略化された頭髪抽出の手法を提供できる。
【0046】
シード311を含むシード画像31が第二推論モデル102に入力されることにより、シード311よりも大きな面積を有する黒色領域(一本の頭髪11が映り込んでいる確率が高い領域)が得られるが、この黒色領域が必ずしも一本の頭髪11の抽出に十分な大きさを有しているとは限らない。
図6においては、「成長不十分」な黒色領域412を含む抽出画像41Aが例示されている。
【0047】
このような場合、抽出画像41Aは、新たなシード画像として予測画像20とともに第二推論モデル102へ入力されうる。すなわち、第二推論モデル102は、抽出画像41Aに含まれる黒色領域412を新たなシードとして、予測画像20における黒色領域21aに対応する一本の頭髪11が原画像10における少なくとも黒色領域412に対応する位置に映り込んでいる確率を再推論する。
【0048】
第二推論モデル102により出力された当該確率を二値化する処理が行なわれることにより、新たな抽出画像41Bが取得される。抽出画像41Bは、黒色領域413を含んでいる。黒色領域413は、抽出画像41Aにおける黒色領域412と対応する位置の画素を含んでいる。黒色領域413の面積は、シードとして用いられた黒色領域412の面積よりも大きい。
【0049】
図6に示される例においては、抽出画像41Bに含まれる黒色領域413もまた「成長不十分」と判断されている。よって、抽出画像41Bは、新たなシード画像として予測画像20とともに第二推論モデル102へ入力されている。すなわち、第二推論モデル102は、抽出画像41Bに含まれる黒色領域413を新たなシードとして、予測画像20における黒色領域21aに対応する一本の頭髪11が原画像10における少なくとも黒色領域413に対応する位置に映り込んでいる確率を再推論する。結果として、予測画像20における黒色領域21aに対応する一本の頭髪11を抽出するのに十分な大きさを有する黒色領域411を含む抽出画像41が取得されている。
【0050】
上記のような処理を行なうことにより、不十分な大きさの黒色領域を含む抽出画像に起因する所望の頭髪11の抽出精度の低下を抑制できる。なお、「成長不十分」であるかを判断する処理に代えて、抽出画像を新たなシード画像として第二推論モデル102へ入力する処理を所定の回数だけ繰り返すようにしてもよい。あるいは、最新の抽出画像に含まれる黒色領域413の大きさと前回の抽出画像に含まれる黒色領域413の大きさの差分が閾値を下回った場合には成長が十分であるとみなし、抽出画像を新たなシード画像として第二推論モデル102へ入力する処理を終了してもよい。
【0051】
なお、第二推論モデル102による推論を経ることにより、抽出画像に含まれる黒色領域の大きさは、頭髪11の長さ方向だけでなく頭髪11の幅方向にも増大する。したがって、抽出画像が新たなシード画像として第二推論モデル102に入力される前に、
図5を参照して説明した処理20cを行なうことによって黒色領域の幅を規格化することが好ましい。これにより、頭髪11の長さ方向へのシードの「成長」を促すことができるだけでなく、頭髪11の幅方向へのシードの「成長」に起因する所望の頭髪11の抽出精度の低下を抑制できる。
【0052】
抽出画像41が取得された後で予測画像20に含まれる全ての黒色領域21についてシード画像の生成と抽出画像の取得が繰り返される処理について、より詳細に説明する。以降の説明においては、抽出画像41の場合と実質的に同じ内容についての繰り返しとなる説明は省略する。
【0053】
抽出画像41が取得された後、予測画像20の一部が削除された修正予測画像を取得する処理が行なわれる(STEP5)。
【0054】
具体的には、
図9に例示されるように、予測画像20においてシード311に対応付けられた黒色領域21aが削除された修正予測画像20Aに対応する修正予測画像データMDが取得される。
【0055】
続いて、原画像10に映り込んだ全ての頭髪11について抽出処理がなされたかが判断される(
図1のSTEP6)。具体的には、修正予測画像中に黒色領域が残っているかに基づいて判断がなされる。黒色領域が残っていないと判断されると(STEP6においてYES)、全ての頭髪11について抽出処理がなされたとみなされ、処理は終了する。
【0056】
黒色領域が残っていると判断されると(STEP6においてNO)、処理はSTEP3に戻り、「シード」が配置される別の黒色領域がランダムに選ばれるとともに、選ばれた別の黒色領域について「シード」が配置される位置がランダムに決定される。
図9に示される例においては、修正予測画像20Aに含まれる別の黒色領域21bが選択され、新たなシード画像32が生成されている。シード画像32は、黒色領域21bに対応する位置に配置された単一のシード321を含んでいる。
【0057】
続いて、シード画像31の場合と同様に、シード画像32に対応するシード画像データが第二推論モデル102への入力に供される。これにより、原画像10における少なくともシード321に対応する位置に黒色領域21bに対応する一本の頭髪11が映り込んでいる確率が出力される。
【0058】
第二推論モデル102により出力された確率を二値化する処理を行なうことにより、抽出画像42が取得される(
図1のSTEP4)。抽出画像42は、黒色領域421を含んでいる。黒色領域421は、第二推論モデル102により出力された確率が閾値以上である画素を含んでいる。黒色領域421は、シード画像32におけるシード321と対応する位置の画素を含んでいる。黒色領域421の面積は、シード321の面積よりも大きい。すなわち、黒色領域421は、一本の頭髪11が少なくともシード321に対応する位置を含むように映り込んでいると推論された原画像10の画素に対応している。
【0059】
続いて、修正予測画像20Aにおいてシード321に対応付けられた黒色領域21bが削除された修正予測画像20Bに対応する修正予測画像データMDが取得される(
図1のSTEP5)。
【0060】
予測画像20に含まれていた全ての黒色領域21について抽出画像の取得が完了していないので(
図1のSTEP6においてNO)、修正予測画像20Bに含まれる別の黒色領域21cについて「シード」が配置される位置が決定され、新たなシード画像33が生成される(
図1のSTEP3)。シード画像33は、黒色領域21cに対応する位置に配置された単一のシード331を含んでいる。
【0061】
続いて、シード画像31の場合と同様に、シード画像33に対応するシード画像データが第二推論モデル102への入力に供される。これにより、原画像10における少なくともシード331に対応する位置に黒色領域21cに対応する一本の頭髪11が映り込んでいる確率が出力される。
【0062】
第二推論モデル102により出力された確率を二値化する処理を行なうことにより、抽出画像43が取得される(
図1のSTEP4)。抽出画像43は、黒色領域431を含んでいる。黒色領域431は、第二推論モデル102により出力された確率が閾値以上である画素を含んでいる。黒色領域431は、シード画像33におけるシード331と対応する位置の画素を含んでいる。黒色領域431の面積は、シード331の面積よりも大きい。すなわち、黒色領域431は、一本の頭髪11が少なくともシード331に対応する位置を含むように映り込んでいると推論された原画像10の画素に対応している。
【0063】
すなわち、シードの設定を通じて既に抽出がなされた頭髪に対応する黒色領域21を削除する処理を通じて修正予測画像データMDが取得される。これにより、既に抽出処理がなされた頭髪に対応する黒色領域21の存在が、後続する抽出処理に供される黒色領域21に対して及ぼしうる影響を抑制できる。例えば、所望の黒色領域21に対して然るべくシードの設定がなされることなく、抽出済みの頭髪に対応する黒色領域21に対して重複的にシードが設定されてしまう事態の発生を抑制できる。
【0064】
なお、修正予測画像データMDの取得に際しては、削除対象の黒色領域21を含み、かつ当該黒色領域21よりも大きな面積を有する範囲の画像が削除されることが好ましい。この場合、抽出済みの頭髪に対応する黒色領域21の周囲に残存しうるノイズ画像に対して不要なシードが設定されてしまう事態の発生を抑制できる。
【0065】
第二推論モデル102は、
図7に例示されるような複数の頭髪51が重なった原画像50からサブ領域(シード)61を含む位置に映り込んだ1本の頭髪51が原画像50から抽出された画像71を生成するように学習がなされるが、重なっている二本以上の頭髪51が抽出される場合がありうる。例えば、
図9に示される抽出画像43に含まれている黒色領域431のように、二本の頭髪11が分岐点を有する一つの黒色領域として抽出される場合がありうる。
【0066】
この場合、
図10に例示されるように、分岐点431aから延びる第一部分4311と第二部分4312の一方を削除する処理に対応する修正が、抽出画像データXDに対して行なわれうる。
【0067】
まず、分岐点431aを含む黒色領域431について、三つの先端431b、431c、431dが特定される。先端431bは、黒色領域431の基部4310の先端に対応している。基部4310は、黒色領域431のうちシード311が設定された位置を含む部分である。先端431cは、第一部分4311の先端である。先端431dは、第二部分4312の先端である。
【0068】
続いて、分岐点431aから三つの431b、431c、431dへそれぞれ向かう三本のベクトルV0、V1、V2が定義される。
【0069】
次に、基部4310に対応するベクトルV0と第一部分4311に対応するベクトルV1の内積P1が計算される。同様に、基部4310に対応するベクトルV0と第二部分4312に対応するベクトルV2の内積P2が計算される。
【0070】
最後に、内積P1と内積P2の大きさが比較され、より小さな内積を提供したベクトルに対応する第一部分4311と第二部分4312の一方が、削除に供される。すなわち、基部4310に対する屈曲がより大きい第一部分4311と第二部分4312の一方が、削除に供される。本例においては、第二部分4312が削除された新たな抽出画像41が取得されている。
【0071】
削除された第二部分4312については、第二部分4312を含む新たな抽出画像41として取り扱われてもよいし、第二部分4312を含む新たな予測画像20としてシードの設定に供されてもよい。
【0072】
本開示に係る抽出方法が対象とする頭髪は、細長い形状を有しており、かつ隣り合う頭髪と重なり合いやすい。よって、インスタンスセグメンテーションに用いられるバウンディングボックスの形状もまた細長くなり、かつバウンディングボックス同士の重畳が生じやすくなる。このような条件下では、個々の頭髪の抽出精度を高めることが難しい。他方、上記のような処理を行なうことにより、重なり合った複数の頭髪11の個別抽出精度の低下を抑制できる。
【0073】
図11は、抽出画像データXDに対する修正処理の別例を示している。前述のように、第二推論モデル102による推論を経ることにより、抽出画像に含まれる黒色領域の大きさは、頭髪11の長さ方向だけでなく頭髪11の幅方向にも増大する。同図に例示される抽出画像41Cは、頭髪11の幅方向にも「成長」した黒色領域414を含んでいる。
【0074】
本開示に係る抽出方法においては、黒色領域414のうち、予測画像20に含まれる黒色領域21aと重なる部分以外を抽出画像41Cから削除する処理に対応する修正が、抽出画像データXDに対してなされうる。
【0075】
このような処理を行なうことにより、不要な「成長」部分がそぎ落とされて実際の頭髪11により近い形状の黒色領域を含む抽出画像が得られる。結果として、所望の頭髪11の抽出精度の低下を抑制できる。
【0076】
図11に例示されるように、第二推論モデル102の推論アルゴリズムによっては、予測画像20に含まれる黒色領域21aに由来しない黒色領域415が予期せず抽出画像41Cに含まれる場合がある。
【0077】
本開示に係る抽出方法においては、シード311に対応する位置を含むように抽出されていない黒色領域415を抽出画像41Cから削除する処理に対応する修正が、抽出画像データXDに対してなされうる。
【0078】
このような処理を行なうことにより、第二推論モデル102によって予期せず生成された不要な黒色領域が所望の頭髪11の抽出に及ぼしうる影響を抑制できる。
【0079】
図6、
図9、および
図11に例示されるように、上記の各処理例においては、予測画像20に含まれる黒色領域21の端部に対応する位置にシードが設定されている。黒色領域21の端部は頭髪11の先端または基端に対応している確率が高いので、所望の頭髪11の少なくとも一部が抽出された画像が生成される可能性を高めることができる。しかしながら、シードが設定される位置は、黒色領域21に含まれる任意の位置でありうる。
【0080】
上記の各処理例においては、予測画像20に含まれる複数の黒色領域21の各々に対して単一のシードが設定されている。しかしながら、
図12に例示されるように、特定の黒色領域21に対して複数のシードが設定されうる。
【0081】
本例においては、予測画像20に含まれる複数の黒色領域21の一つである黒色領域21aに対して第一のシード341が設定され、シード341を含むシード画像34が生成されている。予測画像20に対応する予測画像データEDとシード画像34に対応するシード画像データSDが第二推論モデル102に入力されることにより、黒色領域416を含む抽出画像41Dが取得されている。
【0082】
加えて、同じ黒色領域21aに対して第二のシード351が設定され、シード351を含むシード画像35が生成されている。第二のシード351が設定される位置は、第一のシード341が設定される位置と異なっている。予測画像20に対応する予測画像データEDとシード画像34に対応するシード画像データSDが第二推論モデル102に入力されることにより、黒色領域417を含む抽出画像41Eが取得されている。
【0083】
本例においては、第一のシード314に基づいて取得された抽出画像41Dに含まれる黒色領域416と、第二のシード315に基づいて取得された抽出画像41Eに含まれる黒色領域417との類似性を示す指標値が取得される。指標値の例としては、IoU(Intersection over Union)、F値などが挙げられる。
【0084】
当該指標値が所定の閾値を上回る場合、抽出画像41Dと抽出画像41Eに基づいて、新たな抽出画像41Fが生成される。なお、閾値は一定であってもよいし、可変であってもよい。
【0085】
具体的には、抽出画像41Dに含まれる黒色領域416と抽出画像41Eに含まれる黒色領域417の平均画像が取得される。平均画像に含まれる各画素の階調値は、元の抽出画像における対応する画素の階調値同士の平均値となる。例えば平均画像の階調値が所定の中間調に対応する閾値を下回る場合に黒色とされるように二値化処理を行なうことにより、新たな黒色領域418を含む抽出画像41Fが生成される。
【0086】
このような処理によれば、予測画像20に含まれる特定の黒色領域21について重複した抽出画像が取得されることを避けつつ、当該特定の黒色領域21が単一の頭髪11に対応しているのか、あるいは複数の頭髪に11に対応しているのかを弁別できる。
【0087】
予測画像20に含まれる複数の黒色領域21の各々について設定されるシードの数は、三つ以上であってもよい。その場合、ペアを形成しうる全ての抽出画像の組合せについて類似性に対応する指標値の取得がなされ、指標値の最も大きな組合せについて新たな抽出画像が生成される。新たな抽出画像は、その抽出画像の生成元となった抽出画像の代わりに、類似性に対応する指標値の取得に利用される。新たな抽出画像と別の抽出画像の平均画像を取得する場合は、新たな抽出画像の生成元となった全ての抽出画像と別の抽出画像を全て用いて平均画像を取得する。ペアを形成しうる全ての抽出画像の組合せについて類似性に対応する指標値を取得し、新たな抽出画像を生成する処理は、類似性を示す指標値が全ての組合せについて閾値以下となるまで反復される。
【0088】
なお、複数の抽出画像同士の類似性に対応する指標値を取得する上述の処理は、
図6と
図9を参照して説明した複数の抽出画像41~43についても適用可能である。この場合、予測画像に含まれる別々の黒色領域21が、単一の頭髪11に対応しているのか、あるいは複数の頭髪11に対応しているのかを弁別できる。
【0089】
これまで説明した本開示に係る各処理は、少なくとも一つのコンピュータに搭載された少なくとも一つのプロセッサにより実行される。
【0090】
当該プロセッサは、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、当該機能を実現するためのコンピュータプログラムが記憶されうる。汎用マイクロプロセッサは、ROM上に記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。この場合、当該汎用メモリは、コンピュータプログラムが記憶された非一時的なコンピュータ可読媒体の一例である。
【0091】
当該プロセッサは、当該機能を実現するためのコンピュータプログラムがプリインストールされた記憶素子を備えたマイクロコントローラ、ASIC、FPGAなどの専用集積回路によって実現されてもよい。この場合、当該記憶素子は、コンピュータプログラムが記憶された非一時的なコンピュータ可読媒体の一例である。
【0092】
当該プロセッサは、汎用マイクロプロセッサと専用集積回路の組合せによって実現されてもよい。
【0093】
これまで説明した各処理は、本開示の理解を容易にするための例示にすぎない。各処理例は、本開示の趣旨から逸脱しなければ、適宜の変更や他の処理例との組合せがなされうる。
【0094】
上記の実施形態例においては、
図4に示されるように、原画像10に対応する原画像データODを第一推論モデル101に入力することにより、予測画像データEDが取得されている。しかしながら、予測画像データEDを取得するために必ずしも第一推論モデル101が用いられることを要しない。例えば、原画像10を単純に二値化処理することで予測画像20が取得されてもよい。
【0095】
上記の実施形態例においては、予測画像20に対応する予測画像データEDがシード画像データSDとともに第二推論モデル102に入力されることにより、抽出画像データXDが取得されている。これに加えてあるいは代えて、原画像10に対応する原画像データODが、シード画像データSDとともに第二推論モデル102に入力されてもよい。
【0096】
なお、原画像データODと予測画像データEDの双方が第二推論モデル102に入力される構成の場合、この第二推論モデル102を生成するための機械学習は、原画像データODと模擬画像データIDの双方を用いて行なわれる必要がある。
【0097】
上記の実施形態例においては、人の頭髪が抽出の対象とされている。しかしながら、人の身体の他の部位に生えている毛髪、および人以外の動植物に生えている毛髪もまた、抽出の対象となりうる。また、ブラシの毛などの非生体が備えている毛状体もまた、抽出の対象となりうる。
【0098】
以下に列挙される構成もまた、本開示の一部を構成する。
項目1:
原画像に映り込んだ複数の毛状体の一つを抽出する方法であって、
複数の毛状体が映り込んだ原画像に対応する原画像データを取得し、
前記原画像データに画像処理を適用することにより、前記原画像の各画素に前記複数の毛状体のいずれかの一部が映り込んでいるかを予測し、
各々が前記複数の毛状体の一つが映り込んでいると予測された複数の領域を含んでいる予測画像に対応する予測画像データを取得し、
前記複数の領域の一つに対応する位置において当該領域よりも小さい面積を有する第一サブ領域を含んでいる第一シード画像に対応する第一シード画像データを取得し、
前記原画像データおよび前記予測画像データの少なくとも一方と前記第一シード画像データとに基づいて、前記第一サブ領域に対応する位置を含む前記複数の毛状体の一つが前記原画像に映り込んでいる確率を、推論モデルを用いて推論し、
前記確率を二値化することにより、前記第一サブ領域に対応する位置を含み、かつ前記第一サブ領域よりも大きい面積を有するように前記複数の毛状体の一つの少なくとも一部が抽出された画像を含んでいる第一抽出画像に対応する第一抽出画像データを取得する、
毛状体の抽出方法。
項目2:
前記画像処理は、入力された原画像データに対応する原画像の各画素に前記複数の毛状体の一部が映り込んでいる確率を出力する推論モデルに前記原画像データを入力する処理を含んでいる、
項目1に記載の毛状体の抽出方法。
項目3:
前記第一シード画像の取得に先立ち、前記予測画像における前記複数の毛状体の一部が映り込んでいると予測された領域の幅が規格化される、
項目1または2に記載の毛状体の抽出方法。
項目4:
前記第一サブ領域は、前記領域の端部に対応する位置に配置される、
項目1から3のいずれか一項に記載の毛状体の抽出方法。
項目5:
前記複数の領域の一つに対応する位置において当該領域よりも小さい面積を有する第二サブ領域を前記第一サブ領域とは異なる位置に含んでいる第二シード画像に対応する第二シード画像データを取得し、
前記原画像データおよび前記予測画像データの少なくとも一方と前記第二シード画像データに基づいて、前記第二サブ領域に対応する位置を含む前記複数の毛状体の一つが前記原画像に映り込んでいる確率を推論し、
前記確率を二値化することにより、前記第二サブ領域に対応する位置を含み、かつ前記第二サブ領域よりも大きい面積を有するように前記複数の毛状体の一つの少なくとも一部が抽出された画像を含んでいる第二抽出画像に対応する第二抽出画像データを取得し、
前記第一抽出画像に抽出されている画像と、前記第二抽出画像に抽出されている画像との類似性を示す指標値を取得し、
前記指標値が閾値を上回る場合、前記第一抽出画像と前記第二抽出画像に基づいて前記複数の毛状体の一つの少なくとも一部を含むように生成された新たな抽出画像に対応するデータを、前記第一抽出画像データとして採用する、
項目1に記載の毛状体の抽出方法。
項目6:
前記第一抽出画像データの取得後に、前記第一サブ領域に対応付けられた前記複数の領域の一つが前記予測画像から削除された修正予測画像に対応する修正予測画像データを取得し、
前記修正予測画像における前記複数の領域の別の一つに対応する位置において当該領域よりも小さい面積を有する第二サブ領域を含んでいる第二シード画像に対応する第二シード画像データを取得し、
前記原画像データおよび前記予測画像データの少なくとも一方と前記第二シード画像データに基づいて、前記第二サブ領域に対応する位置を含む前記複数の毛状体の別の一つが前記原画像に映り込んでいる確率を推論し、
前記確率を二値化することにより、前記第二サブ領域に対応する位置を含み、かつ前記第二サブ領域よりも大きい面積を有するように前記複数の毛状体の別の一つの少なくとも一部が抽出された画像を含んでいる第二抽出画像に対応する第二抽出画像データを取得する、
項目1から4のいずれか一項に記載の毛状体の抽出方法。
項目7:
前記修正予測画像においては、前記第一サブ領域に対応付けられた前記複数の領域の一つを含み、かつ当該領域よりも大きな面積を有する範囲の画像が、前記予測画像から削除されている、
項目6に記載の毛状体の抽出方法。
項目8:
前記第一抽出画像に抽出されている画像と、前記第二抽出画像に抽出されている画像との類似性を示す指標値を取得し、
前記指標値が閾値を上回る場合、前記第一抽出画像と前記第二抽出画像に基づいて前記複数の毛状体の一つの少なくとも一部を含むように生成された新たな抽出画像に対応するデータを、前記第一抽出画像データとして採用する、
項目6または7に記載の毛状体の抽出方法。
項目9:
前記第一抽出画像データを新たな前記第一シード画像データとして前記確率を再推論する、
項目1から8のいずれか一項に記載の毛状体の抽出方法。
項目10:
前記第一抽出画像データが新たな前記第一シード画像データとされる前に、前記複数の毛状体の一つが抽出された画像の幅を規格化する処理に対応する修正を、前記第一抽出画像データに対して行なう、
項目9に記載の毛状体の抽出方法。
項目11:
前記第一サブ領域に対応する位置を含むように抽出されていない画像を前記第一抽出画像から削除する処理に対応する修正を、前記第一抽出画像データに対して行なう、
項目1から10のいずれか一項に記載の毛状体の抽出方法。
項目12:
前記第一サブ領域に対応する位置を含むように抽出された画像のうち、前記複数の毛状体の一部が映り込んでいると予測された領域と重なる部分以外を前記第一抽出画像から削除する処理に対応する修正を、前記第一抽出画像データに対して行なう、
項目1から11のいずれか一項に記載の毛状体の抽出方法。
項目13:
前記複数の毛状体の一つが抽出された画像が分岐点を含んでいる場合、当該分岐点から延びる当該画像の第一部分と第二部分の一方を前記第一抽出画像から削除する処理に対応する修正を、前記第一抽出画像データに対して行なう、
項目1から12のいずれか一項に記載の毛状体の抽出方法。
【符号の説明】
【0099】
10:原画像、11:頭髪、20:予測画像、20A:修正予測画像、21:黒色領域、31:シード画像、311:シード、41:抽出画像、411:黒色領域、80:模擬画像、81:模擬頭髪、101:第一推論モデル、102:第二推論モデル、CD:正解画像データ、ED:予測画像データ、ID:模擬画像データ、MD:修正予測画像データ、OD:原画像データ、SD:シード画像データ、XD:抽出画像データ