(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023032096
(43)【公開日】2023-03-09
(54)【発明の名称】区分け画像推定装置、区分け画像推定方法、機械学習装置、及び機械学習方法
(51)【国際特許分類】
G06T 7/00 20170101AFI20230302BHJP
G06T 7/10 20170101ALI20230302BHJP
【FI】
G06T7/00 350B
G06T7/10
【審査請求】未請求
【請求項の数】16
【出願形態】OL
(21)【出願番号】P 2021138004
(22)【出願日】2021-08-26
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和元年度、国立研究開発法人科学技術振興機構、研究成果展開事業 共創の場形成支援(産学共創プラットフォーム共同研究推進プログラム)「食の未来を拓く革新的先端技術の創出に関する国立大学法人筑波大学による研究開発」委託研究開発、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】504171134
【氏名又は名称】国立大学法人 筑波大学
(74)【代理人】
【識別番号】110000338
【氏名又は名称】弁理士法人 HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】福田 直也
(72)【発明者】
【氏名】アランニャ クラウス デ カステロ
(72)【発明者】
【氏名】今倉 暁
(72)【発明者】
【氏名】櫻井 鉄也
(72)【発明者】
【氏名】アベ ミツ テル
(72)【発明者】
【氏名】藤内 直道
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096DA01
5L096EA39
5L096FA34
5L096FA67
5L096JA03
5L096JA11
5L096KA04
(57)【要約】
【課題】3Dスキャナーとは異なる手法を用いて葉群落における葉の形質評価を実施する技術を提供すること。
【解決手段】区分け画像推定装置(1)は、機械学習により構築された学習済モデル(LM)を用いて、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する第1の推定ステップを実行する1又は複数のプロセッサを備えており、前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、前記学習済モデルの出力は、前記区分け画像を表す区分け画像データである。
【選択図】
図1
【特許請求の範囲】
【請求項1】
機械学習により構築された学習済モデルを用いて、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する第1の推定ステップを実行する1又は複数のプロセッサを備えており、
前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、
前記学習済モデルの出力は、前記区分け画像を表す区分け画像データである、
ことを特徴とする区分け画像推定装置。
【請求項2】
前記1又は複数のプロセッサは、前記区分け画像のうち前記葉の領域に含まれるピクセルのピクセル数を出力する出力ステップを更に実行する、
ことを特徴とする請求項1に記載の区分け画像推定装置。
【請求項3】
前記1又は複数のプロセッサは、
前記区分け画像の全ピクセル数に対する前記ピクセル数の比を算出する比算出ステップと、
予め定められた相関関係であって、前記比と葉群落における葉面積指数との相関関係を参照し、前記比に対応する前記葉面積指数を推定する第2の推定ステップと、を更に実行する、
ことを特徴とする請求項2に記載の区分け画像推定装置。
【請求項4】
前記葉群落は、列に沿って形成されており、且つ、一対の側面を有しており、
前記葉群落画像は、前記一対の側面のうち一方の側面を斜めの角度から撮影したものであり、
前記1又は複数のプロセッサは、前記第1の推定ステップと前記第2の推定ステップとの間に実行する重み付け画像生成ステップであって、前記区分け画像に対して重みフィルタを適用することにより、重み付けされた画像を生成する重み付け画像生成ステップを更に実行し、
前記重みフィルタは、前記一方の側面の手前側に対応する領域から、奥側に対応する領域へ向かえば向かうほど、重みの値が小さくなるようにもしくは大きくなるように構成されている、
ことを特徴とする請求項3に記載の区分け画像推定装置。
【請求項5】
前記重みフィルタは、前記葉群落画像の左右の端部のうち、一方の端部である第1の端部から他方の端部である第2の端部へ向かえば向かうほど、重みの値が小さくなるようにもしくは大きくなるように構成されており、
前記1又は複数のプロセッサは、前記重み付け画像生成ステップにおいて、
前記葉群落画像が前記一対の側面のうち第1の側の側面を撮影したものである場合、当該葉群落画像の左右を反転させたうえで重みフィルタを適用し、
前記葉群落画像が前記一対の側面のうち第2の側の側面を撮影したものである場合、当該葉群落画像に対してそのまま重みフィルタを適用する、
ことを特徴とする請求項4に記載の区分け画像推定装置。
【請求項6】
前記1又は複数のプロセッサは、前記第1の推定ステップと前記重み付け画像生成ステップとの間にトリミングステップを更に実行し、
当該トリミングステップは、隣接する2列の前記葉群落が前記区分け画像に含まれている場合に、当該区分け画像における各葉群落の幅を比較し、幅が大きい方の葉群落を含み、且つ、幅が小さい方の葉群落を含まない領域を関心領域としてトリミングし、当該関心領域の画像を新たに区分け画像とする、
ことを特徴とする請求項5に記載の区分け画像推定装置。
【請求項7】
1又は複数のプロセッサが、機械学習により構築された学習済モデルを用いて、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する第1の推定ステップを含んでおり、
前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、
前記学習済モデルの出力は、前記区分け画像を表す区分け画像データである、
ことを特徴とする区分け画像推定方法。
【請求項8】
前記区分け画像のうち前記葉の領域に含まれるピクセルのピクセル数を出力する出力ステップを更に含んでいる、
ことを特徴とする請求項7に記載の区分け画像推定方法。
【請求項9】
前記区分け画像の全ピクセル数に対する前記ピクセル数の比を算出する比算出ステップと、
予め定められた相関関係であって、前記比と葉群落における葉面積指数との相関関係を参照し、前記比に対応する前記葉面積指数を推定する第2の推定ステップと、を更に含んでいる、
ことを特徴とする請求項8に記載の区分け画像推定方法。
【請求項10】
前記葉群落は、列に沿って形成されており、且つ、一対の側面を有しており、
前記葉群落画像は、前記一対の側面のうち一方の側面を斜めの角度から撮影したものであり、
前記第1の推定ステップと前記第2の推定ステップとの間に実行される重み付け画像生成ステップであって、前記区分け画像に対して重みフィルタを適用することにより、重み付けされた画像を生成する重み付け画像生成ステップを更に含み、
前記重みフィルタは、前記一方の側面の手前側に対応する領域から、奥側に対応する領域へ向かえば向かうほど、重みの値が小さくなるように構成されている、
ことを特徴とする請求項9に記載の区分け画像推定方法。
【請求項11】
前記重みフィルタは、前記葉群落画像の左右の端部のうち、一方の端部である第1の端部から他方の端部である第2の端部へ向かえば向かうほど、重みの値が小さくなるようにもしくは大きくなるように構成されており、
前記重み付け画像生成ステップにおいては、
前記葉群落画像が前記一対の側面のうち第1の側の側面を撮影したものである場合、当該葉群落画像の左右を反転させたうえで重みフィルタが適用され、
前記葉群落画像が前記一対の側面のうち第2の側の側面を撮影したものである場合、当該葉群落画像に対してそのまま重みフィルタが適用される、
ことを特徴とする請求項10に記載の区分け画像推定方法。
【請求項12】
前記第1の推定ステップと前記重み付け画像生成ステップとの間に実行されるトリミングステップを更に含み、
当該トリミングステップは、隣接する2列の前記葉群落が前記区分け画像に含まれている場合に、当該区分け画像における各葉群落の幅を比較し、幅が大きい方の葉群落を含み、且つ、幅が小さい方の葉群落を含まない領域を関心領域としてトリミングし、当該関心領域の画像を新たに区分け画像とする、
ことを特徴とする請求項11に記載の区分け画像推定方法。
【請求項13】
学習用データセットを用いた機械学習によって、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する学習済モデルを構築する構築ステップを実行する1又は複数のプロセッサを備えており、
前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、
前記学習済モデルの出力は、前記区分け画像を表す区分け画像データである、
ことを特徴とする機械学習装置。
【請求項14】
1又は複数のプロセッサが、学習用データセットを用いた機械学習によって、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する学習済モデルを構築する構築ステップを含んでおり、
前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、
前記学習済モデルの出力は、前記区分け画像を表す区分け画像データである、
ことを特徴とする機械学習方法。
【請求項15】
請求項1~6の何れか1項に記載の区分け画像推定装置としてコンピュータを機能させるためのプログラムであって、上記第1の推定ステップをコンピュータに実行させるプログラム。
【請求項16】
請求項13に記載の機械学習装置としてコンピュータを動作させるためのプログラムであって、前記構築ステップを前記コンピュータに実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習済モデルを用いて葉群落における葉の領域と他の領域との境界を推定する装置及び方法に関する。また、そのような学習済モデルを構築する装置及び方法に関する。
【背景技術】
【0002】
野菜や果物などの作物の生育状況の管理を行う場合、遺伝的能力を示す遺伝要因データと、環境要因を示す環境要因データと、作物の成長量を示す成長量データとを用いる。生育状況の管理においては、遺伝要因データ及び環境要因データが説明変数であり、成長量データが目的変数である。
【0003】
遺伝要因データ及び環境要因データについては、シーケンサー及びセンサの進化に伴い、人手を掛けずに大量のデータを取得することが可能になっている。一方、成長量データ(一例としては、葉群落における葉面積指数)を取得するための形質評価については、ユーザが定規又はノギスを用いて葉の形状などを評価する手法が現在でも行われている。
【先行技術文献】
【非特許文献】
【0004】
【非特許文献1】Ohashi et. al., Monitoring the Growth and Yield of Fruit Vegitables in Greenhouse Using a Three-Dimensional Scanner, Sensor, 20, 5270, 2020.
【発明の概要】
【発明が解決しようとする課題】
【0005】
機械的に葉群落における葉の形質評価を実施する技術としては、光源としてレーザーを備えた3Dスキャナーを用いる技術が知られている(非特許文献1参照)。
【0006】
しかしながら、3Dスキャナーは、1台の価格が高価である。そのため、3Dスキャナーを各農園に普及させることは、非現実的である。また、3Dスキャナーは、大きく重たいため、通路が十分に広くない畑あるいはグリーンハウスにおいて移動させることが難しい。すなわち、3Dスキャナーは、作物の栽培現場での使用に向いていない。
【0007】
また、3Dスキャナーは、外乱光が存在している環境では使えない。そのため、3Dスキャナーを用いての葉群落の計測は、昼間に実施することができず、3Dスキャナーの操作者は、夜間に形質評価を実施せざるを得ない。
【0008】
本発明の一態様は、上述した課題に鑑み成されたものであり、その目的は、3Dスキャナーとは異なる手法を用いて葉群落における葉の形質評価を実施する技術を提供することである。
【課題を解決するための手段】
【0009】
本発明の一態様に係る区分け画像推定装置は、機械学習により構築された学習済モデルを用いて、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する推定ステップを実行する1又は複数のプロセッサを備えている。また、本発明の一態様に係る区分け画像推定方法は、1又は複数のプロセッサが、機械学習により構築された学習済モデルを用いて、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する推定ステップを含んでいる。
【0010】
また、本発明の一態様に係る機械学習装置は、学習用データセットを用いた教師あり学習によって、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する学習済モデルを構築する構築ステップを実行する1又は複数のプロセッサを備えている。また、本発明の一態様に係る機械学習方法は、1又は複数のプロセッサが、学習用データセットを用いた教師あり学習によって、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する学習済モデルを構築する構築ステップを含んでいる。
【0011】
そして、前記区分け画像推定装置、前記区分け画像推定方法、前記機械学習装置、及び前記機械学習方法において、(a)前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、(b)前記学習済モデルの出力は、葉群落における葉の領域と他の領域との境界を推定することにより生成された区分け画像データであって、前記葉の領域と前記他の領域とを区分けした区分け画像を表す区分け画像データである。
【発明の効果】
【0012】
本発明の一態様によれば、3Dスキャナーとは異なる手法を用いて葉群落における葉の形質評価を実施する技術を提供することができる。
【図面の簡単な説明】
【0013】
【
図1】本発明の一実施形態に係る区分け画像推定システムの構成を示す図である。
【
図2】
図1の区分け画像推定システムに含まれる区分け画像推定装置の構成を示すブロック図である。
【
図3】(a)は、
図2の区分け画像推定装置が実施する区分け画像推定方法の流れを示すフローチャートである。(b)は、(a)に示す区分け画像推定方法に含まれる後処理ステップの流れを示すフローチャートである。
【
図4】トマトが栽培されているグリーンハウスの模式的な平面図である。
【
図5】(a)及び(b)は、
図1の区分け画像推定システムに含まれる区分け画像推定装置において、学習済モデルの入力となる葉群落画像の一例である。
【
図6】(a)及び(b)は、
図1の区分け画像推定システムに含まれる区分け画像推定装置において、学習済モデルの出力となる区分け画像の一例である。
【
図7】
図3の(b)に示す後処理ステップに含まれるトリミングステップを実施した後の区分け画像の一例である。
【
図8】
図3の(b)に示す後処理ステップに含まれる重み付け画像生成ステップにおける区分け画像、重みフィルタ、及び重み付けされた画像を示す。
【
図9】
図3の(b)に示す後処理ステップに含まれる重み付け画像生成ステップにおいて用いる重みフィルタの重みの値を示すグラフである。
【
図10】
図3の(b)に示す第2の推定ステップにおいて用いられる相関関係を示すグラフである。
【
図11】
図1の区分け画像推定システムに含まれる機械学習装置の構成を示すブロック図である。
【
図12】
図11の機械学習装置が実施する機械学習方法の流れを示すフローチャートである。
【
図13】(a)は、
図1の区分け画像推定システムに含まれる機械学習装置入力される葉群落画像の一例である。(b)は、(a)に示した葉群落画像に基づき、ユーザが生成した区分け画像の一例である。
【
図14】(a)~(f)は、本発明の実施例の実用フェーズで用いた葉群落画像の一例である。(a)~(c)は、第1のグループの葉群落画像であり、(d)~(f)は、第2のグループの葉群落画像である。
【
図15】(a)は、本発明の実施例において、第1のグループの葉群落画像データを学習済モデルの入力として得られたピクセル比と、第1のグループの葉群落画像データの各葉群落画像の被写体となった葉群落のLAIの実測値と、をプロットしたグラフである。また、(a)には、第1の相関関係を直線で示している。(b)は、本発明の実施例において、第2のグループの葉群落画像データを学習済モデルの入力として得られたピクセル比と、第2のグループの葉群落画像データの各葉群落画像の被写体となった葉群落のLAIの実測値と、をプロットしたグラフである。また、(b)には、第2の相関関係を直線で示している。
【発明を実施するための形態】
【0014】
〔区分け画像推定システム〕
本発明の一実施形態に係る区分け画像推定システムSについて、
図1を参照して説明する。
図1は、区分け画像推定システムSの構成を表す図である。
【0015】
区分け画像推定システムSは、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成するためのシステムである。区分け画像推定システムSは、
図1に示すように、区分け画像推定装置1と、機械学習装置2と、を備えている。また、区分け画像推定システムSにおいては、区分け画像推定装置1への入力となる葉群落画像データを生成するために、カメラC1を用いる。また、区分け画像推定システムSにおいては、機械学習装置2への入力となる葉群落画像データを生成するために、カメラC21を用いる。また、区分け画像推定システムSにおいては、機械学習装置2への入力となる区分け画像データを生成するためにコンピュータC22を用いる。
【0016】
カメラC1及びカメラC2は、撮影した画像を表す画像データを生成するデジタルカメラである。本実施形態では、カメラC1及びカメラC21の各々としてスマートフォンが備えているデジタルカメラを用いる。ただし、カメラC1及びカメラC2の各々は、スマートフォンが備えているデジタルカメラに限定されない。カメラC1及びカメラC21の各々は、被写体として葉群落を含む画像を撮影することができるデジタルカメラであればいかなるものでもよい。また、カメラC1及びカメラC21は、同じデジタルカメラであってもよいし、異なるデジタルカメラであってもよい。
【0017】
<区分け画像推定装置>
区分け画像推定装置1は、区分け画像推定方法M1を実施するための装置である。区分け画像推定方法M1は、カメラC1から提供されたデータに基づき、機械学習により構築された学習済モデルLMを用いて、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する方法である。学習済モデルLMとしては、例えば、U-Net Deep Neural Networks(U-Net DNN)アーキテクチャーが挙げられる。U-Net DNNについては、Ghosh, S., Das, N., Das, I., & Maulik, U. (2019). Understanding deep learning techniques for image segmentation. ACM Computing Surveys, 52 , 1{35. URL:https://doi.org/10.1145/3329784. doi:10.1145/3329784に記載されている。区分け画像推定装置1の構成及び区分け画像推定方法M1の流れの詳細については、参照する図面を代えて後述する。
【0018】
学習済モデルLMの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データである。
【0019】
本実施形態において被写体として撮影する葉群落は、列に沿って植えられた複数の作物の葉群落である。そのため、この葉群落は、カメラC1を持つユーザから見た場合に、ユーザに近い側の側面と、ユーザに違い側の側面と、からなる一対の側面を有する。ユーザが被写体とする作物の列の右側にいる場合、葉群落の右側の側面がユーザに近い側の側面となり、葉群落の左側の側面がユーザに遠い側の側面となる。また、ユーザが被写体とする作物の列の右側にいる場合には、上述した関係は、逆になる。
【0020】
区分け画像推定システムSにおいて、葉群落画像は、被写体である葉群落の一対の側面のうち一方の側面を斜めの角度から撮影したものである。葉群落画像の具体例については、参照する図面を代えて後述する。
【0021】
本実施形態では、作物としてグリーンハウス中において栽培されているトマトを用いて区分け画像推定システムSについて説明する。ただし、作物は、トマトに限定されるものではなく、葉群落を形成する作物であれば如何なるものであってもよい。トマト以外の作物の例としては、きゅうり及びパプリカが挙げられる。なお、区分け画像推定システムSは、トマトのように、葉群落における葉の重なり具合が高い作物における葉の形質評価に好適である。
【0022】
学習済モデルLMの出力は、葉群落における葉の領域と他の領域との境界を推定することにより生成された区分け画像データであって、前記葉の領域と前記他の領域とを区分けした区分け画像を表す区分け画像データである。
【0023】
区分け画像は、葉群落画像をベースにして生成される画像であって、区分け画像を構成する各ピクセルが0又は1の値を有する二値画像である。本実施形態では、葉群落画像のうち、葉群落における葉の領域に対応するピクセルの値を1とし、他の領域に対応するピクセルの値を0とする。このように、区分け画像においては、各ピクセルがその値として二値の何れかをとることによって、葉群落における葉の領域と、他の領域と、を区分けしている。
【0024】
学習済モデルLMの入力である葉群落画像と学習済モデルLMの出力である区分け画像との間には、関係式として明示的に特定することは困難であるものの、一定の関係があることが知られている。したがって、葉群落画像を入力とする学習済モデルLMを用いれば、区分け画像を精度良く推定することができる。
【0025】
<機械学習装置>
機械学習装置2は、機械学習方法M2を実施するための装置である。機械学習方法M2は、カメラC21から提供された葉群落画像データと、ユーザが推定した境界であって、葉群落における葉の領域と他の領域との境界に基づいてコンピュータC22が生成し、機械学習装置2に入力された区分け画像データと、を用いて学習用データセットDSを作成すると共に、学習用データデータセットDSを用いた機械学習によって学習済モデルLMを構築するための方法である。機械学習装置2の構成及び機械学習方法M2の流れの詳細については、参照する図面を代えて後述する。
【0026】
<区分け画像推定システムにおける各フェーズ>
区分け画像推定システムSは、準備フェーズと試用フェーズとを経て実用フェーズに至る。準備フェーズ、試用フェーズ、及び実用フェーズについて、その内容を簡単に説明すれば、以下のとおりである。
【0027】
(1)準備フェーズ
準備フェーズにおいては、ユーザがコンピュータC22を用いて葉群落画像における葉領域とその他の領域との境界を特定する。コンピュータC22は、ユーザにより特定された境界に応じて、葉の領域と他の領域とを区分けした区分け画像を表す区分け画像データを生成する。以下においては、この操作を区分け画像の生成と称する。ユーザによる区分け画像の生成が行われる度に、機械学習装置2は、カメラC21から提供された葉群落画像データと、ユーザがコンピュータC22を用いて生成し、機械学習装置2に入力された区分け画像データと、から学習用データ(教師データ)を作成し、作成した学習用データを学習用データセットDSに追加する。準備フェーズは、準備フェーズの開始から所定の期間(例えば、1週間、1ヶ月、又は1年など)が経過した時点で終了してもよいし、準備フェーズにおける区分け画像の生成回数が所定の回数(例えば、100回、1000回、又は10000回など)に達した時点で終了してもよい。準備フェーズが終了すると、機械学習装置2は、学習用データセットDSを用いた機械学習によって学習済モデルLMを構築する。構築された学習済モデルLMは、機械学習装置2から区分け画像推定装置1に転送される。
【0028】
(2)試用フェーズ
試用フェーズにおいては、ユーザが区分け画像の生成を行うと共に、区分け画像推定装置1が区分け画像の推定を行う。ユーザによる区分け画像の生成が行われる度に、区分け画像推定装置1は、カメラC1から提供されたデータ、及び、ユーザにより入力されたデータに基づき、学習済モデルLMを用いて区分け画像を推定する。試用フェーズは、試用フェーズの開始から所定の期間(例えば、1週間、1ヶ月、又は1年など)が経過した時点で終了してもよいし、試用フェーズにおける区分け画像の生成回数が所定の回数(例えば、100回、1000回、又は10000回など)に達した時点で終了してもよい。試用フェーズが終了すると、ユーザは、定義に従って算出された区分け画像と区分け画像推定装置1が推定した区分け画像とを比較し、区分け画像推定装置1の推定精度を評価する。推定精度が不十分である場合には、準備フェーズに戻る。推定精度が十分である場合には、実用フェーズに進む。なお、推定精度の確認は、準備フェーズが終了した段階で、学習用データセットDSの一部を利用して行ってもよい。この場合、試用フェーズを省略することができる。
【0029】
(3)実用フェーズ
実用フェーズにおいては、区分け画像推定装置1が区分け画像の推定を行う。実用フェーズにおいて区分け画像推定装置1が用いる学習済モデルLMは、試用フェーズにおいて十分な推定精度を有することを確かめられたものである。実用フェーズにおいては、ユーザによる区分け画像の生成を省略することができる。このため、区分け画像の生成の手間からユーザを解放すると共に、精度良く区分け画像の推定を行うことが可能になる。
【0030】
〔区分け画像推定装置の構成〕
区分け画像推定装置1の構成について、
図2を参照して説明する。
図2は、区分け画像推定装置1の構成を示すブロック図である。
【0031】
区分け画像推定装置1は、汎用コンピュータを用いて実現されており、プロセッサ11と、一次メモリ12と、二次メモリ13と、入出力インタフェース14と、通信インタフェース15と、バス16とを備えている。プロセッサ11、一次メモリ12、二次メモリ13、入出力インタフェース14、及び通信インタフェース15は、バス16を介して相互に接続されている。
【0032】
二次メモリ13には、区分け画像推定プログラムP1、学習済モデルLM、及び、区分け画像におけるピクセル比と葉面積指数(Leaf Area Index, LAI)との相関関係を表す相関関数が格納されている。プロセッサ11は、二次メモリ13に格納されている区分け画像推定プログラムP1及び学習済モデルLMを一次メモリ12上に展開する。そして、プロセッサ11は、一次メモリ12上に展開された区分け画像推定プログラムP1に含まれる命令に従って、区分け画像推定方法M1に含まれる各ステップを実行する。一次メモリ12上に展開された学習済モデルLMは、区分け画像推定方法M1の第1の推定ステップM12(後述)をプロセッサ11が実行する際に利用される。なお、区分け画像推定プログラムP1が二次メモリ13に格納されているとは、ソースコード、又は、ソースコードをコンパイルすることにより得られた実行形式ファイルが二次メモリ13に記憶されていることを指す。また、学習済モデルLMが二次メモリ13に格納されているとは、学習済モデルLMを規定するパラメータが二次メモリ13に格納されていることを指す。
【0033】
なお、上述したピクセル比とLAIとの相関関係を表す相関関数については、参照する図を代えて後述する。
【0034】
プロセッサ11として利用可能なデバイスとしては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせを挙げることができる。プロセッサ11は、「演算装置」と呼ばれることもある。
【0035】
また、一次メモリ12として利用可能なデバイスとしては、例えば、RAM(Random Access Memory)を挙げることができる。一次メモリ12は、「主記憶装置」と呼ばれることもある。また、二次メモリ13として利用可能なデバイスとしては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ODD(Optical Disk Drive)、又は、これらの組み合わせを挙げることができる。二次メモリ13は、「補助記憶装置」と呼ばれることもある。なお、二次メモリ13は、区分け画像推定装置1に内蔵されていてもよいし、入出力インタフェース14又は通信インタフェース15を介して区分け画像推定装置1と接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。なお、本実施形態においては、区分け画像推定装置1における記憶を2つのメモリ(一次メモリ12及び二次メモリ13)により実現しているが、これに限定されない。すなわち、区分け画像推定装置1における記憶を1つのメモリにより実現してもよい。この場合、例えば、そのメモリの或る記憶領域を一次メモリ12として利用し、そのメモリの他の記憶領域を二次メモリ13として利用すればよい。
【0036】
入出力インタフェース14には、入力デバイス及び/又は出力デバイスが接続される。入出力インタフェース14としては、例えば、USB(Universal Serial Bus)、ATA(Advanced Technology Attachment)、SCSI(Small Computer System Interface)、PCI(Peripheral Component Interconnect)、HDMI(High Definition Multimedia Interface、登録商標)などのインタフェースが挙げられる。入出力インタフェース14に接続される入力デバイスとしては、カメラC1が挙げられる。この場合、カメラC1は、区分け画像推定装置1に対して、上述した何れかの規格(例えば、USB又はHDMI)に準拠したインターフェースケーブルを用いて有線接続される。
【0037】
区分け画像推定方法M1においてカメラC1から取得するデータは、一次メモリ12に記憶される。また、入出力インタフェース14に接続される入力デバイスとしては、例えば、キーボード、マウス、タッチパッド、マイク、又は、これらの組み合わせが挙げられる。区分け画像推定方法M1においてユーザから取得するデータは、これらの入力デバイスを介して区分け画像推定装置1に入力され、一次メモリ12に記憶される。また、入出力インタフェース14に接続される出力デバイスとしては、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、ヘッドホン、又は、これらの組み合わせが挙げられる。区分け画像推定方法M1においてユーザに提供する情報は、これらの出力デバイスを介して区分け画像推定装置1から出力される。なお、区分け画像推定装置1は、ラップトップ型コンピュータのように、入力デバイスとして機能するキーボードと、出力デバイスとして機能するディスプレイとを、それぞれ内蔵してもよい。或いは、区分け画像推定装置1は、タブレット型コンピュータのように、入力デバイス及び出力デバイスの両方として機能するタッチパネルを内蔵していてもよい。
【0038】
通信インタフェース15には、ネットワークを介して他のコンピュータが有線接続又は無線接続される。通信インタフェース15としては、例えば、イーサネット(登録商標)、Wi-Fi(登録商標)などのインタフェースが挙げられる。利用可能なネットワークとしては、例えば、PAN(Personal Area Network)、LAN(Local Area Network)、CAN(Campus Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)、GAN(Global Area Network)、又は、これらのネットワークを含むインターネットワークが挙げられる。インターネットワークは、イントラネットであってもよいし、エクストラネットであってもよいし、インターネットであってもよい。通信インタフェース15に接続される入力デバイスとしては、カメラC1が挙げられる。この場合、カメラC1は、区分け画像推定装置1に対して、上述した何れかのネットワークを用いて、無線接続される。
【0039】
区分け画像推定方法M1において区分け画像推定装置1が他のコンピュータ(例えば、機械学習装置2)から取得するデータ(例えば、学習済モデルLM)は、これらのネットワークを介して送受信される。
【0040】
なお、本実施形態においては、単一のプロセッサ(プロセッサ11)を用いて区分け画像推定方法M1を実行する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のプロセッサを用いて区分け画像推定方法M1を実行する構成を採用してもよい。例えば、第1の推定ステップM12(後述)を第1のプロセッサにおいて実行し、後処理ステップM13(後述)を第2のプロセッサにおいて実行してもよい。この場合、連携して区分け画像推定方法M1を実行する複数のプロセッサは、単一のコンピュータに設けられ、バスを介して相互に通信可能に構成されていてもよいし、複数のコンピュータに分散して設けられ、ネットワークを介して相互に通信可能に構成されていてもよい。一例として、クラウドサーバを構成するコンピュータに内蔵されたプロセッサと、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサとが、連携して区分け画像推定方法M1を実行する態様などが考えられる。
【0041】
また、本実施形態においては、区分け画像推定方法M1を実行するプロセッサ(プロセッサ11)と同じコンピュータに内蔵されたメモリ(二次メモリ13)に学習済モデルLMを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、区分け画像推定方法M1を実行するプロセッサと異なるコンピュータに内蔵されたメモリに学習済モデルLMを格納する構成を採用してもよい。この場合、学習済モデルLMを格納するメモリが内蔵されたコンピュータは、区分け画像推定方法M1を実行するプロセッサが内蔵されたコンピュータとネットワークを介して相互に通信可能に構成される。一例として、クラウドサーバを構成するコンピュータに内蔵されたメモリに学習済モデルLMを格納し、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサが区分け画像推定方法M1を実行する態様などが考えられる。
【0042】
また、本実施形態においては、単一のメモリ(二次メモリ13)に学習済モデルLMを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のメモリに学習済モデルLMを分散して格納する構成を採用してもよい。この場合、学習済モデルLMを格納する複数のメモリは、単一のコンピュータ(区分け画像推定方法M1を実行するプロセッサが内蔵されたコンピュータであってもよいし、そうでなくてもよい)に設けられていてもよいし、複数のコンピュータ(区分け画像推定方法M1を実行するプロセッサが内蔵されたコンピュータを含んでいてもよいし、そうでなくてもよい)に分散して設けられていてもよい。一例として、クラウドサーバを構成する複数のコンピュータの各々に内蔵されたメモリに学習済モデルLMを分散して格納する構成などが考えられる。
【0043】
〔区分け画像推定方法の流れ〕
区分け画像推定方法M1の流れについて、
図3~
図10を参照して説明する。
図3の(a)は、区分け画像推定方法M1の流れを示すフローチャートである。
図3の(b)は、区分け画像推定方法M1に含まれる後処理ステップM13の流れを示すフローチャートである。
図4は、トマトが栽培されているグリーンハウスGHの模式的な平面図である。
図5の(a)及び(b)は、区分け画像推定装置1において、学習済モデルLMの入力となる葉群落画像の一例である。
図6の(a)及び(b)は、学習済モデルLMの出力となる区分け画像の一例である。
図7は、後処理ステップM13に含まれるトリミングステップM131を実施した後の区分け画像の一例である。
図8は、後処理ステップM13に含まれる重み付け画像生成ステップM132における区分け画像、重みフィルタ、及び重み付けされた画像を示す。
図9は、後処理ステップM13に含まれる重み付け画像生成ステップM132において用いる重みフィルタの重みの値を示すグラフである。
図10は、第2の推定ステップM135において用いられる相関関係を示すグラフである。
【0044】
区分け画像推定方法M1は、取得ステップM11と、第1の推定ステップM12と、後処理ステップM13と、を含んでいる(
図3の(a)参照)。
【0045】
<グリーンハウス及び葉群落画像>
区分け画像推定方法M1について説明する前に、学習済モデルLMの入力となる葉群落画像と、その被写体となる葉群落LC1~LC3が栽培されているグリーンハウスについて説明する。
【0046】
グリーンハウスGH内には、トマトの苗木が2条植えされている。
図4においては、16本のトマトの苗木を8行2列に植えている。
図4においては、各苗木の主茎MSを円で図示し、16本の苗木により構成される葉群落LC1~LC3を長方形で図示している。
【0047】
このように、各葉群落LC1~LC3は、列に沿って形成されている。そのため、葉群落LC1は、列方向に沿った一対の側面である左側面L1及び右側面R1を有する。同様に、葉群落LC2は、左側面L2及び右側面R2を有し、葉群落LC3は、左側面L3及び右側面R3を有する。
【0048】
なお、
図4では、この列方向をy軸方向と定め、y軸方向に直交する方向をx軸方向と定めている。なお、ユーザUの左から右へ向かう方向をx軸正方向と定め、ユーザから葉群落LC1~LC3をみた場合に手前から奥へ向かう方向をy軸正方向と定めている。また、
図5~
図8の各図には、葉群落画像又は区分け画像に投影した状態で、
図4に示したx軸方向を模式的に示している。
【0049】
ユーザUは、カメラC1を用いて、被写体となる葉群落LC1の一対の側面のうち一方の側面である右側面R1を斜めの角度から撮影する。ユーザがこのように葉群落LC1を撮影することにより、カメラC1は、被写体として葉群落LC1を含む葉群落画像を表す葉群落画像データを生成する。
図5の(a)及び(b)に、葉群落画像の一例を示す。
図5の(a)は、1列の葉群落である葉群落LC1のみを被写体とした場合の葉群落画像であり、
図5の(b)は、隣接する2列の葉群落である葉群落LC1,LC2を被写体とした場合の葉群落画像である。このように、葉群落画像には、隣接する2列の葉群落が被写体として含まれていてもよい。
【0050】
次に、取得ステップM11、第1の推定ステップM12、及び、後処理ステップM13について説明する。
【0051】
<取得ステップ>
取得ステップM11は、プロセッサ11が、カメラC1から入力される葉群落画像データを取得するステップである。カメラC1は、上述したようにインターフェースケーブルを用いて区分け画像推定装置1に接続されていてもよいし、ネットワークを介して区分け画像推定装置1に接続されていてもよい。ネットワークを介してカメラC1を区分け画像推定装置1に接続することにより、遠隔地にある農園で栽培されている作物についても区分け画像推定方法M1を実施し、延いては、その作物のLAIを推定することができる。なお、葉群落画像データは、カメラC1からコンピュータ及びネットワークを介して区分け画像推定装置1に供給されてもよい。取得ステップM11において、プロセッサ11は、取得した葉群落画像データを一次メモリ12に書き込む。
【0052】
<第1の推定ステップ>
第1の推定ステップM12は、プロセッサ11が、学習済モデルLMを用いて葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成するステップである。第1の推定ステップM12において、プロセッサ11は、葉群落画像データを一次メモリ12から読み出し、読み出した葉群落画像データデータを学習済モデルLMに入力する。そして、学習済モデルLMから出力された区分け画像データを一次メモリ12に書き込む。
【0053】
図6の(a)及び(b)の各々は、それぞれ、
図5の(a)及び(b)を入力として、学習済モデルLMが推定した区分け画像である。
図6の(a)及び(b)では、葉群落画像のうち、葉群落における葉の領域に対応するピクセル(値が1であるピクセル)を白で示し、他の領域に対応するピクセル(値が0であるピクセル)を黒で示している。
【0054】
なお、区分け画像推定方法M1は、第1の推定ステップM12にて推定した区分け画像を出力する出力ステップを更に含んでいてもよい。この出力ステップにおいて、プロセッサ11は、区分け画像データを一次メモリ12から読み出し、読み出した区分け画像データの表す区分け画像をディスプレイに出力することによって、ユーザに提示する。これにより、ユーザは、LAIを推定するために用いられる区分け画像を目視で確認することができる。
【0055】
<後処理ステップ>
後処理ステップM13は、トリミングステップM131と、重み付け画像生成ステップM132と、出力ステップM133と、比算出ステップM134と、第2の推定ステップM135と、を含んでいる(
図3の(b)参照)。
【0056】
(トリミングステップ)
トリミングステップM131は、プロセッサ11が、第1の推定ステップM12と、重み付け画像生成ステップM132との間に実行するステップである。トリミングステップM131は、隣接する2列の葉群落LC1,LC2が区分け画像に含まれている場合(
図6の(b)参照)に、当該区分け画像における各葉群落の幅(
図6の(b)に示すx軸方向に沿った長さ)を比較する。そのうえで、トリミングステップM131は、幅が大きい方の葉群落LC1を含み、且つ、幅が小さい方の葉群落LC2を含まない領域を関心領域としてトリミングし、当該関心領域の画像を新たに区分け画像とする、
例えば、
図6の(b)に示す区分け画像において、プロセッサ11が、A-A’線から左の領域を関心領域としてトリミングした場合、新たな区分け画像は、
図7のようになる。
【0057】
(重み付け画像生成ステップ)
重み付け画像生成ステップM132は、プロセッサ11が、第1の推定ステップM12と、第2の推定ステップM135との間に実行するステップである。重み付け画像生成ステップM132は、上述した区分け画像(例えば、
図6の(a)及び
図7参照)に対して重みフィルタを適用することにより、重み付けされた画像を生成するステップである(
図8参照)。
【0058】
重み付け画像生成ステップM132において、プロセッサ11が用いる重みフィルタは、被写体である葉群落の一方の側面(本実施形態においては、葉群落LC1)の手前側に対応する領域から、奥側に対応する領域へ向かえば向かうほど、重みの値が小さくなるようにもしくは大きくなるように構成されている。本実施形態においては、前者を採用している。
【0059】
図8に示す重みフィルタにおいては、重みの値が1であるピクセルを白で表し、重みの値が0であるピクセルを黒で表し、重みの値が0より大きく1未満であるピクセルをグレーで表している。グレーの階調は、重みの値に対応している。
図8に示す重みフィルタにおいては、列方向に沿って配列しているピクセルに対しては、同じ重みの値が設定されている。一方、この重みフィルタにおいては、行方向に沿って配列しているピクセルに対して、重みフィルタの左端から右端へ向かえば向かうほど、重みの値が1から0に向かって小さくなるように構成されている。ここで、重みフィルタの左端が葉群落LC1の手前側に対応し、重みフィルタの右端が葉群落LC1の奥側に対応する。
【0060】
図9に、重みフィルタにおける重みの値の行方向における位置依存性を示す。
図9においては、重みフィルタの左端を原点として、重みフィルタの右端を1に規格化している。重みの値の行方向における位置依存性は、点(0,1)から点(1,0)へ向かって単調減少もしくは単調増加していればよく、その形状は、直線であってもよいし、
図9に示すようにベジェ曲線であってもよい。重みフィルタにおいては、この重みの値の位置依存性の形状を調整することによって、後述する第2の推定ステップM135において推定される推定LAIの精度を高めることができる。
【0061】
たとえば、ベジェ曲線であれば、その形状は、
図9において黒丸で示す制御点(0,1),(1,0)と、白丸で示す2つの制御点の計4つの制御点により定義される。したがって、白丸で示す2つの制御点の位置を調整することによって推定LAIの精度を高めることができる。
【0062】
このように、重みフィルタは、重みの値の位置依存性の形状が、葉群落画像の左右の端部のうち、一方の端部である第1の端部(本実施形態においては葉群落画像の左端)から他方の端部である第2の端部(本実施形態においては葉群落画像の右端)へ向かえば向かうほど、重みの値が小さくなるようにもしくは大きくなるように構成されている。そのうえで、プロセッサ11は、葉群落画像が葉群落LC1の一対の側面のうち第2の側の側面(本実施形態においては右側面R1)を撮影したものである場合、葉群落画像に対してそのまま重みフィルタを適用する。一方、プロセッサ11は、葉群落画像が葉群落LC1の一対の側面のうち第1の側の側面(本実施形態においては左側面L1)を撮影したものである場合、葉群落画像の左右を反転させたうえで重みフィルタを適用する。
【0063】
なお、重みフィルタにおいて、重みの値が大きい第1の端部を、葉群落画像の左端に対応させるか、葉群落画像の右端に対応させるかは、適宜選択することができる。重みの値の位置依存性の形状として、
図9に示したベジェ曲線の形状を左右において反転させたベジェ曲線を採用する場合、上述した2タイプの葉群落画像(右側面R1を撮影したもの、及び、左側面L1を撮影したもの)の取り扱いを反転させればよい。
【0064】
また、本実施形態においては、重みの値が大きい第1の端部と、被写体である葉群落の手前側とを対応させるために、葉群落画像における左右を反転させている。ただし、葉群落画像における左右を反転させる代わりに、ベジェ曲線の形状にける左右を反転することもできる。
【0065】
(出力ステップ)
出力ステップM133は、プロセッサ11が、重み付け画像生成ステップM132により重み付けされた区分け画像のうち葉の領域に含まれるピクセル(すなわち、値が1であるピクセル)のピクセル数を出力するステップである。
【0066】
(比算出ステップ)
比算出ステップM134は、重み付け画像生成ステップM132により重み付けされた区分け画像の全ピクセル数に対する前記ピクセル数の比(以下において、ピクセル比と称する)を算出する比算出ステップである。
【0067】
(第2の推定ステップ)
第2の推定ステップM135は、プロセッサ11が、ピクセル比と葉群落におけるLAIとの相関関係を参照し、前記比に対応するLAIを推定するステップである。以下において、第2の推定ステップM135において推定されるLAIを推定LAIと称する。
【0068】
この相関関係は、以下のようにして予め定めることができる。まず、ユーザは、コンピュータを用いて、葉群落画像データが表す葉群落画像を参照する。当該ユーザは、葉群落画像において、葉群落における葉の領域と他の領域との境界を推定し、コンピュータに入力する。コンピュータは、ユーザが推定した前記境界に基づいて、葉群落における葉の領域と他の領域とを区分けした区分け画像を表す区分け画像データを生成する。次に、この区分け画像データに、後処理ステップM13と同じ後処理を実施することにより、ピクセル比が得られる。また、ユーザは、前記葉群落画像に被写体として含まれている葉群落のLAIを実測しておく。以下において、このLAIの実測値を実測LAIと称する。実測LAIは、全葉面積と床面積とを用いて算出することができる。全葉面積は、対象となる葉群落に含まれる全ての葉について、葉の長さ及び幅を測定することにより得られる。このようにして、ユーザが推定した前記境界に基づく区分け画像データを用いて算出されたピクセル比と、実測LAIとを用いて、ピクセル比と葉群落におけるLAIとの相関関係を推定する。本実施形態では、線形回帰モデルを用いてこの相関関係を推定した。ただし、この相関関係を推定するために用いるモデルは、線形回帰モデルに限定されない。
【0069】
この相関関係は、二次メモリ13に格納されている。プロセッサ11は、この相関関係を一次メモリ12上に展開し、第2の推定ステップM135において参照する。本実施形態において、この相関関係は、関数で表されている(
図10参照)。ただし、この相関関係は、テーブルで表されていてもよい。
【0070】
例えば、比算出ステップM134により算出されたピクセル比が0.4である場合、プロセッサ11は、
図10の相関関係より、推定LAIを1.85と推定する。
【0071】
〔機械学習装置の構成〕
機械学習装置2の構成について、
図11を参照して説明する。
図11は、機械学習装置2の構成を示すブロック図である。
【0072】
機械学習装置2は、汎用コンピュータを用いて実現されており、プロセッサ21と、一次メモリ22と、二次メモリ23と、入出力インタフェース24と、通信インタフェース25と、バス26とを備えている。プロセッサ21、一次メモリ22、二次メモリ23、入出力インタフェース24、及び通信インタフェース25は、バス26を介して相互に接続されている。
【0073】
二次メモリ23には、機械学習プログラムP2及び学習用データセットDSが格納されている。学習用データセットDSは、学習用データDS1,DS2…の集合である。プロセッサ21は、二次メモリ23に格納されている機械学習プログラムP2を一次メモリ22上に展開する。そして、プロセッサ21は、一次メモリ22上に展開された機械学習プログラムP2に含まれる命令に従って、機械学習方法M2に含まれる各ステップを実行する。二次メモリ23に格納された学習用データセットDSは、機械学習方法M2の学習用データセット作成ステップM21(後述)にて作成され、機械学習方法M2の学習済モデル構築ステップM22(後述)において利用される。また、機械学習方法M2の学習済モデル構築ステップM22にて構築された学習済モデルLMも、二次メモリ23に格納される。なお、機械学習プログラムP2が二次メモリ23に格納されているとは、ソースコード、又は、ソースコードをコンパイルすることにより得られた実行形式ファイルが二次メモリ23に記憶されていることを指す。また、学習済モデルLMが二次メモリ23に格納されているとは、学習済モデルLMを規定するパラメータが二次メモリ23に格納されていることを指す。
【0074】
プロセッサ21として利用可能なデバイスとしては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせを挙げることができる。プロセッサ21は、「演算装置」と呼ばれることもある。
【0075】
また、一次メモリ22として利用可能なデバイスとしては、例えば、RAM(Random Access Memory)を挙げることができる。一次メモリ22は、「主記憶装置」と呼ばれることもある。また、二次メモリ23として利用可能なデバイスとしては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ODD(Optical Disk Drive)、又は、これらの組み合わせを挙げることができる。二次メモリ23は、「補助記憶装置」と呼ばれることもある。なお、二次メモリ23は、機械学習装置2に内蔵されていてもよいし、入出力インタフェース24又は通信インタフェース25を介して機械学習装置2と接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。なお、本実施形態においては、機械学習装置2における記憶を2つのメモリ(一次メモリ22及び二次メモリ23)により実現しているが、これに限定されない。すなわち、機械学習装置2における記憶を1つのメモリにより実現してもよい。この場合、例えば、そのメモリの或る記憶領域を一次メモリ22として利用し、そのメモリの他の記憶領域を二次メモリ23として利用すればよい。
【0076】
入出力インタフェース24には、入力デバイス及び/又は出力デバイスが接続される。入出力インタフェース24としては、例えば、USB(Universal Serial Bus)、ATA(Advanced Technology Attachment)、SCSI(Small Computer System Interface)、PCI(Peripheral Component Interconnect)などのインタフェースが挙げられる。入出力インタフェース24に接続される入力デバイスとしては、データロガー5が挙げられる。機械学習方法M2においてセンサ群4から取得するデータは、このデータロガー5を介して機械学習装置2に入力され、一次メモリ22に記憶される。また、入出力インタフェース24に接続される入力デバイスとしては、例えば、キーボード、マウス、タッチパッド、マイク、又は、これらの組み合わせが挙げられる。機械学習方法M2においてユーザから取得するデータは、これらの入力デバイスを介して機械学習装置2に入力され、一次メモリ22に記憶される。また、入出力インタフェース24に接続される出力デバイスとしては、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、ヘッドホン、又は、これらの組み合わせが挙げられる。機械学習方法M2においてユーザに提供する情報は、これらの出力デバイスを介して機械学習装置2から出力される。なお、機械学習装置2は、ラップトップ型コンピュータのように、入力デバイスとして機能するキーボードと、出力デバイスとして機能するディスプレイとを、それぞれ内蔵してもよい。或いは、機械学習装置2は、タブレット型コンピュータのように、入力デバイス及び出力デバイスの両方として機能するタッチパネルを内蔵していてもよい。
【0077】
通信インタフェース25には、ネットワークを介して他のコンピュータが有線接続又は無線接続される。通信インタフェース25としては、例えば、イーサネット(登録商標)、Wi-Fi(登録商標)などのインタフェースが挙げられる。利用可能なネットワークとしては、例えば、PAN(Personal Area Network)、LAN(Local Area Network)、CAN(Campus Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)、GAN(Global Area Network)、又は、これらのネットワークを含むインターネットワークが挙げられる。インターネットワークは、イントラネットであってもよいし、エクストラネットであってもよいし、インターネットであってもよい。機械学習装置2が他のコンピュータ(例えば、区分け画像推定装置1)に提供するデータ(例えば、学習済モデルLM)は、これらのネットワークを介して送受信される。
【0078】
なお、本実施形態においては、単一のプロセッサ(プロセッサ21)を用いて機械学習方法M2を実行する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のプロセッサを用いて機械学習方法M2を実行する構成を採用してもよい。例えば、学習用データセット作成ステップM21(後述)を第1のプロセッサにおいて実行し、学習済モデル構築ステップM22を第2のプロセッサにおいて実行する構成を採用してもよい。この場合、連携して機械学習方法M2を実行する複数のプロセッサは、単一のコンピュータに設けられ、バスを介して相互に通信可能に構成されていてもよいし、複数のコンピュータに分散して設けられ、ネットワークを介して相互に通信可能に構成されていてもよい。一例として、クラウドサーバを構成するコンピュータに内蔵されたプロセッサと、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサとが、連携して機械学習方法M2を実行する態様などが考えられる。
【0079】
また、本実施形態においては、機械学習方法M2を実行するプロセッサ(プロセッサ21)と同じコンピュータに内蔵されたメモリ(二次メモリ23)に学習用データセットDSを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、機械学習方法M2を実行するプロセッサと異なるコンピュータに内蔵されたメモリに学習用データセットDSを格納する構成を採用してもよい。この場合、学習用データセットDSを格納するメモリが内蔵されたコンピュータは、機械学習方法M2を実行するプロセッサが内蔵されたコンピュータとネットワークを介して相互に通信可能に構成される。一例として、クラウドサーバを構成するコンピュータに内蔵されたメモリに学習用データセットDSを格納し、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサが機械学習方法M2を実行する態様などが考えられる。
【0080】
また、本実施形態においては、単一のメモリ(二次メモリ23)に学習用データセットDSを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のメモリに学習用データセットDSを分散して格納する構成を採用してもよい。この場合、学習用データセットDSを格納する複数のメモリは、単一のコンピュータ(機械学習方法M2を実行するプロセッサが内蔵されたコンピュータであってもよいし、そうでなくてもよい)に設けられていてもよいし、複数のコンピュータ(機械学習方法M2を実行するプロセッサが内蔵されたコンピュータを含んでいてもよいし、そうでなくてもよい)に分散して設けられていてもよい。一例として、クラウドサーバを構成する複数のコンピュータの各々に内蔵されたメモリに学習用データセットDSを分散して格納する構成などが考えられる。
【0081】
また、本実施形態においては、区分け画像推定方法M1及び機械学習方法M2を異なるプロセッサ(プロセッサ11及びプロセッサ21)を用いて実行する構成を採用しているが、本発明は、これに限定されない。すなわち、区分け画像推定方法M1及び機械学習方法M2を同一のプロセッサを用いて実行してもよい。この場合、機械学習方法M2を実行することによって、このプロセッサと同じコンピュータに内蔵されたメモリに学習済モデルLMが格納さる。そして、このプロセッサは、区分け画像推定方法M1を実行する際に、このメモリに格納された学習済モデルLMを利用することになる。
【0082】
〔機械学習方法の流れ〕
機械学習方法M2の流れについて、
図12を参照して説明する。
図12は、機械学習方法M2の流れを示すフローチャートである。
【0083】
機械学習方法M2は、学習用データセット作成ステップM21と、学習済モデル構築ステップM22と、を含んでいる。
【0084】
学習用データセット作成ステップM21は、プロセッサ21が、学習用データ(教師データ)DS1,DS2,…の集合である学習用データセットDSを作成するステップである。
【0085】
各学習用データDSi(i=1,2,…)には、葉群落画像データが含まれている。各学習用データDSiに含まれる葉群落画像データは、学習済モデルLMに入力する葉群落画像データと同様、被写体として葉群落を含む葉群落画像を表す。学習用データセット作成ステップM21において、プロセッサ21は、カメラC21(
図1参照)から入力される葉群落画像データを取得する。プロセッサ21がカメラC21から葉群落画像データを取得する方法は、プロセッサ11がカメラC1から葉群落画像データを取得する方法と同じである。
【0086】
また、各学習用データDSiには、区分け画像データが正解を示すラベルとして含まれている。各学習用データDSiに含まれる区分け画像データは、学習済モデルLMから出力される区分け画像データと同様、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を表す。ただし、各学習用データDSiに含まれる区分け画像データは、生成されるときにユーザが介在し、学習済モデルLMが介在しない点が学習済モデルLMから出力される区分け画像データとは異なる。ユーザは、コンピュータC22(
図1参照)を用いて葉群落画像(例えば
図13の(a)参照)に含まれる葉の領域と他の領域との境界を推定する。コンピュータC22は、前記境界に基づき、葉の領域に対応するピクセルの値を1に設定し、他の領域に対応するピクセルの値を0に設定することにより区分け画像(例えば
図6参照)を表す区分け画像データを生成する。
図13の(a)は、各学習用データDSiに含まれる葉群落画像データにより表される葉群落画像の一例である。
図13の(b)は、各学習用データDSiに含まれる区分け画像データにより表される区分け画像の一例である。学習用データセット作成ステップM21において、プロセッサ21は、コンピュータC22から入力される区分け画像データを取得する。
【0087】
そして、プロセッサ21は、葉群落画像データと区分け画像データとを関連付けて二次メモリ23に格納する。以上のプロセスをプロセッサ21が繰り返すことによって、学習用データセットDSが作成される。
【0088】
学習済モデル構築ステップM22は、プロセッサ21が、学習済モデルLMを構築するステップである。学習済モデル構築ステップM22において、プロセッサ21は、学習用データセット作成ステップM21にて作成された学習用データセットDSを用いた教師あり学習によって、学習済モデルLMを構築する。学習済モデル構築ステップM22にて構築された学習済モデルLMは、二次メモリ23に格納される。
【0089】
〔実施例〕
本発明の一実施形態に係る区分け画像推定システムSの第1の実施例について、以下に説明する。
【0090】
<葉群落画像データについて>
本実施例においては、トマトを栽培しているグリーンハウスにおいて取得した葉群落画像データを用いて、準備フェーズ及び実用フェーズを実施した。
【0091】
各葉群落画像データは、各々が表す葉群落画像がさまざまなサイズのトマトの葉群落を被写体として含むように作成した。このデータ群を作成するために、4つの品種のトマトの苗木を54本栽培した。また、区分け画像推定方法M1を実施することにより得られる推定LAIの精度を検証するために、各葉群落画像に被写体として含まれている葉群落に含まれる全ての葉について葉の長さ及び幅を測定し、実測LAIを得た。
【0092】
また、準備フェーズ及び実用フェーズの各々において、複数の葉群落画像データを2つのグループに分けた。第1のグループの葉群落画像データのうち一部の葉群落画像データには、被写体として2列以上の葉群落が含まれている(例えば
図5の(b)参照)。一方、第2のグループの葉群落画像データには、被写体として1列の葉群落のみが含まれている(例えば
図5の(a)参照)。なお、第1のグループ及び第2のグループの各々に含まれる葉群落画像データは、準備フェーズにおいてそれぞれ12個とし、実用フェーズにおいてそれぞれ80個とした。
【0093】
<準備フェーズ>
準備フェーズにおいては、第1のグループの葉群落画像データ(例えば
図13の(a)参照)と、ユーザが生成した区分け画像データ(例えば
図13の(b)参照)とに基づく第1の学習用データセットDS1を用いた機械学習によって、第1の学習済モデルLM1を構築する。同様に、第2のグループの葉群落画像データと、ユーザが生成した区分け画像データとに基づく第2の学習用データセットDS2を用いた機械学習によって、第2の学習済モデルLM2を構築する。
【0094】
また、準備フェーズでは、第1のグループの葉群落画像データを用いてユーザが区分け画像データを生成し、当該区分け画像データを用いて算出されたピクセル比と、実測LAIとの第1の相関関係を推定した。また、第2のグループの葉群落画像データを用いてユーザが区分け画像データを生成し、当該区分け画像データを用いて算出されたピクセル比と、実測LAIとの第2の相関関係を推定した。
【0095】
<実用フェーズ>
実用フェーズでは、準備フェーズで用いた葉群落画像データとは異なる葉群落画像データを用いた。実用フェーズにおいては、ユーザによる区分け画像データの生成は行わず、その代わりに、上述した実測LAIを用いて、区分け画像推定装置1から得られた推定LAIの精度を検証した。この推定LAIの精度は、区分け画像推定装置1から得られたピクセル比の精度を主に反映していると考えられる。
【0096】
図14の(a)~(f)に、実用フェーズで用いた葉群落画像の一例である。
図14の(a)~(f)の各々には、各葉群落画像の被写体である葉群落におけるLAIの実測値(実測LAI)及び推定値(推定LAI)を示す。
図14の(a)~(c)は、第1のグループの葉群落画像であり、
図14の(d)~(f)は、第2のグループの葉群落画像である。なお、
図14の(f)の葉群落画像に被写体として踏まれている葉群落は、大きく成長していた。そのため、カメラC1の仰角を葉群落の高さに合わせて調整した結果、撮影状態が好ましくない状態になった。その結果、
図14の(f)の葉群落画像から得られた推定LAIは、とても小さく推定されていた。
【0097】
また、第1のグループの葉群落画像データを入力として、区分け画像推定方法M1を実施することにより得られたピクセル比と、第1のグループの葉群落画像データの各葉群落画像の被写体となった葉群落のLAIの実測値とを、
図15の(a)にプロットした。なお、
図15の(a)には、第1の相関関係も実線で示した。また、第2のグループの葉群落画像データを入力として、区分け画像推定方法M1を実施することにより得られたピクセル比と、第2のグループの葉群落画像データの各葉群落画像の被写体となった葉群落のLAIの実測値とを、
図15の(b)にプロットした。なお、
図15の(b)には、第2の相関関係も実線で示した。
図15の(a)及び(b)は、推定LAIにおける誤差分布を示すグラフである。
【0098】
また、以上の実施例の結果より、平均絶対誤差(Mean Absolute Error, MAE)と、
推定LAIと実測LAIとの差の合計における二乗平均平方根誤差(Root Mean Square Error, RMSE)と、R2値とを算出した。
【0099】
MAEは、第1のグループの葉群落画像データを入力とした場合に0.4未満であり、第2のグループの葉群落画像データを入力とした場合に0.5未満であった。
【0100】
第1の学習済モデルLM1の入力として、第1のグループの葉群落画像データではなく第2のグループの葉群落画像データを採用した場合、及び、第2の学習済モデルLM2の入力として、第2のグループの葉群落画像データではなく第1のグループの葉群落画像データを採用した場合、のいずれの場合にも、MAEの増加は、0.1未満だった。このことは、区分け画像推定装置1及び区分け画像推定方法M1が回帰モデルを推定するときに用いる葉群落画像を撮影するときのコンディション変化に対して高いロバスト性を有することを示す。
【0101】
トリミングステップM131で用いる重みの値の位置依存性の形状(例えば
図9参照としてベジェ曲線を採用した場合のMAEと、当該形状として直線を採用した場合のMAEと、との差は、上述した回帰モデルを推定するときに用いる葉群落画像を撮影するときのコンディション変化に起因するMAEの差よりも小さい。
【0102】
<後処理ステップの変形例>
本実施例では、
図3の(b)に示した後処理ステップM13を採用している。したがって、後処理ステップM13は、重み付け画像生成ステップM132を含んでおり、且つ、重み付け画像生成ステップM132において、重みフィルタの重みの値が大きい端部と、被写体である葉群落の手前側とを対応させるために、必要に応じて葉群落画像を左右に反転させている。
【0103】
後処理ステップM13の第1の変形例では、重み付け画像生成ステップM132のうち必要に応じて実施する葉群落画像の反転を省略した。
【0104】
また、後処理ステップM13の第2の変形例では、重み付け画像生成ステップM132を省略した。
【0105】
実施例、第1の変形例、及び、第2の変形例におけるMAE、RMSE、及び、R
2を以下に示す。
【表1】
【0106】
実施例、第1の変形例、及び、第2の変形例を対比すると、第1の変形例及び第2の変形例において、R2が著しく低下していることが分かった。また、第2の変形例において、MAEが急激に増大していることが分かった。したがって、後処理ステップM13においては、必要に応じて実施する葉群落画像の反転を含む重み付け画像生成ステップM132を実施することが好ましいことが分かった。ただし、後処理ステップM13の第1の変形例及び第2の変形例も本発明の範疇には含まれている。
【0107】
<参考例との対比>
非特許文献1に記載された3Dスキャナーを用いる技術と、本実施例と、をRMSE、及び、R
2について対比した結果を以下に示す。非特許文献1では、きゅうり、パプリカ、及び、トマトの葉群落における推定LAIを評価している。
【表2】
【0108】
非特許文献1では、きゅうり及びパプリカの場合に良好な結果が報告されている一方で、トマトの場合には、得られる効果が限定されている。これは、トマトの葉群落における葉の重なり具合が、きゅうり及びパプリカの葉群落の場合のよりも高いことに起因する。
【0109】
本実施例では、きゅうり及びパプリカの葉群落の場合については結果が得られていないが、トマトの葉群落においては、非特許文献1の技術よりも高いR2が得られた。
【0110】
なお、本実施例の第2のパターンにより得られたRMSEがとても大きな値を示しているが、これは、
図14の(f)に示した葉群落画像のように撮影状態が好ましくない葉群落画像に起因している。
【0111】
〔まとめ〕
態様1に係る区分け画像推定装置は、機械学習により構築された学習済モデルを用いて、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する第1の推定ステップを実行する1又は複数のプロセッサを備えている。本区分け画像推定装置において、前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、前記学習済モデルの出力は、前記区分け画像を表す区分け画像データである。
【0112】
態様1に係る区分け画像推定装置によれば、学習済モデルを用いて区分け画像データを出力することができるので、3Dスキャナーとは異なる手法を用いて葉群落における葉の形質評価を実施する技術を提供することができる。
【0113】
態様2に係る区分け画像推定装置においては、上述した態様1に係る区分け画像推定装置の構成に加えて、前記1又は複数のプロセッサは、前記区分け画像のうち前記葉の領域に含まれるピクセルのピクセル数を出力する出力ステップを更に実行する、構成が採用されている。
【0114】
態様2に係る区分け画像推定装置によれば、前記1又は複数のプロセッサが前記葉の領域に含まれるピクセルのピクセル数を出力するので、当該ピクセル数を葉の形質評価に用いることができる。
【0115】
態様3に係る区分け画像推定装置においては、上述した態様2に係る区分け画像推定装置の構成に加えて、前記1又は複数のプロセッサは、前記区分け画像の全ピクセル数に対する前記ピクセル数の比を算出する比算出ステップと、予め定められた相関関係であって、前記比と葉群落における葉面積指数との相関関係を参照し、前記比に対応する前記葉面積指数を推定する第2の推定ステップと、を更に実行する、構成が採用されている。
【0116】
態様3に係る区分け画像推定装置によれば、前記区分け画像の全ピクセル数に対する前記ピクセル数の比を用いて前記葉面積指数を推定することができる。したがって、本区分け画像推定装置は、形質評価の一態様として前記葉面積指数を評価することができる。
【0117】
態様4に係る区分け画像推定装置においては、上述した態様3に係る区分け画像推定装置の構成に加えて、前記葉群落は、列に沿って形成されており、且つ、一対の側面を有しており、前記葉群落画像は、前記一対の側面のうち一方の側面を斜めの角度から撮影したものであり、前記1又は複数のプロセッサは、前記第1の推定ステップと前記第2の推定ステップとの間に実行する重み付け画像生成ステップであって、前記区分け画像に対して重みフィルタを適用することにより、重み付けされた画像を生成する重み付け画像生成ステップを更に実行するように構成されている。ここで、前記重みフィルタは、前記一方の側面の手前側に対応する領域から、奥側に対応する領域へ向かえば向かうほど、重みの値が小さくなるようにもしくは大きくなるように構成されている。
【0118】
態様4に係る区分け画像推定装置によれば、葉群落における葉の位置に応じて、区分け画像に対して重み付けを実施することができるので、前記葉の領域に含まれるピクセルのピクセル数を精度よくカウントすることができる。ひいては、前記葉面積指数を精度よく推定することができる。
【0119】
態様5に係る区分け画像推定装置においては、上述した態様4に係る区分け画像推定装置の構成に加えて、前記重みフィルタは、前記葉群落画像の左右の端部のうち、一方の端部である第1の端部から他方の端部である第2の端部へ向かえば向かうほど、重みの値が小さくなるようにもしくは大きくなるように構成されている。そのうえで、前記1又は複数のプロセッサは、前記重み付け画像生成ステップにおいて、前記葉群落画像が前記一対の側面のうち第1の側の側面を撮影したものである場合、当該葉群落画像の左右を反転させたうえで重みフィルタを適用し、前記葉群落画像が前記一対の側面のうち第2の側の側面を撮影したものである場合、当該葉群落画像に対してそのまま重みフィルタを適用する、ように構成されている。
【0120】
態様5に係る区分け画像推定装置によれば、列に沿って形成された葉群落において、一対の側面のうち何れの側の側面が葉群落画像の被写体になっている場合であっても、適切な向きで重みフィルタを適用することができる。
【0121】
態様6に係る区分け画像推定装置においては、上述した態様5に係る区分け画像推定装置の構成に加えて、前記1又は複数のプロセッサは、前記第1の推定ステップと前記重み付け画像生成ステップとの間にトリミングステップを更に実行し、当該トリミングステップは、隣接する2列の前記葉群落が前記区分け画像に含まれている場合に、当該区分け画像における各葉群落の幅を比較し、幅が大きい方の葉群落を含み、且つ、幅が小さい方の葉群落を含まない領域を関心領域としてトリミングし、当該関心領域の画像を新たに区分け画像とする、構成が試用されている。
【0122】
態様6に係る区分け画像推定装置によれば、隣接する2列の前記葉群落が葉群落画像に含まれていたことに起因して、2列の前記葉群落が前記区分け画像に含まれている場合であっても、2列の前記葉群落のうち被写体として適切な葉群落を含む区分け画像を得ることができる。
【0123】
態様7に係る区分け画像推定方法は、1又は複数のプロセッサが、機械学習により構築された学習済モデルを用いて、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する第1の推定ステップを含んでいる。本区分け画像推定方法において、前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、前記学習済モデルの出力は、前記区分け画像を表す区分け画像データである。
【0124】
態様7に係る区分け画像推定方法によれば、態様1に係る区分け画像推定装置と同じ効果を奏する。
【0125】
態様8に係る区分け画像推定方法においては、上述した態様7に係る区分け画像推定方法の構成に加えて、前記区分け画像のうち前記葉の領域に含まれるピクセルのピクセル数を出力する出力ステップを更に含んでいる、構成が採用されている。
【0126】
態様8に係る区分け画像推定方法によれば、態様2に係る区分け画像推定装置と同じ効果を奏する。
【0127】
態様9に係る区分け画像推定方法においては、上述した態様8に係る区分け画像推定方法の構成に加えて、前記区分け画像の全ピクセル数に対する前記ピクセル数の比を算出する比算出ステップと、予め定められた相関関係であって、前記比と葉群落における葉面積指数との相関関係を参照し、前記比に対応する前記葉面積指数を推定する第2の推定ステップと、を更に含んでいる、構成が採用されている。
【0128】
態様9に係る区分け画像推定方法によれば、態様3に係る区分け画像推定装置と同じ効果を奏する。
【0129】
態様10に係る区分け画像推定方法においては、上述した態様9に係る区分け画像推定方法の構成に加えて、前記葉群落は、列に沿って形成されており、且つ、一対の側面を有しており、前記葉群落画像は、前記一対の側面のうち一方の側面を斜めの角度から撮影したものであり、前記第1の推定ステップと前記第2の推定ステップとの間に実行される重み付け画像生成ステップであって、前記区分け画像に対して重みフィルタを適用することにより、重み付けされた画像を生成する重み付け画像生成ステップを更に含む、構成が採用されている。ここで、前記重みフィルタは、前記一方の側面の手前側に対応する領域から、奥側に対応する領域へ向かえば向かうほど、重みの値が小さくなるように構成されている。
【0130】
態様10に係る区分け画像推定方法によれば、態様4に係る区分け画像推定装置と同じ効果を奏する。
【0131】
態様11に係る区分け画像推定方法においては、上述した態様10に係る区分け画像推定方法の構成に加えて、前記重みフィルタは、前記葉群落画像の左右の端部のうち、一方の端部である第1の端部から他方の端部である第2の端部へ向かえば向かうほど、重みの値が小さくなるように構成されており、前記重み付け画像生成ステップにおいては、前記葉群落画像が前記一対の側面のうち第1の側の側面を撮影したものである場合、当該葉群落画像の左右を反転させたうえで重みフィルタが適用され、前記葉群落画像が前記一対の側面のうち第2の側の側面を撮影したものである場合、当該葉群落画像に対してそのまま重みフィルタが適用される、ように構成されている。
【0132】
態様11に係る区分け画像推定方法によれば、態様5に係る区分け画像推定装置と同じ効果を奏する。
【0133】
態様12に係る区分け画像推定方法においては、上述した態様11に係る区分け画像推定方法の構成に加えて、前記第1の推定ステップと前記重み付け画像生成ステップとの間に実行されるトリミングステップを更に含み、当該トリミングステップは、隣接する2列の前記葉群落が前記区分け画像に含まれている場合に、当該区分け画像における各葉群落の幅を比較し、幅が大きい方の葉群落を含み、且つ、幅が小さい方の葉群落を含まない領域を関心領域としてトリミングし、当該関心領域の画像を新たに区分け画像とする、構成が試用されている。
【0134】
態様12に係る区分け画像推定方法によれば、態様5に係る区分け画像推定装置と同じ効果を奏する。
【0135】
態様13に係る機械学習装置は、学習用データセットを用いた機械学習によって、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する学習済モデルを構築する構築ステップを実行する1又は複数のプロセッサを備えている。本機械学習装置において、前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、前記学習済モデルの出力は、前記区分け画像を表す区分け画像データである。
【0136】
態様13に係る機械学習装置によれば、態様1~6の何れか一態様に係る区分け画像推定装置おいて利用することができる学習済モデルを構築することができる。
【0137】
態様14に係る機械学習方法は、学習用データセットを用いた機械学習によって、葉群落における葉の領域と他の領域との境界を推定することにより、前記葉の領域と前記他の領域とを区分けした区分け画像を生成する学習済モデルを構築する構築ステップを含んでいる。本機械学習方法において、前記学習済モデルの入力は、被写体として葉群落を含む葉群落画像を表す葉群落画像データであり、前記学習済モデルの出力は、前記区分け画像を表す区分け画像データである。
【0138】
態様14に係る機械学習装置によれば、態様7~12の何れか一態様に係る区分け画像推定方法おいて利用することができる学習済モデルを構築することができる。
【0139】
なお、本発明の範疇には、態様1~6の何れか一態様に係る区分け画像推定装置としてコンピュータを機能させるためのプログラムであって、上記第1の推定ステップをコンピュータに実行させるプログラム、及び、態様13に係る機械学習装置としてコンピュータを動作させるためのプログラムであって、前記構築ステップを前記コンピュータに実行させるプログラムも含まれる。
【0140】
〔付記事項〕
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、上述した実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる他の実施形態についても本発明の技術的範囲に含まれる。
【符号の説明】
【0141】
1 区分け画像推定装置
11 プロセッサ
12 一次メモリ
13 二次メモリ
14 入出力インタフェース
15 通信インタフェース
16 バス
M1 区分け画像推定方法
M11 取得ステップ
M12 第1の推定ステップ
M13 後処理ステップ
2 機械学習装置
21 プロセッサ
22 一次メモリ
23 二次メモリ
24 入出力インタフェース
25 通信インタフェース
26 バス
M2 機械学習方法
M21 学習用データセット作成ステップ
M22 学習済モデル構築ステップ
S 区分け画像推定システム