IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 独立行政法人農業・食品産業技術総合研究機構の特許一覧

特許7659825推定装置、推定装置の制御方法および推定プログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-04-02
(45)【発行日】2025-04-10
(54)【発明の名称】推定装置、推定装置の制御方法および推定プログラム
(51)【国際特許分類】
   G06T 7/00 20170101AFI20250403BHJP
   G06T 7/60 20170101ALI20250403BHJP
【FI】
G06T7/00 350B
G06T7/60 300A
【請求項の数】 17
(21)【出願番号】P 2022010166
(22)【出願日】2022-01-26
(65)【公開番号】P2023108877
(43)【公開日】2023-08-07
【審査請求日】2024-07-22
(73)【特許権者】
【識別番号】501203344
【氏名又は名称】国立研究開発法人農業・食品産業技術総合研究機構
(74)【代理人】
【識別番号】110000338
【氏名又は名称】弁理士法人 HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】イ ウンソク
(72)【発明者】
【氏名】内藤 裕貴
(72)【発明者】
【氏名】河崎 靖
(72)【発明者】
【氏名】太田 智彦
【審査官】鈴木 明
(56)【参考文献】
【文献】特開2021-189718(JP,A)
【文献】特表2021-513690(JP,A)
【文献】特開2017-111815(JP,A)
【文献】特開2019-005566(JP,A)
【文献】特開2020-181441(JP,A)
【文献】特開2019-037225(JP,A)
【文献】特開2020-195335(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06T 7/60
(57)【特許請求の範囲】
【請求項1】
複数の果実を撮像した撮像画像において、各果実を内包する内包領域をそれぞれ検出する検出部と、
前記内包領域同士が重なり合っている領域を含む対象領域を特定する特定部と、
前記対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりクラスタリングするクラスタリング部と、
前記クラスタリングの結果に基づいて、前記対象領域における果実間の境界を推定する推定部と、を備えることを特徴とする推定装置。
【請求項2】
前記特定部は、前記内包領域同士が重なり合っている領域を前記対象領域として特定することを特徴とする請求項1に記載の推定装置。
【請求項3】
前記特定部は、重なり合っている前記内包領域同士を結合した領域を前記対象領域として特定することを特徴とする請求項1に記載の推定装置。
【請求項4】
前記特定部は、前記内包領域のそれぞれについて当該内包領域に重なり合っている他の内包領域の存在の有無を判定し、当該他の内包領域が存在すると判定した場合、前記対象領域を特定することを特徴とする請求項1~3のいずれか1項に記載の推定装置。
【請求項5】
前記特定部は、前記内包領域同士の重なり度合いを特定することを特徴とする請求項4に記載の推定装置。
【請求項6】
前記深度情報は、前記撮像画像に対応する深度画像から取得されたものであることを特徴とする請求項1~5のいずれか1項に記載の推定装置。
【請求項7】
前記クラスタリング部は、前記教師なし学習において前記各画素に対応する色情報および輝度情報の少なくとも一方をさらに用いることを特徴とする請求項1~6のいずれか1項に記載の推定装置。
【請求項8】
前記撮像画像は、RGB画像であることを特徴とする請求項7に記載の推定装置。
【請求項9】
前記果実は、果菜類または果樹類の果実であることを特徴とする請求項1~8のいずれか1項に記載の推定装置。
【請求項10】
前記境界に基づいて、前記対象領域を個々の果実に対応する領域に分離する分離部をさらに備えることを特徴とする請求項1~9のいずれか1項に記載の推定装置。
【請求項11】
前記個々の果実に対応する領域内の各画素に対応する色情報に基づき、前記個々の果実の収穫時期および収量の少なくとも一方を予測する予測部をさらに備えることを特徴とする請求項10に記載の推定装置。
【請求項12】
前記撮像画像に対応する熱画像を取得する取得部と、
前記境界および前記熱画像に基づき、前記個々の果実の温度を測定する測定部と、をさらに備え、
前記予測部は、前記温度にさらに基づき、前記個々の果実の収穫時期および収量の少なくとも一方を予測することを特徴とする請求項11に記載の推定装置。
【請求項13】
前記撮像画像には、複数の葉が含まれており、
前記検出部は、前記撮像画像において、各葉を内包する第2の内包領域をそれぞれ検出し、
前記特定部は、前記第2の内包領域同士が重なり合っている領域を含む第2の対象領域を特定し、
前記クラスタリング部は、前記第2の対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりクラスタリングし、
前記推定部は、前記クラスタリングの結果に基づいて、前記第2の対象領域における葉間の境界を推定することを特徴とする請求項11または12に記載の推定装置。
【請求項14】
前記葉の全体像を復元する復元部をさらに備え、
前記分離部は、前記葉間の境界に基づいて、前記第2の対象領域を個々の葉に分離し、
前記復元部は、前記撮像画像に基づいて、前記個々の葉に対応する領域から、当該葉の全体像を復元し、
前記予測部は、前記復元部によって復元された葉の全体像の面積に基づき、前記果実の収量を予測することを特徴とする請求項13に記載の推定装置。
【請求項15】
前記撮像画像に基づいて、前記個々の果実に対応する領域から、当該果実の全体像を復元する第2の復元部をさらに備え、
前記予測部は、前記果実の全体像に基づいて当該果実の品質をさらに予測することを特徴とする請求項11~14のいずれか1項に記載の推定装置。
【請求項16】
推定装置が、複数の果実を撮像した撮像画像において、各果実を内包する内包領域をそれぞれ検出する検出工程と、
前記推定装置が、前記内包領域同士が重なり合っている領域を含む対象領域を特定する特定工程と、
前記推定装置が、前記対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりクラスタリングするクラスタリング工程と、
前記推定装置が、前記クラスタリングの結果に基づいて、前記対象領域における果実間の境界を推定する推定工程と、を含むことを特徴とする推定装置の制御方法。
【請求項17】
請求項1に記載の推定装置としてコンピュータを機能させるための推定プログラムであって、前記検出部、前記特定部、前記クラスタリング部および前記推定部としてコンピュータを機能させるための推定プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、推定装置、推定装置の制御方法および推定プログラムに関する。
【背景技術】
【0002】
施設園芸においてイチゴおよびトマトなどの果菜類や果樹類の果実を安定的に生産するために、開花後の果実の積算温度などに基づいて、果実の収穫時期や収量を予測する技術が開発されている。
【0003】
従来では、施設園芸のハウス内の気温に基づいて積算温度を算出しており、果実の収穫時期に誤差が多く発生していた。
【0004】
そのため、果実の収穫時期や収量を高精度に予測するために、果実を破壊せず、果実の撮像画像などに基づいて、個々の果実の温度や色を高精度に計測し、個々の果実の生育をモニタリングする技術が求められている。
【0005】
しかしながら、施設園芸のハウスでは、果実を撮像した場合、撮像画像上において互いに密接した果実が重なりやすく、2次元の画像処理では、撮像画像上の重なった果実を1つの果実として認識してしまう問題がよく発生していた。そこで、撮像画像上の重なった果実を個々の果実として識別するための技術が開発されている。
【0006】
特開昭62-9210号公報は、色情報に基づいて撮像画像における重なった果実の領域を分離抽出し、濃淡情報に基づいて撮像画像における個々の果実間の境界を推定する技術を開示している。
【0007】
特開平4-184573号公報は、収穫する時期の果実などの対象物に投光することにより、対象物から反射された反射光を撮像した撮像画像の色情報および輝度情報に基づいて、重なった対象物の位置関係を推定する技術を開示している。
【0008】
特開2015-162073号公報は、果実などの収穫対象物の深度画像から、所定の深度以下の画素の領域間の境界を検出し、当該境界に対して所定の収穫対象物の幾何学的形状をパターンマッチングさせ、収穫対象物間の境界を推定する技術を開示している。
【先行技術文献】
【特許文献】
【0009】
【文献】特開昭62-9210号公報
【文献】特開平4-184573号公報
【文献】特開2015-162073号公報
【発明の概要】
【発明が解決しようとする課題】
【0010】
しかしながら、特許文献1および2のような、ルールベースにより、色情報や輝度情報に基づいて、撮像画像上の重なった果実などの対象物を個々の果実として推定する技術は、当該果実を個々の果実として高精度に識別できない。
【0011】
特許文献3のような、深度画像から検出した所定の深度以下の画素の領域間の境界に対して所定の収穫対象物の幾何学的形状をパターンマッチングさせ、収穫対象物間の境界を推定する技術は、撮像画像上の重なった果実を個々の果実として効率的に識別できない。
【0012】
そこで、果実の収穫時期や収量を高精度に予測するために、果実を破壊せずに、個々の果実の温度や色を高精度に計測することができるように、撮像画像上の重なった果実を個々の果実として高精度かつ効率的に識別可能な技術が求められている。
【0013】
本発明の一態様は、撮像画像上の重なった果実を個々の果実として高精度かつ効率的に識別可能な推定装置およびその関連技術を実現することを目的とする。
【課題を解決するための手段】
【0014】
上記の課題を解決するために、本発明の一態様に係る推定装置は、複数の果実を撮像した撮像画像において、各果実を内包する内包領域をそれぞれ検出する検出部と、前記内包領域同士が重なり合っている領域を含む対象領域を特定する特定部と、前記対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりクラスタリングするクラスタリング部と、前記クラスタリングの結果に基づいて、前記対象領域における果実間の境界を推定する推定部と、を備える。
【0015】
本発明の一態様に係る推定装置の制御方法は、推定装置が、複数の果実を撮像した撮像画像において、各果実を内包する内包領域をそれぞれ検出する検出工程と、前記推定装置が、前記内包領域同士が重なり合っている領域を含む対象領域を特定する特定工程と、前記推定装置が、前記対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりクラスタリングするクラスタリング工程と、前記推定装置が、前記クラスタリングの結果に基づいて、前記対象領域における果実間の境界を推定する推定工程と、を含む。
【0016】
本発明の各態様に係る推定装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記推定装置が備える各部(ソフトウェア要素)として動作させることにより前記推定装置をコンピュータにて実現させる推定装置の推定プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
【発明の効果】
【0017】
本発明の一態様によれば、撮像画像上の重なった果実を個々の果実として高精度かつ効率的に識別可能な推定装置およびその関連技術を実現することができる。
【図面の簡単な説明】
【0018】
図1】実施形態1に係る推定装置の構成の一例を示すブロック図である。
図2】実施形態1に係る推定装置の制御方法の一例を示すフロー図である。
図3】撮像画像の一例を示す図である。
図4】深度画像の一例を示す図である。
図5】スーパーピクセルの一例を示す図である。
図6】対象領域における果実間の境界の一例を示す図である。
図7】実施形態2に係る推定装置の構成の一例を示すブロック図である。
図8】実施形態2に係る推定装置の制御方法の一例を示すフロー図である。
図9】撮像画像の一例を示す図である。
図10】実施形態3に係る推定装置の構成の一例を示すブロック図である。
図11】実施形態3に係る推定装置の制御方法の一例を示すフロー図である。
図12】対象領域における果実間の分離について説明するための図である。
図13】実施形態4に係る推定装置の構成の一例を示すブロック図である。
図14】実施形態4に係る推定装置の制御方法の一例を示すフロー図である。
図15】熱画像の一例を示す図である。
図16】測定工程の一例について説明するための図である。
図17】実施形態5に係る推定装置の構成の一例を示すブロック図である。
図18】実施形態5に係る推定装置の制御方法の一例を示すフロー図である。
図19】撮像画像の一例を示す図である。
図20】深度画像の一例を示す図である。
図21】第2の対象領域における葉間の境界の一例を示す図である。
図22】第2の対象領域における葉間の分離について説明するための図である。
図23】葉の全体像の復元について説明するための図である。
図24】実施形態6に係る推定装置の構成の一例を示すブロック図である。
図25】実施形態6に係る推定装置の制御方法の一例を示すフロー図である。
図26】果実の全体像の復元について説明するための図である。
【発明を実施するための形態】
【0019】
<実施形態1>
図1~5を用いて実施形態1について説明する。図1は、実施形態1に係る推定装置1の構成の一例を示すブロック図である。
【0020】
〔推定装置1〕
推定装置1は、複数の果実を撮像した撮像画像(撮像画像情報)における果実間の境界を推定する。図1に示すように、推定装置1は、取得部11と、制御部12と、出力部13と、記憶部14と、を備える。推定装置1としては、例えば、コンピュータなどが挙げられる。
【0021】
[取得部11]
取得部11は、複数の果実を撮像した撮像画像および深度画像(深度画像情報)などの各種画像(各種画像情報)を取得する。
【0022】
[制御部12]
制御部12は、推定装置1を制御する。図1に示すように、制御部12は、検出部121と、特定部122と、クラスタリング部123と、推定部124と、を備える。
【0023】
(検出部121)
検出部121は、複数の果実を撮像した撮像画像において、各果実を内包する内包領域をそれぞれ検出する。
【0024】
(特定部122)
特定部122は、内包領域同士が重なり合っている領域を含む対象領域を特定する。
【0025】
(クラスタリング部123)
クラスタリング部123は、特定部122が特定した対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりクラスタリングする。
【0026】
(推定部124)
推定部124は、クラスタリング部123によるクラスタリングの結果に基づいて、対象領域における果実間の境界を推定する。
【0027】
[出力部13]
出力部13は、撮像画像および深度画像などの各種画像、ならびに、推定結果である、対象領域における果実間の境界などを表示部131に表示させる。図1に示すように、出力部13は、表示部131を備える。
【0028】
(表示部131)
表示部131は、撮像画像および深度画像などの各種画像ならびに推定結果などを表示する。表示部131としては、例えば、コンピュータのディスプレイなどが挙げられる。
【0029】
[記憶部14]
記憶部14は、各種情報を記憶する。図1に示すように、記憶部14は、学習済モデル141を備える。学習済モデル141については後述する。
【0030】
〔推定装置1の制御方法S1〕
次に、図2~6を用いて実施形態1に係る推定装置1の制御方法S1を説明する。図2は、実施形態1に係る推定装置1の制御方法S1の一例を示すフロー図である。
【0031】
図2に示すように、推定装置1の制御方法S1は、取得工程S11と、検出工程S12と、特定工程S13と、クラスタリング工程S14と、推定工程S15と、出力工程S16と、を含む。
【0032】
[取得工程S11]
取得工程S11では、推定装置1の取得部11は、複数の果実を撮像した撮像画像、および、当該撮像画像に対応する深度画像などの各種画像を取得する。
【0033】
(取得工程S11の一例)
以下、図3および4を用いて取得工程S11の一例について説明する。図3は、撮像画像I1の一例を示す図である。図4は、深度画像I2の一例を示す図である。
【0034】
取得部11は、画像カメラなどの撮像部として機能し、複数の果実C1~C6を撮像することにより、内包領域A1~A6が検出されておらず、対象領域B1が特定されていない状態の撮像画像I1を取得する。また、取得部11は、デプスカメラなどの撮像部としても機能し、複数の果実C1~C6を撮像することにより、対象領域B5がマッピングされていない状態の深度画像I2を取得する。
【0035】
取得部11は、推定装置1の外部の画像カメラなどから、複数の果実C1~C6を撮像が撮像されており、内包領域A1~A6が検出されておらず、対象領域B1が特定されていない状態の撮像画像I1を取得してもよい。また、取得部11は、推定装置1の外部のデプスカメラなどから、複数の果実C1~C6が撮像されており、対象領域B5がマッピングされていない状態の深度画像I2を取得してもよい。
【0036】
[検出工程S12]
検出工程S12では、推定装置1の検出部121は、複数の果実を撮像した撮像画像において、各果実を内包する内包領域をそれぞれ検出する。
【0037】
(検出工程S12の一例)
以下、図3を用いて検出工程S12の一例について説明する。
【0038】
図3に示すように、複数の果実C1~C6を撮像した撮像画像I1は、RGB画像(RGB画像情報)であってもよい。これにより、推定装置1のクラスタリング部123は、後述のクラスタリング工程S14において、撮像画像I1における各画素に対応する色情報および輝度情報の少なくとも一方をさらに用いてクラスタリングを行うことができる。その結果、推定装置1は、撮像画像I1上の重なった果実C1とC2とを、個々の果実C1およびC2としてより効率的に識別することができる。
【0039】
また、図3に示すように、果実C1~C6は、果菜類または果樹類の果実であってもよい。果菜類の果実としては、例えば、イチゴ、トマト、パプリカ、ピーマン、ナスおよびこれらと同系統(例えば、イチゴ系)の果実などが挙げられる。果樹類の果実としては、例えば、ミカン、ブルーベリーおよびこれらと同系統(例えば、ミカン系)の果実などが挙げられる。推定装置1は、撮像画像I1上に果菜類または果樹類の果実のような、小さくて互いの距離が近い果実C1とC2とが重なっていても、当該果実を高精度かつ効率的に個々の果実C1およびC2として識別することができる。
【0040】
検出部121は、学習済モデル141を用いて、撮像画像I1における内包領域A1~A6を検出してもよい。
【0041】
学習済モデル141は、複数の果実を撮像した学習画像(学習画像情報)と、当該学習画像において各果実を内包する内包領域(内包領域情報)との組を教師データとして機械学習させることによって生成されたものである。内包領域は、例えば、人手により指定される。当該内包領域には、学習画像上の座標などの位置情報が紐づけられている。
【0042】
検出部121は、学習済モデル141に撮像画像I1を入力することによって、学習済モデル141から出力される内包領域A1~A6を検出する。すなわち、検出部121は、内包領域A1~A6に内包される果実C1~C6に対応する各画素の位置情報を検出する。このように、検出部121は、学習済モデル141を用いることにより、内包領域A1~A6を高精度かつ効率的に検出することができる。
【0043】
また、上述の例では、内包領域A1~A6の形状は矩形だが、本実施形態では、内包領域の形状は各果実を内包していれば特に限定されず、例えば、円形であってもよい。ただし、内包領域の形状は、矩形であることにより各果実を内包しやすく、推定装置1の特定部122によって対象領域が特定されやすい。
【0044】
[特定工程S13]
特定工程S13では、推定装置1の特定部122は、内包領域同士が重なり合っている領域を含む対象領域を特定する。
【0045】
(特定工程S13の一例)
以下、図3を用いて特定工程S13の一例について説明する。
【0046】
まず、特定部122は、内包領域のそれぞれについて当該内包領域と重なり合っている他の内包領域の存在の有無を判定し、当該他の内包領域が存在すると判定した場合、当該他の内包領域を特定する。
【0047】
例えば、特定部122は、以下の表1に示す内包領域同士の重なりの関係のように、図3の内包領域A1~A6のそれぞれついて当該内包領域と重なり合っている他の内包領域の存在の有無を判定する。特定部122は、当該他の内包領域が存在すると判定した場合、当該他の内包領域を特定する。
【0048】
【表1】
【0049】
次に、特定部122は、内包領域のそれぞれについて当該内包領域と重なり合っている他の内包領域を参照し、内包領域同士が重なっている領域を含む対象領域を特定する。
【0050】
例えば、特定部122は、表1に示す内包領域同士の重なりの関係を参照し、内包領域A1およびA2同士が重なっている領域を含む対象領域B1を特定する。同様に、特定部122は、内包領域A4およびA5同士が重なっている領域を含む対象領域B2を特定する。図3に示す例では、内包領域A5は内包領域A4に内包されているため、対象領域B2は内包領域A5と同一である。特定部122は、内包領域A4およびA6同士が重なっている領域を含む対象領域B3を特定する。図3に示す例では、内包領域A6は内包領域A4に内包されているため、対象領域B3は内包領域A6と同一である。特定部122は、内包領域A4~A6同士が重なっている領域を含む対象領域B4を特定する。
【0051】
すなわち、特定部122は、対象領域B1~B4に対応する各画素の位置情報を特定する。図3に示すように、特定部122は、内包領域同士が重なり合っている領域を対象領域B1~B4として特定してもよい。
【0052】
これにより、特定部122は、イチゴのような、サイズが小さく、果実同士が密接する、撮像画像上の重なった果実であっても、当該果実を含む内包領域同士の重なりの関係、すなわち、撮像画像上の果実同士の重なりの関係をユーザに認識させることができる。また、特定部122は、各内包領域のうち、各内包領域に対して重なりがある内包領域、すなわち、撮像画像上の各果実に対して重なりがある果実のみを特定することができる。特に、特定部122は、サイズが小さいイチゴなどの果実のうち、撮像画像上の複数の果実と重なって、当該複数の果実の背後に隠れている果実を効果的に特定することができる。
【0053】
また、後述のクラスタリング工程S14において、推定装置1のクラスタリング部123は、対象領域B1~B4のみをクラスタリングすることができる。その結果、クラスタリング部123が重なっていない内包領域を含めてクラスタリングする場合に比べて、推定装置1の推定部124は、個々の果実C1、C2およびC4~C6をより効率的に識別することができる。
【0054】
上述の例に示すように、特定部122は、2つの内包領域が重なり合っている領域を1つの対象領域B1、B2およびB3として特定してもよいし、3つ以上の内包領域が重なり合っている領域を1つの対象領域B4として特定してもよい。この場合も、特定部122は、同様の方法により対象領域を特定できる。
【0055】
また、特定部122は、内包領域同士の重なり度合いを特定してもよい。例えば、特定部122は、内包領域A1~A6の各内包領域同士の重なり度合いを示す指標であるIoU(Intersection over Union)を特定してもよい。
【0056】
特定部122は、ある内包領域に2以上の内包領域が重なっていても、ある内包領域に対して重なっている2以上の内包領域それぞれのIoUを特定してもよい。また、特定部122は、ある内包領域に1以上の内包領域が内包される場合も、IoUを1または100%に特定してもよい。これにより、ある内包領域よりも当該1以上の内包領域が前にあることをIoUの値からユーザに認識させることができる。
【0057】
例えば、果実C5を内包する内包領域A5および果実C6を内包する内包領域A6が、果実C4を内包する内包領域A4に内包されている場合、特定部122が内包領域A5およびA6のIoUを1または100%に特定してもよい。これにより、特定部122は、内包領域A4に2つの内包領域A5およびA6が内包されているだけでなく、内包領域A5およびA6が内包領域A4よりも前にあることもユーザに認識させることができる。
【0058】
[クラスタリング工程S14]
クラスタリング工程S14では、推定装置1のクラスタリング部123は、特定工程S13において特定した対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりクラスタリングする。
【0059】
(クラスタリング工程S14の一例)
以下、図3および4を用いて、クラスタリング工程S14の一例について説明する。
【0060】
クラスタリング部123は、対象領域B1~B4における各画素を、当該画素に対応する深度情報およびアルゴリズムを用いて機械なし学習しながらクラスタリングしてもよい。以下、クラスタリング部123は、対象領域B1における各画素を、クラスタリングする例について説明する。
【0061】
この場合、まず、クラスタリング部123は、特定部122が特定した撮像画像I1の対象領域B1の位置情報を、深度画像I2に対象領域B5としてマッピングする。次に、クラスタリング部123は、深度画像I2のうち、撮像画像I1の対象領域B1に対応する対象領域B5から深度情報を取得し、当該深度情報を用いてクラスタリングしてもよい。これにより、クラスタリング部123は、効率的にクラスタリングすることができる。
【0062】
深度画像I2は、黒色が0階調、白色が255階調として表されており、深度情報が示す、深度画像I2を取得するデプスカメラなどの撮像部から果実への距離である深度が深いほど白色に近づいている。図4に示す例では、果実C2に対応する領域が、果実C1に対応する領域よりも白いため、果実C2に対応する領域のほうが、果実C1に対応する領域よりも深度が深い。
【0063】
クラスタリング部123は、対象領域B1における各画素を、果実C1に対応する領域と、図4において果実C1の領域よりも白く表されている、果実C2に対応する領域とにクラスタリングする。すなわち、クラスタリング部123は、対象領域B1における各画素を、果実C1に対応する領域と、果実C1よりも深度が深く、果実C1の後ろにある果実C2に対応する領域との2つの領域にクラス分けする。これにより、クラスタリング部123は、対象領域B1における各画素を効率的にクラスタリングすることができる。
【0064】
クラスタリング部123は、各画素に対応する色情報および輝度情報の少なくとも一方をさらに用いてクラスタリングしてもよい。この場合、図4に示す撮像画像I1がRGB画像であれば、クラスタリング部123は、当該RGB画像から対象領域B1における各画素に対応する色情報および輝度情報の少なくとも一方を取得してもよい。
【0065】
このように、クラスタリング部123は、各画素に対応する色情報および輝度情報の少なくとも一方をさらに用いることにより、対象領域B1における各画素を、より高精度にクラスタリングできる。その結果、推定部124は、撮像画像I1上の重なった果実C1とC2とを、より高精度に個々の果実C1およびC2として識別することができる。
【0066】
また、上述の色情報は、スーパーピクセルに対応する色情報であってもよい。すなわち、クラスタリング部123は、スーパーピクセルに対応する色情報をクラスタリングに用いてもよい。
【0067】
以下、図5を用いて、クラスタリング部123がスーパーピクセルに対応する色情報をクラスタリングに用いる例について説明する。図5は、スーパーピクセルの一例を示す図である。図5は、説明のための図にすぎず、通常は表示部131には表示されない。
【0068】
図5に示すスーパーピクセルC1α、C1β、C1γ、C1δ、C2α、C2β、C2γおよびC2δは、対象領域B1における色やテクスチャが類似する画素をグルーピングした小領域である。クラスタリング部123は、スーパーピクセルC1α、C1β、C1γ、C1δ、C2α、C2β、C2γおよびC2δをさらに参照して、果実C1に対応する領域と、果実C2に対応する領域とに分ける。
【0069】
例えば、クラスタリング部123は、図5の1点鎖線により示される、これらのスーパーピクセルのいずれかの境界を、果実C1に対応する領域と果実C2に対応する領域との境界に決定することにより、これらの領域を分ける。その結果、クラスタリング部123は、対象領域B1における各画素をさらに高精度にクラスタリングすることができる。
【0070】
[推定工程S15]
推定工程S15では、推定装置1の推定部124は、クラスタリング工程S14におけるクラスタリングの結果に基づいて、対象領域における果実間の境界を推定する。
【0071】
(推定工程S15の一例)
以下、図6を用いて推定工程S15の一例について説明する。図6は、対象領域B1における果実C1およびC2間の境界D1の一例を示す図である。
【0072】
推定部124は、クラスタリング部123によるクラスタリングの結果に基づいて、対象領域B1における果実C1およびC2間の境界D1を推定する。例えば、推定部124は、クラスタリング部123によってクラスタリングされた果実C1に対応する領域と果実C2に対応する領域との境界を、果実C1およびC2間の境界D1であると推定する。すなわち、推定部124は、境界D1の座標などの位置情報を推定する。
【0073】
ここで、特許文献1のような、ルールベースにより色情報のみに基づいて撮像画像における重なった果実の領域を分離し、撮像画像上の個々の果実間の境界を推定する技術は、イチゴおよびトマトなど、同じ色の果実を個々の果実として高精度に識別できない。また、特許文献1のような技術は、施設園芸および撮像画像上で果実が重なっているような複雑な環境では、撮像画像上の重なった果実を個々の果実として高精度に識別できない。
【0074】
特許文献2のような、収穫時期の果実などの対象物に投光し、対象物から反射された反射光を撮像した撮像画像の色情報および輝度情報のみに基づき、重なった対象物の位置関係を推定する技術は、対象物の中心部の位置に基づいて当該位置関係を推定する。そのため、特許文献2のような技術は、対象物間の境界を高精度に推定できず、撮像画像上の他方の果実と重なって隠れた果実を個々の果実として高精度に識別できない。
【0075】
また、収穫時期の果実などの対象物のみの位置関係を推定することを想定した特許文献2のような技術は、イチゴのような、サイズが小さく、様々な形状を有し、果実同士が密接する、撮像画像上の重なった果実を個々の果実として高精度に識別できない。そのため、特許文献2のような技術は、果実が小さい時期から個々の果実の温度や色を計測して個々の果実をモニタリングし、果実の収穫時期や収量を高精度に計測することができない。
【0076】
特許文献3のような、深度画像から検出した所定の深度以下の画素の領域間の境界に果実などの収穫対象物の幾何学的形状をパターンマッチングさせ、収穫対象物間の境界を推定する技術は、撮像画像上の重なった果実を個々の果実として効率的に識別できない。
【0077】
また、特許文献3のような技術は、特徴点に基づいて収穫対象物間の境界を推定するため、収穫対象物が小さい果実である場合、果実間の境界ではないにもかかわらず、深度に差があれば果実間の境界として推定してしまう。そのため、特許文献3のような技術は、撮像画像上の果実を個々の果実として高精度に推定できない。
【0078】
これに対し、推定部124は、クラスタリングの結果に基づいて果実C1およびC2間の境界D1を推定することにより、撮像画像I1上の重なった果実C1とC2とを高精度かつ効率的に個々の果実C1およびC2として識別することができる。
【0079】
また、推定部124は、果実C1およびC2のように、サイズが小さく、様々な形状を有し、果実同士が密接しやすいイチゴなどの果実であっても、撮像画像I1上の重なった果実C1とC2とを高精度かつ効率的に個々の果実C1およびC2として識別できる。
【0080】
[出力工程S16]
出力工程S16では、推定装置1の出力部13は、推定工程S15における推定結果である、対象領域における果実間の境界を表示部131に表示させる。
【0081】
(出力工程S16の一例)
以下、図6を用いて出力工程S16の一例について説明する。図6に示すように、出力部13は、果実C1およびC2間の境界D1が破線、点線または鎖線などの識別可能な線によって視覚化された対象領域B1を表示部131に表示させる。
【0082】
<実施形態2>
本発明の一態様に係る推定装置は、実施形態2に係る推定装置1αのように、重なり合っている内包領域同士を結合した領域を対象領域として特定してもよい。
【0083】
以下、図7~9を用いて、実施形態2について説明する。説明の便宜上、上述の実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
【0084】
〔推定装置1α〕
図7は、実施形態2に係る推定装置1αの構成の一例を示すブロック図である。図7に示すように、推定装置1αは、実施形態1における制御部12の代わりに制御部12αを備える。この点以外、推定装置1αは実施形態1に係る推定装置1と同様の構成である。
【0085】
[制御部12α]
制御部12αは、実施形態1における特定部122と、クラスタリング部123との代わりに、特定部122αと、クラスタリング部123αと、を備える。この点以外、制御部12αは、実施形態1における制御部12と同様の構成である。
【0086】
(特定部122α)
特定部122αは、重なり合っている内包領域同士を結合した領域を対象領域として特定する。
【0087】
(クラスタリング部123α)
クラスタリング部123αは、特定部122αが特定した対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりクラスタリングする。
【0088】
〔推定装置1αの制御方法S2〕
次に、図8および9を用いて実施形態2に係る推定装置1αの制御方法S2を説明する。図8は、実施形態2に係る推定装置1αの制御方法S2の一例を示すフロー図である。
【0089】
図8に示すように、推定装置1αの制御方法S2は、取得工程S21と、検出工程S22と、特定工程S23と、クラスタリング工程S24と、推定工程S25と、出力工程S26と、を含む。
【0090】
取得工程S21、検出工程S22、推定工程S25および出力工程S26は、それぞれ、実施形態1における取得工程S11、検出工程S12、推定工程S15および出力工程S16と同様である。
【0091】
[特定工程S23]
特定工程S23では、推定装置1αの特定部122αは、重なり合っている内包領域同士を結合した領域を対象領域として特定する。
【0092】
(特定工程S23の一例)
以下、図9を用いて特定工程S23の一例について説明する。図9は、撮像画像I1αの一例を示す図である。
【0093】
特定部122αは、重なり合う内包領域A1およびA2同士を結合した領域を対象領域B1αとして特定する。また、特定部122αは、重なり合う内包領域A4~A6同士を結合した領域を対象領域B4αとして特定する。
【0094】
[クラスタリング工程S24]
クラスタリング工程S24では、推定装置1αのクラスタリング部123αは、特定工程S23において特定した対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりクラスタリングする。
【0095】
(クラスタリング工程S24の一例)
以下、図9を用いて、クラスタリング工程S24の一例について説明する。クラスタリング部123αは、重なり合っている内包領域A1およびA2同士を結合した対象領域B1αおよびB4αをクラスタリングする。その結果、クラスタリング部123αが内包領域A1およびA2同士が重なり合っている対象領域B1~B4のみをクラスタリングする場合に比べて、推定装置1αの推定部124は、個々の果実C1、C2およびC4~C6をより高精度に識別できる。
【0096】
また、クラスタリング部123αは、重なり合っていない内包領域A3をさらに用いてクラスタリングしてもよい。これにより、クラスタリング部123αは、より多くの情報を用いて、より高精度にクラスタリングすることができる。その結果、推定部124は、個々の果実C1、C2およびC4~C6をより高精度に識別することができる。
【0097】
<実施形態3>
本発明の一態様に係る推定装置は、実施形態3に係る推定装置1βのように、果実間の境界に基づいて、対象領域を個々の果実に対応する領域に分離してもよい。また、本発明の一態様に係る推定装置は、実施形態3に係る推定装置1βのように、個々の果実に対応する領域内の各画素に対応する色情報に基づき、個々の果実の収穫時期および収量の少なくとも一方を予測してもよい。
【0098】
以下、図10~12を用いて、実施形態3について説明する。説明の便宜上、上述の実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
【0099】
〔推定装置1β〕
図10は、実施形態3に係る推定装置1βの構成の一例を示すブロック図である。図10に示すように、推定装置1βは、実施形態1における制御部12と、出力部13との代わりに、制御部12βと、出力部13βと、を備える。この点以外、推定装置1βは、実施形態1に係る推定装置1と同様の構成である。
【0100】
[制御部12β]
制御部12βは、分離部125と、予測部126と、をさらに備える。この点以外、制御部12βは、実施形態1における制御部12と同様の構成である。
【0101】
(分離部125)
分離部125は、推定部124が推定した果実間の境界に基づいて、対象領域を個々の果実に対応する領域に分離する。
【0102】
(予測部126)
予測部126は、個々の果実に対応する領域内の各画素に対応する色情報に基づき、個々の果実の収穫時期および収量の少なくとも一方を予測する。
【0103】
[出力部13β]
出力部13βは、予測部126が予測した予測結果を表示部131βにさらに出力する。この点以外、出力部13βは、実施形態1における出力部13と同様の構成である。
【0104】
(表示部131β)
表示部131βは、予測部126が予測した予測結果をさらに表示する。この点以外、表示部131βは、実施形態1における表示部131と同様の構成である。
【0105】
〔推定装置1βの制御方法S3〕
次に、図11および12を用いて実施形態3に係る推定装置1βの制御方法S3を説明する。図11は、実施形態3に係る推定装置1βの制御方法S3の一例を示すフロー図である。
【0106】
図11に示すように、推定装置1βの制御方法S3は、取得工程S31と、検出工程S32と、特定工程S33と、クラスタリング工程S34と、推定工程S35と、分離工程S36と、予測工程S37と、出力工程S38と、を含む。
【0107】
取得工程S31、検出工程S32、特定工程S33、クラスタリング工程S34および推定工程S35は、それぞれ、実施形態1における取得工程S11、検出工程S12、特定工程S13、クラスタリング工程S14および推定工程S15と同様である。
【0108】
[分離工程S36]
分離工程S36では、推定装置1βの分離部125は、推定工程S35において推定装置1βの推定部124が推定した果実間の境界に基づいて、対象領域を個々の果実に対応する領域に分離する。
【0109】
(分離工程S36の一例)
以下、図12を用いて分離工程S36の一例について説明する。図12は、分離工程S36の一例について説明するための図である。
【0110】
分離部125は、果実C1およびC2間の境界D1に基づいて、グラフカット、ランダムウォーカー分割およびトリミングなどの領域分割法を用いて、対象領域B1を、果実C1に対応する領域と、果実C2に対応する領域とに分離する。これにより、撮像画像I1上の重なった果実を破壊することなく、個々の果実に対応する領域に分離できる。
【0111】
[予測工程S37]
予測工程S37では、推定装置1βの予測部126は、個々の果実に対応する領域内の各画素に対応する色情報に基づき、個々の果実の収穫時期および収量の少なくとも一方を予測する。
【0112】
(予測工程S37の一例)
以下、図11を用いて予測工程S37の一例について説明する。
【0113】
まず、予測部126は、RGB画像である撮像画像I1から、果実C1に対応する領域(果実に対応する領域)B1X内の各画素に対応する色情報、および、果実C2に対応する領域(果実に対応する領域)B1Y内の各画素に対応する色情報を取得する。
【0114】
次に、予測部126は、果実C1に対応する領域B1X内の各画素に対応する色情報、および、果実C2に対応する領域B1Y内の各画素に対応する色情報に基づき、果実C1およびC2の熟度をそれぞれ評価する。
【0115】
例えば、予測部126は、白色の果実の熟度を0、真っ赤な果実の熟度を5と仮定し、個々の果実に対応する領域内の各画素が占める赤色の割合、濃さおよび均一度などに基づき、果実C1の熟度を3、果実C2の熟度を3.2と評価する。赤色の均一度については、予測部126は、各果実に対応する領域内のスーパーピクセルの数が少ないほど、赤色の均一度が高く、果実の熟度が高いと評価する。
【0116】
続いて、予測部126は、果実C1およびC2の熟度に基づき、個々の果実C1およびC2の収穫時期および収量の少なくとも一方を予測する。この場合、予測部126は、果実の熟度が高いほど収穫時期が早いと予測する。例えば、予測部126は、果実C1の熟度が3、果実C2の熟度が3.2である場合、果実C1の収穫時期を明後日、果実C2の収穫時期を明日であると予測する。このように、予測部126が果実C1およびC2の色情報や熟度を参照することにより、個々の果実の収穫時期や収量を高精度に予測できる。
【0117】
[出力工程S38]
出力工程S38では、出力部13γは、予測工程S37において予測部126が予測した予測結果を表示部131βにさらに出力する。
【0118】
(出力工程S38の一例)
出力部13γは、果実C1の収穫時期が明後日、果実C2の収穫時期が明日であるという収穫時期の予測結果を表示部131βに表示させる。出力部13γは、果実C1およびC2の収穫時期を表示部131βに出力する代わりにまたは加えて音声出力してもよい。
【0119】
<実施形態4>
本発明の一態様に係る推定装置は、実施形態4に係る推定装置1γのように、温度情報にさらに基づいて個々の果実の収穫時期および収量の少なくとも一方を予測してもよい。
【0120】
以下、図13~16を用いて、実施形態4について説明する。説明の便宜上、上述の実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
【0121】
〔推定装置1γ〕
図13は、実施形態4に係る推定装置1γの構成の一例を示すブロック図である。図13に示すように、推定装置1γは、実施形態3における取得部11と、制御部12βとの代わりに、取得部11γと、制御部12γと、を備える。この点以外、推定装置1γは、実施形態3に係る推定装置1βと同様の構成である。
【0122】
[取得部11γ]
取得部11γは、撮像画像に対応する熱画像をさらに取得する。
【0123】
[制御部12γ]
制御部12γは、測定部127をさらに備え、予測部126の代わりに予測部126γを備える。この点以外、制御部12γは、実施形態3における制御部12βと同様の構成である。
【0124】
(測定部127)
測定部127は、果実間の境界および熱画像に基づき、個々の果実の温度を測定する。
【0125】
(予測部126γ)
予測部126γは、測定部127が測定した個々の果実の温度が示す温度情報にさらに基づき、個々の果実の収穫時期および収量の少なくとも一方を予測する。
〔推定装置1γの制御方法S4〕
次に、図14および15を用いて実施形態4に係る推定装置1γの制御方法S4を説明する。図14は、実施形態4に係る推定装置1γの制御方法S4の一例を示すフロー図である。
【0126】
図14に示すように、推定装置1γの制御方法S4は、取得工程S41と、検出工程S42と、特定工程S43と、クラスタリング工程S44と、推定工程S45と、分離工程S46と、測定工程S47と、予測工程S48と、出力工程S49と、を含む。
【0127】
検出工程S42、特定工程S43、クラスタリング工程S44、推定工程S45、分離工程S46および出力工程S49は、それぞれ、実施形態3における検出工程S32、特定工程S33、クラスタリング工程S34、推定工程S35、分離工程S36および出力工程S38と同様である。
【0128】
[取得工程S41]
取得工程S41では、推定装置1γの取得部11γは、撮像画像に対応する熱画像をさらに取得する。
【0129】
(取得工程S41の一例)
以下、図15を用いて取得工程S41の一例について説明する。図15は、熱画像I3の一例を示す図である。
【0130】
取得部11γは、赤外線を利用したサーマルカメラなどの撮像部としても機能し、複数の果実C1~C6が撮像された熱画像I3を取得する。
【0131】
サーマルカメラは、撮像画像I1を取得する画像カメラおよび深度画像I2を取得するデプスカメラ、または、撮像画像I1および深度画像I2の両方を取得するカメラなどと隣接した位置関係にあってもよい。
【0132】
これにより、熱画像I3における果実C1およびC2の座標と、撮像画像I1および深度画像I2における果実C1およびC2の座標とが、略一致するなど、熱画像I3と撮像画像I1および深度画像I2とが対応しやすくなる。その結果、測定部127は、撮像画像I1および深度画像I2の位置情報ならびに果実C1およびC2間の境界D1を熱画像I3にマッピングしやすくなり、熱画像I3における果実C1およびC2の温度を測定しやすくなる。
【0133】
取得部11γは、推定装置1γの外部のサーマルカメラなどから、複数の果実C1~C6が撮像された熱画像I3を取得してもよい。
【0134】
(測定工程S47)
測定工程S47では、推定装置1γの測定部127は、果実間の境界および熱画像に基づき、個々の果実の温度を測定する。
【0135】
(測定工程S47の一例)
以下、図15および16を用いて測定工程S47の一例について説明する。図16は、測定工程S47の一例について説明するための図である。
【0136】
まず、測定部127は、撮像画像I1および深度画像I2の位置情報ならびに果実C1およびC2間の境界D1を、図16に示す熱画像I3における対象領域B1γおよび果実C1およびC2間の境界D1γとして、図15に示す熱画像I3にマッピングする。
【0137】
次に、測定部127は、熱画像I3の対象領域B1γにおける果実C1に対応する領域(果実に対応する領域)B1γX、および、果実C2に対応する領域(果実に対応する領域)B1γYの温度を測定する。
【0138】
例えば、測定部127は、果実C1に対応する領域B1γX、および、果実C2に対応する領域B1γYの階調に基づき、それぞれ、果実C1およびC2の温度を測定する。図16に示す例では、果実C1のほうが白色に近く、階調値が大きいため、果実C1の温度が21.2℃、果実C2の温度が20.2℃など、測定部127による果実C1を測定温度は、果実C2の測定温度よりも高くなる。
【0139】
[予測工程S48]
予測工程S48では、推定装置1γの予測部126γは、測定工程S47において測定部127が測定した個々の果実の温度が示す温度情報にさらに基づき、個々の果実の収穫時期および収量の少なくとも一方を予測する。
【0140】
(予測工程S48の一例)
以下、図16を用いて予測工程S48の一例について説明する。
【0141】
予測部126γは、測定工程S47において測定部127が測定した果実C1およびC2の温度が示す温度情報に基づき、果実C1およびC2の収穫時期を予測する。
【0142】
ここで、1日1回、測定部127が開花後の果実C1およびC2の温度をそれぞれ測定することにより、果実C1およびC2を継続してモニタリングし、いずれかの果実の積算温度が400℃になったら、積算温度が400℃になった果実を収穫すると仮定する。
【0143】
この場合、当日の測定工程S47において、測定部127が測定した果実C1の温度が21.2℃、果実C1の積算温度が378.8℃であれば、予測部126γは、果実C1の収穫予定時期が明日であると予測する。また、当日の測定工程S47において、測定部127が測定した果実C2の温度が20.2℃、果実C2の積算温度が377.8℃であれば、予測部126γは、果実C2の収穫予定時期が明後日であると予測する。
【0144】
このように、測定部127は、開花後、果実C1およびC2が小さい頃から果実C1およびC2の温度を測定することによって果実C1およびC2を継続してモニタリングし、果実C1およびC2それぞれの積算温度を算出できる。また、測定部127は、果実C1とC2とが重なっても個々の果実C1およびC2のそれぞれの温度を測定できる。そのため、予測部126γは、測定部127が測定した果実C1およびC2の温度をさらに参照することにより、個々の果実の収穫時期や収量をより高精度に予測することができる。
【0145】
上述の例から明らかなように、予測部126γは、個々の果実の色情報を参照せず、個々の果実の温度が示す温度情報のみに基づき、個々の果実の収穫時期および収量の少なくとも一方を予測してもよい。ただし、予測部126γは、個々の果実の色情報および温度情報の両方に基づき、個々の果実の収穫時期および収量の少なくとも一方を予測することにより、個々の果実の収穫時期や収量をさらに高精度に予測することができる。
【0146】
<実施形態5>
本発明の一態様に係る推定装置は、実施形態5に係る推定装置1δのように、撮像画像における各葉を内包する第2の内包領域が重なり合っている第2の対象領域を特定し、第2の対象領域における葉間の境界を推定してもよい。また、本発明の一態様に係る推定装置は、実施形態5に係る推定装置1δのように、葉間の境界に基づいて、第2の対象領域を個々の葉に分離して、個々の葉に対応する領域から当該葉の全体像を復元し、葉全体の面積に基づき、果実の収量を予測してもよい。
【0147】
以下、図17~23を用いて、実施形態5について説明する。説明の便宜上、上述の実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
【0148】
〔推定装置1δ〕
図17は、実施形態5に係る推定装置1δの構成の一例を示すブロック図である。図17に示すように、推定装置1δは、実施形態3における取得部11と、制御部12βと、出力部13βと、記憶部14との代わりに、取得部11δと、制御部12δと、出力部13δと、記憶部14δと、を備える。
【0149】
[取得部11δ]
取得部11δは、複数の葉が含まれている撮像画像を取得する。この点以外、取得部11δは、実施形態3における取得部11と同様の構成である。
【0150】
[制御部12δ]
制御部12δは、実施形態3における検出部121と、特定部122と、クラスタリング部123と、推定部124と、分離部125と、予測部126との代わりに、検出部121δと、特定部122δと、クラスタリング部123δと、推定部124δと、分離部125δと、予測部126δと、を備える。また、制御部12δは、復元部128をさらに備える。
【0151】
(検出部121δ)
検出部121δは、取得部11δが取得した撮像画像において、各葉を内包する第2の内包領域をそれぞれ検出する。この点以外、検出部121δは、実施形態3における検出部121と同様の構成である。
【0152】
(特定部122δ)
特定部122δは、第2の内包領域同士が重なり合っている領域を含む第2の対象領域をさらに特定する。この点以外、特定部122δは、実施形態3における特定部122と同様の構成である。
【0153】
(クラスタリング部123δ)
クラスタリング部123δは、第2の対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりさらにクラスタリングする。この点以外、クラスタリング部123δは、実施形態3におけるクラスタリング部123と同様の構成である。
【0154】
(推定部124δ)
推定部124δは、クラスタリング部123δによるクラスタリングの結果に基づいて、第2の対象領域における葉間の境界をさらに推定する。この点以外、推定部124δは、実施形態3における推定部124と同様の構成である。
【0155】
(分離部125δ)
分離部125δは、推定部124δが推定した葉間の境界に基づいて、第2の対象領域を個々の葉にさらに分離する。この点以外、分離部125δは、実施形態3における分離部125と同様の構成である。
【0156】
(復元部128)
復元部128は、撮像画像に基づいて、個々の葉に対応する領域から、当該葉の全体像を復元する。
【0157】
(予測部126δ)
予測部126δは、復元部128によって復元された葉全体の面積に基づき、果実の収量を予測する。この点以外、予測部126δは、実施形態3における予測部126と同様の構成である。
【0158】
[出力部13δ]
出力部13δは、予測部126δが予測した予測結果を表示部131δにさらに出力する。この点以外、出力部13δは実施形態3における出力部13βと同様の構成である。
【0159】
(表示部131δ)
表示部131δは、予測部126δが予測した予測結果をさらに表示する。この点以外、表示部131δは、実施形態3における表示部131βと同様の構成である。
【0160】
[記憶部14δ]
記憶部14δは、第2の学習済モデル142と、第3の学習済モデル143と、をさらに備える。この点以外、記憶部14δは、実施形態3における記憶部14と同様の構成である。第2の学習済モデル142および第3の学習済モデル143については後述する。
【0161】
〔推定装置1δの制御方法S5〕
図18~21を用いて実施形態5に係る推定装置1δの制御方法S5を説明する。図18は、実施形態5に係る推定装置1δの制御方法S5の一例を示すフロー図である。
【0162】
図18に示すように、推定装置1δの制御方法S5は、取得工程S51と、検出工程S52と、特定工程S53と、クラスタリング工程S54と、推定工程S55と、分離工程S56と、復元工程S57と、予測工程S58と、出力工程S59と、を含む。
【0163】
[取得工程S51]
取得工程S51では、推定装置1δの取得部11δは、複数の葉が含まれている撮像画像を取得する。
【0164】
(取得工程S51の一例)
以下、図19を用いて取得工程S51の一例について説明する。図19は、撮像画像I1δの一例を示す図である。
【0165】
取得部11δは、画像カメラなどの撮像部として機能し、複数の果実C1~C6ならびに複数の葉C7およびC8を撮像することにより、内包領域A1~A6ならびに第2の内包領域A7およびA8が検出されておらず、対象領域B1~B4およびB6が特定されていない状態の撮像画像I1δを取得する。また、取得部11δは、デプスカメラなどの撮像部としても機能し、複数の果実C1~C6ならびに複数の葉C7およびC8を撮像することにより、対象領域B5およびB7がマッピングされていない状態の深度画像I2δを取得する。
【0166】
取得部11δは、推定装置1δの外部の画像カメラなどから、複数の果実C1~C6ならびに複数の葉C7およびC8が撮像されており、内包領域A1~A6ならびに第2の内包領域A7およびA8が検出されておらず、対象領域B1およびB6が特定されていない状態の撮像画像I1δを取得してもよい。また、取得部11δは、推定装置1δの外部のデプスカメラなどから、複数の果実C1~C6ならびに複数の葉C7およびC8が撮像されており、対象領域B5およびB7がマッピングされていない状態の深度画像I2δを取得してもよい。
【0167】
取得部11δは、図19に示すような、葉C7およびC8に加え、果実C1~C6が撮像されている撮像画像I1δを取得した場合、撮像画像I1δとは別に果実C1~C6が撮像されている撮像画像を取得しなくてもよい。ただし、同一の果菜類または果樹類を撮像した撮像画像であれば、取得部11δは、複数の葉が撮像された撮像画像と、複数の果実が撮像された画像とを別々に取得してもよい。
【0168】
[検出工程S52]
検出工程S52では、推定装置1δの検出部121δは、取得部11δが取得した撮像画像において、各葉を内包する第2の内包領域をそれぞれ検出する。
【0169】
(検出工程S52の一例)
以下、図19を用いて検出工程S52の一例について説明する。
【0170】
検出部121δは、第2の学習済モデル142を用いて、撮像画像I1δにおける第2の内包領域A7およびA8を検出してもよい。
【0171】
第2の学習済モデル142は、複数の葉を撮像した第2の学習画像と、当該第2の学習画像において各葉を内包する第2の内包領域との組を教師データとして機械学習させることによって生成されたものである。
【0172】
検出部121δは、果実C1~C6を内包する内包領域A1~A6の検出に加え、第2の学習済モデル142に撮像画像I1δを入力することによって、第2の学習済モデル142から出力される第2の内包領域A7およびA8を検出する。すなわち、検出部121δは、第2の内包領域A7およびA8に内包される葉C7およびC8に対応する各画素の位置情報を検出する。このように、検出部121δは、第2の学習済モデル142を用いることにより、第2の内包領域A7およびA8を高精度かつ効率的に検出できる。
【0173】
検出部121δは、撮像画像が花を含む場合、各果実を内包する内包領域および各葉を内包する第2の内包領域を検出する方法と同様の方法により、これらの内包領域に加え、各花を内包する第3の内包領域を検出してもよい。
【0174】
[特定工程S53]
特定工程S53では、推定装置1δの特定部122δは、第2の内包領域同士が重なり合っている領域を含む第2の対象領域をさらに特定する。
【0175】
(特定工程S53の一例)
以下、図19を用いて特定工程S53の一例について説明する。
【0176】
特定部122δは、対象領域B1と同様の方法により、第2の内包領域A7およびA8同士が重なり合っている領域を含む第2の対象領域B6をさらに特定する。すなわち、特定部122δは、対象領域B6に対応する各画素の位置情報を特定する。図19に示すように、特定部122δは、第2の内包領域A7およびA8同士が重なり合っている領域を対象領域B6として特定してもよい。特定部122δは、重なり合っている第2の内包領域A7およびA8同士を結合した領域を対象領域として特定してもよい。
【0177】
[クラスタリング工程S54]
クラスタリング工程S54では、推定装置1δのクラスタリング部123δは、特定工程S53において特定した第2の対象領域における各画素を、当該画素に対応する深度情報を用いた教師なし学習によりさらにクラスタリングする。
【0178】
(クラスタリング工程S54の一例)
以下、図19および20を用いてクラスタリング工程S54の一例について説明する。図20は、深度画像I2δの一例を示す図である。
【0179】
クラスタリング部123δは、第2の対象領域B6における各画素を、当該画素に対応する深度情報を用いてクラスタリングしてもよい。
【0180】
この場合、まず、クラスタリング部123δは、特定部122δが特定した撮像画像I1δの対象領域B6の位置情報を、深度画像I2δに対象領域B7としてマッピングする。次に、クラスタリング部123δは、深度画像I2δのうち、撮像画像I1δの対象領域B6に対応する対象領域B7から深度情報を取得し、当該深度情報を用いてクラスタリングする。
【0181】
深度画像I2δでは、葉C8に対応する領域が葉C7に対応する領域よりも白いため、葉C8に対応する領域のほうが、葉C7に対応する領域よりも深度が深い。そのため、クラスタリング部123δは、対象領域B6における各画素を、葉C7に対応する領域と、葉C8に対応する領域とにクラスタリングする。
【0182】
[推定工程S55]
推定工程S55では、推定装置1δの推定部124δは、クラスタリング工程S54におけるクラスタリングの結果に基づいて、対象領域における葉間の境界を推定する。
【0183】
(推定工程S55の一例)
以下、図21を用いて推定工程S55の一例について説明する。図21は、第2の対象領域B6における葉C7およびC8間の境界の一例を示す図である。
【0184】
推定部124δは、クラスタリング部123δによるクラスタリングの結果に基づいて、対象領域B6における葉C7およびC8間の境界D2を推定する。例えば、推定部124δは、クラスタリング部123δによってクラスタリングされた葉C7に対応する領域と葉C8に対応する領域との境界を、葉C7およびC8間の境界D2であると推定する。すなわち、推定部124δは、境界D2の座標などの位置情報を推定する。これにより、推定部124δは、撮像画像I1δ上の重なった葉C7とC8とを高精度かつ効率的に個々の葉C7およびC8として識別することができる。
【0185】
[分離工程S56]
分離工程S56では、推定装置1δの分離部125δは、推定工程S55において推定部124δが推定した葉間の境界に基づいて、第2の対象領域を個々の果実に対応する領域に分離する。
【0186】
(分離工程S56の一例)
以下、図22を用いて分離工程S56の一例について説明する。図22は、第2の対象領域B6における葉C7およびC8間の分離について説明するための図である。
【0187】
分離部125δは、葉C7およびC8間の境界D1に基づき、上述の領域分割法を用いて、第2の対象領域B6を、葉C7に対応する領域B6Xと、葉C8に対応する領域B6Yとに分離する。
【0188】
[復元工程S57]
復元工程S57では、推定装置1δの復元部128は、撮像画像に基づいて、個々の葉に対応する領域から、当該葉の全体像を復元する。
【0189】
(復元工程S57の一例)
以下、図19および23を用いて復元工程S57の一例について説明する。図23は、葉C8の全体像(葉の全体像)C8δの復元について説明するための図である。
【0190】
まず、復元部128は、撮像画像I1δの画素の色情報および輝度情報に基づき、第2の内包領域A8から、葉C7と重なって隠れた画素の領域を除く葉C8に対応する領域を抽出する。
【0191】
次に、復元部128は、記憶部14δに記憶されている第3の学習済モデル143を用いて、葉C7と重なって隠れた画素の領域を除く葉C8に対応する領域から、葉C8の全体像C8δを復元する。第3の学習済モデル143は、他の葉と一部が重なって隠れた葉に対応する領域と、隠れていない葉に対応する領域との組を教師データとして機械学習させることにより生成されたものである。
【0192】
復元部128は、葉C7と重なって隠れた画素の領域を除く葉C8に対応する領域を第3の学習済モデル143に入力することにより、第3の学習済モデル143から出力される葉C8の全体像C8δを取得する。
【0193】
上述の例では、記憶部14δに第3の学習済モデル143が記憶されているが、本実施形態では、記憶部14δには、第3の学習済モデル143の代わりに、または加えて複数種類の所定の葉の形状情報が記憶されていてもよい。また、復元部128は、テンプレートマッチングの技術を用いて、葉C7と重なって隠れた画素の領域を除く葉C8に対応する領域から葉C8の全体像C8δを復元してもよい。
【0194】
この場合、復元部128は、記憶部14δに記憶されている複数種類の所定の葉の形状情報のうち、葉C7と重なって隠れた画素の領域を除く葉C8に対応する領域の形状と輪郭が最も近い葉の形状情報を選択する。
【0195】
複数種類の所定の葉の形状情報としては、360°回転可能になっている3Dデータなどが挙げられる。これにより、復元部128は、葉C8が撮像された角度に応じて複数種類の所定の葉の形状情報を回転させ、葉C7と重なって隠れた画素の領域を除く葉C8に対応する領域と重ね合わせることができる。その結果、復元部128は、葉C8に対応する領域の形状と輪郭が最も近い所定の葉の形状情報を高精度に選択することができる。
【0196】
復元部128は、選択した所定の葉の形状情報、葉C7と重なって隠れた画素の領域を除く葉C8に対応する画素の色情報および輝度情報に基づいて、葉C7と重なって隠れた画素の領域を補完することによって、葉C8の全体像C8δを復元する。
【0197】
このように、復元部128は、撮像画像I1δを参照することにより、葉C8に対応する領域から、葉C8の全体像C8δを高精度に復元することができる。
【0198】
[予測工程S57]
予測工程S57では、推定装置1δの予測部126δは、復元部128によって復元された葉全体の面積に基づき、果実の収量を予測する。
【0199】
(予測工程S57の一例)
以下、図19および23を用いて予測工程S57の一例について説明する。
【0200】
まず、予測部126δは、他の葉と重なって隠れていない葉C7に関しては、撮像画像I1δにおける葉C7の画素の領域の位置情報に基づいて葉C7の面積を算出する。予測部126δは、葉C7と重なって一部が隠れている葉C8に関しては、撮像画像I1δにおける葉C8の画素の領域の位置情報、および、復元部128によって復元された葉C8の全体像C8δの画素の領域に基づいて葉C8の面積を算出する。
【0201】
次に、予測部126δは、葉C7とC8との面積の合計値、および1本の果菜類または果樹類の樹木における葉の枚数に基づき、当該樹木における葉の面積の合計値を予測する。この場合、予測部126δは、当該樹木における葉の枚数として、記憶部14δにあらかじめ記憶されたものを用いてもよいし、ユーザからの入力を受け付けたものを用いてもよい。また、予測部126δは、検出部121δが検出した、当該樹木全体を撮像した撮像画像における葉の内包領域の数から、当該樹木における葉の枚数を取得してもよい。
【0202】
続いて、予測部126δは、葉C8のうち葉C7と重なって隠れた画素の領域の面積、および当該樹木における葉の枚数に基づき、当該樹木における葉が他の葉と重なって隠れた画素の領域の面積を予測する。また、予測部126δは、1本の樹木における葉の面積の合計値から、当該樹木における葉が他の葉と重なって隠れた、光合成が不可能な葉の領域の面積を減算し、当該樹木における光合成可能な葉の領域の面積の合計値を予測する。
【0203】
予測部126δは、1本の樹木における光合成可能な葉の領域の面積の合計値に基づき、1本の樹木における果実の収量を予測する。このように、予測部126δは、復元した葉の全体像の面積を参照することにより、果実の収量を高精度に予測することができる。
【0204】
[出力工程S58]
出力工程S58では、出力部13δは、予測工程S57において予測部126δが予測した予測結果を表示部131δにさらに出力する。
【0205】
(出力工程S58の一例)
出力部13δは、1本の果菜類または果樹類の樹木における果実の収量を表示部131δに表示させてもよい。また、出力部13δは、当該果実の収量を表示部131δに出力する代わりに、または加えて音声出力してもよい。
【0206】
<実施形態6>
本発明の一態様に係る推定装置は、実施形態6に係る推定装置1εのように、撮像画像に基づいて、個々の果実に対応する領域から、当該果実の全体像を復元してもよい。
【0207】
以下、図24~26を用いて、実施形態6について説明する。説明の便宜上、上述の実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
【0208】
〔推定装置1ε〕
図24は、実施形態6に係る推定装置1εの構成の一例を示すブロック図である。図24に示すように、推定装置1εは、実施形態3における制御部12βと、出力部13βと、記憶部14との代わりに、制御部12εと、出力部13εと、記憶部14εと、を備える。この点以外、推定装置1εは、実施形態3に係る推定装置1βと同様の構成である。
【0209】
[制御部12ε]
制御部12εは、第2の復元部128εをさらに備え、実施形態3における予測部126βの代わりに予測部126εを備える。この点以外、制御部12εは、実施形態3における制御部12βと同様の構成である。
【0210】
(第2の復元部128ε)
第2の復元部128εは、撮像画像に基づいて、個々の果実に対応する領域から、当該果実の全体像を復元する。
【0211】
(予測部126ε)
予測部は、果実の全体像に基づいて当該果実の品質をさらに予測する。
【0212】
[出力部13ε]
出力部13εは、予測部126εが予測した予測結果を表示部131εにさらに出力する。この点以外、出力部13εは実施形態3における出力部13βと同様の構成である。
【0213】
(表示部131ε)
表示部131εは、予測部126εが予測した予測結果をさらに表示する。この点以外、表示部131εは、実施形態3における表示部131βと同様の構成である。
【0214】
[記憶部14ε]
記憶部14εは、第4の学習済モデル144と、複数種類の所定の果実の形状情報と、をさらに備える。この点以外、記憶部14εは、実施形態3における記憶部14と同様の構成である。第4の学習済モデル144および複数種類の所定の果実の形状情報については後述する。
【0215】
〔推定装置1εの制御方法S6〕
図25および26を用いて実施形態6に係る推定装置1εの制御方法S6を説明する。図25は、実施形態6に係る推定装置1εの制御方法S6の一例を示すフロー図である。
【0216】
図25に示すように、推定装置1εの制御方法S6は、取得工程S61と、検出工程S62と、特定工程S63と、クラスタリング工程S64と、推定工程S65と、分離工程S66と、第2の復元工程S67と、予測工程S68と、出力工程S69と、を含む。
【0217】
取得工程S61と、検出工程S62、特定工程S63、クラスタリング工程S64、推定工程S65および分離工程S66は、それぞれ、実施形態3における取得工程S31、検出工程S32、特定工程S33、クラスタリング工程S34、推定工程S35および分離工程S36と同様である。
【0218】
[第2の復元工程S67]
第2の復元工程S67では、推定装置1εの第2の復元部128εは、撮像画像に基づいて、個々の果実に対応する領域から、当該果実の全体像を復元する。
【0219】
(第2の復元工程S67の一例)
以下、図3および26を用いて第2の復元工程S67の一例について説明する。図26は、果実C2の全体像(果実の全体像)C2εの復元について説明するための図である。
【0220】
まず、第2の復元部128εは、図3の撮像画像I1の画素の色情報および輝度情報に基づき、内包領域A2から、果実C1と重なって隠れた画素の領域を除く果実C2に対応する領域を抽出する。
【0221】
次に、第2の復元部128εは、記憶部14εに記憶されている第4の学習済モデル144を用いて、果実C1と重なって隠れた画素の領域を除く果実C2に対応する領域から、果実C2の全体像C2εを復元する。第4の学習済モデル144は、他の果実と一部が重なって隠れた果実に対応する領域と、隠れていない果実に対応する領域との組を教師データとして機械学習させることにより生成されたものである。
【0222】
第2の復元部128εは、果実C1と重なって画素の領域を除く果実C2に対応する領域を第4の学習済モデル144に入力することにより、第4の学習済モデル144から出力される果実C2の全体像C2εを取得する。
【0223】
上述の例では、記憶部14εに第4の学習済モデル144が記憶されているが、本実施形態では、記憶部14εに第4の学習済モデル144が記憶されていなくてもよい。また、第2の復元部128εは、テンプレートマッチングの技術を用いて、果実C1と重なって隠れた画素の領域を除く果実C2に対応する領域から、果実C2の全体像C2εを復元してもよい。
【0224】
この場合、第2の復元部128εは、記憶部14εに記憶された複数種類の所定の果実の形状情報のうち、果実C1と重なった画素の領域を除く果実C2に対応する領域の形状と輪郭が最も近い果実の形状情報を選択する。
【0225】
複数種類の所定の果実の形状情報としては、360°回転可能になっている3Dデータなどが挙げられる。これにより、第2の復元部128εは、果実C2が撮像された角度に応じて複数種類の所定の果実の形状情報を回転させて、果実C1と重なって隠れた画素の領域を除く果実C2に対応する領域と重ね合わせることができる。その結果、第2の復元部128εは、果実C2に対応する領域の形状と輪郭が最も近い所定の果実の形状情報をより高精度に選択することができる。
【0226】
第2の復元部128εは、選択した所定の果実の形状情報、果実C1と重なって隠れた画素の領域を除く果実C2に対応する画素の色情報および輝度情報に基づき、果実C1と重なって隠れた画素の領域を補完することにより、果実C2の全体像C2εを復元する。
【0227】
このように、第2の復元部128εは、撮像画像I1を参照することにより、果実C2に対応する領域から、果実C2の全体像C2εを高精度に復元することができる。
【0228】
[予測工程S68]
予測工程S68では、推定装置1εの予測部126εは、第2の復元工程S67において第2の復元部128εによって復元された果実の全体像に基づいて、当該果実の品質をさらに予測する。
【0229】
(予測工程S68の一例)
以下、図1および26を用いて予測工程S68の一例について説明する。
【0230】
予測部126εは、複数種類の所定の果実の形状情報のうち、図26に示す果実C2の全体像C2εと輪郭が最も近い所定の果実の形状情報を選択する。
【0231】
予測部126εは、選択した所定の果実の形状情報に基づいて果実C2の品質を予測する。予測部126εは、果実C2の全体像C2εの画素の色情報および輝度情報にさらに基づいて果実C2の品質を予測してもよい。この場合、予測部126εは、果実C2の品質を、評価が高い順に、特秀、秀、優、良および無などの等級として複数段階に分けて評価してもよい。
【0232】
例えば、予測部126εは、選択した所定の果実の形状情報が、左右対称のものなど、整っているほど、果実C2の等級を高く評価する。予測部126εは、果実C2の全体像C2εの色情報の赤色の割合、濃さおよび均一度が高いほど、果実C2の等級を高く評価する。予測部126εは、果実C2の全体像C2εの輝度情報が示す輝度が高く、光沢があるほど、果実C2の等級を高く評価する。これにより、予測部126εは、果実C1に重なって一部が隠れた果実C2であっても、当該果実C2の品質を高精度に予測できる。
【0233】
また、予測部126εは、各撮像画像に基づいて復元された各果実の全体像に基づいて、各果実の等級を予測してもよい。これにより、予測部126εは、1本の果菜類または果樹類の樹木における等級ごとに、当該等級に該当する果実の個数を予測することができる。等級別に果実の価格は異なるため、予測部126εは、結果として、当該樹木における各果実を売った場合の売り上げを予測することができる。
【0234】
[出力工程S69]
出力工程S69では、出力部13εは、予測工程S68において予測部126εが予測した予測結果を表示部131εにさらに出力する。
【0235】
(出力工程S69の一例)
出力部13εは、果実C2の等級など、果実C2の品質を表示部131εに表示させてもよい。また、出力部13εは、果実C2の品質を表示部131εに出力する代わりに、または加えて音声出力してもよい。
【0236】
<ソフトウェアによる実現例>
推定装置1、1α、1β、1γ、1δおよび1ε(以下、「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるための推定プログラムであって、当該装置の各制御ブロック(特に制御部12、12α、12β、12γ、12δおよび12εに含まれる各部)としてコンピュータを機能させるための推定プログラムにより実現できる。
【0237】
この場合、上記装置は、上記推定プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備える。この制御装置と記憶装置により上記推定プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。
【0238】
上記推定プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記推定プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。
【0239】
また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。
【0240】
<付記事項>
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【0241】
また、各実施形態に係る診断装置は、生産性を向上させ、持続可能な食料生産システムを確保し、強靭(レジリエント)な農業を実践する可能なため、持続可能な開発目標(SDGs)の目標2「飢餓をゼロに」の達成に貢献することができる。
【産業上の利用可能性】
【0242】
本発明は、果実の収穫時期や収量の予測に用いる撮像画像において、果実の重なり問題が発生しやすい施設園芸作物に利用することができる。
【符号の説明】
【0243】
1、1α、1β、1γ、1δ、1ε 推定装置
11、11γ、11δ 取得部
C7、C8 葉
121、121δ 検出部
122、122α、122δ 特定部
123、123α、123δ クラスタリング部
124、124δ 推定部
125、125δ 分離部
126、126β、126γ、126δ、126ε 予測部
127 測定部
128 復元部
128ε 第2の復元部
A1、A2、A3、A4、A5、A6 内包領域
A7、A8 第2の内包領域
B1、B1α、B1γ、B2、B3、B4、B5 対象領域
B1X、B1Y、B1γX、B1γY 領域(果実に対応する領域)
B6、B7 第2の対象領域
C1、C2、C3、C4、C5、C6 果実
C2ε 全体像(果実の全体像)
C8δ 全体像(葉の全体像)
D1、D1γ、D2 境界
I1、I1α、I1δ 撮像画像
I2、I2δ 深度画像
I3 熱画像
S1、S2、S3、S4、S5、S6 制御方法
S11、S21、S31、S41、S51、S61 取得工程
S12、S22、S32、S42、S52、S62 検出工程
S13、S23、S33、S43、S53、S63 特定工程
S14、S24、S34、S44、S54、S64 クラスタリング工程
S15、S25、S35、S45、S55、S65 推定工程
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26