IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人山梨大学の特許一覧 ▶ 株式会社 YSK e−comの特許一覧

特開2023-88557情報処理装置、プログラム、システム、及び情報処理方法
<>
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図1
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図2
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図3
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図4
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図5
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図6
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図7
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図8
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図9
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図10
  • 特開-情報処理装置、プログラム、システム、及び情報処理方法 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023088557
(43)【公開日】2023-06-27
(54)【発明の名称】情報処理装置、プログラム、システム、及び情報処理方法
(51)【国際特許分類】
   G06T 7/00 20170101AFI20230620BHJP
   G06T 7/11 20170101ALI20230620BHJP
   A01G 7/00 20060101ALI20230620BHJP
【FI】
G06T7/00 350B
G06T7/11
A01G7/00 603
【審査請求】有
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2021203363
(22)【出願日】2021-12-15
(11)【特許番号】
(45)【特許公報発行日】2022-04-07
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 1.刊行物:CYBERWORLD 2021講演予稿集、発行日:2021年9月30日 2.集会名:CYBERWORLD 2021、開催日:2021年9月30日
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和2年度、国立研究開発法人農業・食品産業技術総合研究機構、「スマート農業技術の開発・実証プロジェクト」、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】304023994
【氏名又は名称】国立大学法人山梨大学
(71)【出願人】
【識別番号】507225595
【氏名又は名称】株式会社 YSK e-com
(74)【代理人】
【識別番号】110001139
【氏名又は名称】SK弁理士法人
(74)【代理人】
【識別番号】100130328
【弁理士】
【氏名又は名称】奥野 彰彦
(74)【代理人】
【識別番号】100130672
【弁理士】
【氏名又は名称】伊藤 寛之
(72)【発明者】
【氏名】茅 暁陽
(72)【発明者】
【氏名】ブアヤイ プラウィット
(72)【発明者】
【氏名】横澤 浩樹
(72)【発明者】
【氏名】根本 陽平
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096BA08
5L096BA18
5L096CA02
5L096DA01
5L096EA37
5L096FA02
5L096FA04
5L096FA10
5L096FA63
5L096FA64
5L096FA67
5L096FA69
5L096GA10
5L096HA11
5L096JA11
5L096JA16
5L096KA04
(57)【要約】      (修正有)
【課題】ぶどうの房づくりを支援するための情報処理装置及び方法、プログラム並びにシステムを提供する。
【解決手段】房づくり支援システムを構成する情報処理装置は、花穂領域検出部41aと、主軸特定部41bと、円形パーツ検出部41cと、境界位置推定部41dとを制御部20に備える。花穂領域検出部41aは、画像に含まれるぶどうの複数の花穂の画像上における領域である花穂領域を検出する。主軸特定部41bは、花穂領域の主軸である花穂主軸を特定する。円形パーツ検出部41cは、画像に含まれる円形パーツを検出する。境界位置推定部41dは、円形パーツの直径の実寸法と円形パーツの画像上の大きさとを用いてキャリブレーションを行うことにより、花穂主軸上において、画像上における複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する。
【選択図】図5
【特許請求の範囲】
【請求項1】
情報処理装置であって、
花穂領域検出部と、主軸特定部と、円形パーツ検出部と、境界位置推定部とを備え、
前記花穂領域検出部は、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、
前記主軸特定部は、前記花穂領域の主軸である花穂主軸を特定し、
前記円形パーツ検出部は、前記画像に含まれる円形パーツを検出し、
前記境界位置推定部は、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、情報処理装置。
【請求項2】
請求項1に記載の情報処理装置であって、
前記円形パーツは前記ぶどうの花穂を切断するはさみの支点部分に設けられる円形の留め具であり、
前記円形パーツ検出部は、はさみ検出部と留め具検出部とを備えており、
前記はさみ検出部は、第1学習モデルに基づいて、前記画像上におけるはさみ領域を検出し、
前記留め具検出部は、前記第1学習モデルと異なる第2学習モデルに基づいて、前記はさみ領域から前記留め具の外接矩形領域を検出し、
前記境界位置推定部は、前記外接矩形領域の長辺の長さを前記留め具の大きさとする、情報処理装置。
【請求項3】
請求項2に記載の情報処理装置であって、
前記花穂領域検出部は、前記第1学習モデルに基づいて前記花穂領域を検出する、情報処理装置。
【請求項4】
請求項1~請求項3のいずれかに記載の情報処理装置であって、
前記主軸特定部は、前記花穂領域の凸包を求めるとともに凸包領域の主軸を前記花穂主軸とし、
前記境界位置推定部は、前記花穂主軸と前記凸包領域の交点を基準として前記境界位置を推定する、情報処理装置。
【請求項5】
請求項1~請求項4のいずれかに記載の情報処理装置であって、
出力画像生成部をさらに備え、
前記出力画像生成部は、前記境界位置を示す出力画像を生成する、情報処理装置。
【請求項6】
システムであって、
画像撮影部と、画像処理部とを備え、
前記画像撮影部は、ぶどうの複数の花穂及び円形パーツを含む画像を撮影し、
前記画像処理部は、花穂領域検出部と、主軸特定部と、円形パーツ検出部と、境界位置推定部とを備え、
前記花穂領域検出部は、前記画像に含まれる前記複数の花穂の前記画像上における領域である花穂領域を検出し、
前記主軸特定部は、前記花穂領域の主軸である花穂主軸を特定し、
前記円形パーツ検出部は、前記画像に含まれる前記円形パーツを検出し、
前記境界位置推定部は、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、システム。
【請求項7】
請求項6に記載のシステムであって、
ユーザ端末と、情報処理装置とを備え、
前記ユーザ端末は、前記画像撮影部と、出力画像表示部を備え、
前記情報処理装置は、前記画像処理部と、出力画像生成部とを備えており、
前記出力画像生成部は、前記境界位置を示す出力画像を生成し、
前記出力画像表示部は、前記出力画像を表示する、システム。
【請求項8】
プログラムであって、
コンピュータに、花穂領域検出工程と、主軸特定工程と、円形パーツ検出工程と、境界位置推定工程とを実行させ、
前記花穂領域検出工程では、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、
前記主軸特定工程では、前記花穂領域の主軸である花穂主軸を特定し、
前記円形パーツ検出工程では、前記画像に含まれる円形パーツを検出し、
前記境界位置推定工程では、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、プログラム。
【請求項9】
情報処理方法であって、
花穂領域検出工程と、主軸特定工程と、円形パーツ検出工程と、境界位置推定工程とを備え、
前記花穂領域検出工程では、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、
前記主軸特定工程では、前記花穂領域の主軸である花穂主軸を特定し、
前記円形パーツ検出工程では、前記画像に含まれる円形パーツを検出し、
前記境界位置推定工程では、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ぶどうの房づくりを支援するための情報処理装置、プログラム、システム、及び情報処理方法に関する。
【背景技術】
【0002】
ぶどうの栽培においては、収穫時の果房の形や大きさを整えるため、開花期に房から不要な花穂を取り除く「房づくり」が行われる。房づくりでは通常、図11に示すように、一つの房G(すなわち、花穂全体)における先端から所定の長さ(目標長さLr)の位置(数cm)を境界位置Xrとし、境界位置Xrの先端側の範囲の花穂H1を残し、境界位置Xrの基端側の他の花穂H2(副穂)を切断する。また、特許文献1には、はさみを入れる回数を少なくして労働作業を軽減できる房づくり方法が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特許第3588754号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、ぶどうの房づくりにおいて、残すべき花穂H1と切断すべき花穂H2とを瞬時に判断し、実際に不要な花穂をはさみで切断することは、熟練者でない限り困難であった。
【0005】
本発明はこのような事情に鑑みてなされたものであり、ぶどうの房づくりを支援するための、情報処理装置、プログラム、システム、及び情報処理方法を提供するものである。
【課題を解決するための手段】
【0006】
本発明によれば、情報処理装置であって、花穂領域検出部と、主軸特定部と、円形パーツ検出部と、境界位置推定部とを備え、前記花穂領域検出部は、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、前記主軸特定部は、前記花穂領域の主軸である花穂主軸を特定し、前記円形パーツ検出部は、前記画像に含まれる円形パーツを検出し、前記境界位置推定部は、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、情報処理装置が提供される。
【0007】
本発明では、ぶどうの花穂及びはさみが撮影された画像において、円形パーツの直径の実寸法と円形パーツの画像上の大きさとを用いてキャリブレーションを行うことにより、画像上における花穂領域の主軸上において、複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する。これにより、熟練者でなくとも切断すべき花穂を知ることができ、ぶどうの房づくりを支援することが可能となっている。
【0008】
以下、本発明の種々の実施形態を例示する。以下に示す実施形態は互いに組み合わせ可能である。
【0009】
好ましくは、前記円形パーツは前記ぶどうの花穂を切断するはさみの支点部分に設けられる円形の留め具であり、前記円形パーツ検出部は、はさみ検出部と留め具検出部とを備えており、前記はさみ検出部は、第1学習モデルに基づいて、前記画像上におけるはさみ領域を検出し、前記留め具検出部は、前記第1学習モデルと異なる第2学習モデルに基づいて、前記はさみ領域から前記留め具の外接矩形領域を検出し、前記境界位置推定部は、前記外接矩形領域の長辺の長さを前記留め具の大きさとする。
【0010】
好ましくは、前記花穂領域検出部は、前記第1学習モデルに基づいて前記花穂領域を検出する。
【0011】
好ましくは、前記主軸特定部は、前記花穂領域の凸包を求めるとともに凸包領域の主軸を前記花穂主軸とし、前記境界位置推定部は、前記花穂主軸と前記凸包領域の交点を基準として前記境界位置を推定する。
【0012】
好ましくは、出力画像生成部をさらに備え、前記出力画像生成部は、前記境界位置を示す出力画像を生成する。
【0013】
また、本発明によれば、システムであって、画像撮影部と、画像処理部とを備え、前記画像撮影部は、ぶどうの複数の花穂及び円形パーツを含む画像を撮影し、前記画像処理部は、花穂領域検出部と、主軸特定部と、円形パーツ検出部と、境界位置推定部とを備え、前記花穂領域検出部は、前記画像に含まれる前記複数の花穂の前記画像上における領域である花穂領域を検出し、前記主軸特定部は、前記花穂領域の主軸である花穂主軸を特定し、前記円形パーツ検出部は、前記画像に含まれる前記円形パーツを検出し、前記境界位置推定部は、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、システムが提供される。
【0014】
好ましくは、ユーザ端末と、情報処理装置とを備え、前記ユーザ端末は、前記画像撮影部と、出力画像表示部を備え、前記情報処理装置は、前記画像処理部と、出力画像生成部とを備えており、前記出力画像生成部は、前記境界位置を示す出力画像を生成し、前記出力画像表示部は、前記出力画像を表示する。
【0015】
また、本発明によれば、プログラムであって、コンピュータに、花穂領域検出工程と、主軸特定工程と、円形パーツ検出工程と、境界位置推定工程とを実行させ、前記花穂領域検出工程では、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、前記主軸特定工程では、前記花穂領域の主軸である花穂主軸を特定し、前記円形パーツ検出工程では、前記画像に含まれる円形パーツを検出し、前記境界位置推定工程では、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、プログラムが提供される。
【0016】
また、本発明によれば、情報処理方法であって、花穂領域検出工程と、主軸特定工程と、円形パーツ検出工程と、境界位置推定工程とを備え、前記花穂領域検出工程では、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、前記主軸特定工程では、前記花穂領域の主軸である花穂主軸を特定し、前記円形パーツ検出工程では、前記画像に含まれる円形パーツを検出し、前記境界位置推定工程では、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、情報処理方法が提供される。
【図面の簡単な説明】
【0017】
図1】本発明の一実施形態に係る房づくり支援システム1の概要を示す図である。
図2図1の房づくり支援システム1のユーザ端末3が撮影した画像P1の例を模式的に示す説明図である。
図3】ユーザ端末3が表示する出力画像P6の例を模式的に示す説明図である。
図4図4Aは、図1の情報処理装置2のハードウェア構成を示すブロック図であり、図4Bは、図1のユーザ端末3のハードウェア構成を示すブロック図である。
図5図5Aは、図1の情報処理装置2の機能構成を示すブロック図であり、図5Bは、図1のユーザ端末3機能構成を示すブロック図である。
図6】花穂領域検出部41aによる花穂領域A1の検出について示す説明図である。
図7】主軸特定部41bによる花穂主軸Mの特定について示す説明図である。
図8図8A及び図8Bは、円形パーツ検出部41cによる留め具60の検出について示す説明図である。
図9】境界位置推定部41dによる境界位置Xpの推定について示す説明図である。
図10図1の情報処理装置2による情報処理の各工程を示すフローチャートである。
図11】ぶどうの房づくりにおいて、花穂H2の切断の前後の様子を示す説明図である。
【発明を実施するための形態】
【0018】
以下、本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。また、各特徴について独立して発明が成立する。
【0019】
1.房づくり支援システム1
本発明の一実施形態に係る房づくり支援システム1は、図1に示すように、情報処理装置2と、ユーザ端末3とを備える。
【0020】
情報処理装置2とユーザ端末3は、通信回線4を介して通信可能に構成される。ユーザ端末3は、ぶどうの複数の花穂5(花穂5の全体を花穂群5Eとする)及びはさみ6が含まれる画像P1(図2参照)を撮影し、通信回線4を介して情報処理装置2へ送信する。情報処理装置2は、ユーザ端末3から受信した画像P1を処理し、当該画像P1における複数の花穂5のうちの残すべき花穂5の範囲W1と切断すべき花穂5の範囲W2の境界である境界位置Xp(図3参照)を推定する。推定した境界位置Xpは通信回線4を介してユーザ端末3に送られ、ユーザ端末3は、境界位置Xpを示す出力画像P6(図1及び図3参照)を表示することで、ユーザの房づくりを支援する。なお、図1及び図3には、境界位置Xpを示す画像に加えてぶどうの花穂5、はさみ6及び作業者Wが含まれているが、実際の出力画像P6としては境界位置Xpを示す画像のみが表示されていれば良く、その他の要素は画像ではなく透過された実際の視界を示している。ただし、その他の要素を透明な画像として表示することも可能である。以下、このような機能を実現する情報処理装置2及びユーザ端末3の各構成について説明する。
【0021】
2.房づくり支援システム1のハードウェア構成
2-1.情報処理装置2のハードウェア構成
本実施形態に係る情報処理装置2は、図4Aのブロック図に示すように、制御部20と、記憶部21と、通信部22とを備える。また、情報処理装置2は、キーボード及びマウス等で構成された各種操作の入力を受け付ける操作入力部23と、各種画像を表示する例えば液晶ディスプレイ装置等のモニタ24とを備えていてもよい。
【0022】
制御部20は、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、DSP(Digital Signal Processor)等であり、情報処理装置2の全体の動作を制御する。
【0023】
記憶部21の一部は、例えば、RAM(Random Access Memory)やDRAM(Dynamic Random Access Memory)等で構成されており、制御部20による各種プログラムに基づく処理の実行時のワークエリア等として用いられる。また、記憶部21の一部は、例えば、ROM(Read Only Memory)等の不揮発性メモリ、又はHDD(Hard Disk Drive)であり、各種データ及び制御部20の処理に利用されるプログラム等を保存する。
【0024】
記憶部21に記憶されるプログラムは、例えば、情報処理装置2の基本的な機能を実現するためのOS(Operating System)、各種ハードウェア制御するためのドライバ、各種機能を実現するためのプログラム等であって、本実施形態に係るコンピュータプログラムを含む。
【0025】
通信部22は、例えばNIC(Network Interface Controller)であり、通信回線4に接続する機能を有する。なお、通信部22は、NICに代えて又はNICと共に、無線LAN(Local Area Network)に接続する機能、無線WAN(Wide Area Network)に接続する機能、Bluetooth(登録商標)等の近距離の無線通信や赤外線通信等を可能とする機能を有してもよい。情報処理装置2は、通信回線4を介してユーザ端末3等の他の情報処理装置等と接続され、他の情報処理装置等との間で各種データの送受信を行うことができる。なお、通信回線4には、高速通信及び低遅延を可能にするため、例えば、ローカル5Gシステムが用いられる。ただし、パブリック5Gシステムを用いることや、他の通信システムを用いても良い。
【0026】
これら制御部20、記憶部21、通信部22、操作入力部23、及びモニタ24は、システムバス25を介して相互に電気的に接続されている。従って、制御部20は、記憶部21へのアクセス、モニタ24に対する画像の表示、ユーザによる操作入力部23に対する操作状態の把握、及び通信部22を介した各種通信網や他の情報処理装置へのアクセス等を行うことができる。
【0027】
2-2.ユーザ端末3のハードウェア構成
ユーザ端末3は、実際にぶどうの房づくりを行うユーザである作業者Wが使用する情報処理端末である。ユーザ端末3は、好ましくは、光学透過型ヘッドマウントディスプレイ(OSTHMD)あるいはAR(拡張現実)グラス/MR(複合現実)グラスとされる。ただし、ユーザ端末3は、その他のスマートグラス、スマートフォンやタブレット端末等であっても良い。本実施形態のユーザ端末3は、図4Bのブロック図に示すように、制御部30と、記憶部31と、通信部32と、撮影部33と、表示部34とを備える。また、ユーザ端末3は、音を出力するスピーカや、電源ボタンその他の操作ボタン等により構成される操作部(図示せず)等を備えていてもよい。以下、情報処理装置2との相違点を中心に説明する。
【0028】
撮影部33は、静止画、動画等を撮影できるカメラを備える。表示部34は、眼鏡のレンズに相当する部位と投影等の機能を有する部位との組み合わせによるディスプレイを備えうる。また、ユーザ端末3は、網膜に直接映像を照射する部位を備えていてもよい。ただし、ユーザ端末3がスマートフォンやタブレット端末等である場合には、表示部34は、画像等を表示し操作を受け付け可能なタッチパネルディスプレイ等であってもよい。
【0029】
これら制御部30、記憶部31、通信部32、撮影部33及び表示部34は、システムバス25を介して相互に電気的に接続されている。従って、制御部30は、記憶部31へのアクセス、撮影部33に対する制御、表示部34による画像の表示、作業者Wによる操作状態の把握及び通信部32を介した各種通信網や他の情報処理装置へのアクセス等を行うことができる。
【0030】
3.房づくり支援システム1の機能構成
3-1.情報処理装置2の機能構成
情報処理装置2の機能構成として、情報処理装置2の制御部20は、図5Aに示すように、画像取得部40と、画像処理部41と、出力画像生成部42とを備える。画像取得部40は、ユーザ端末3から送信された画像P1(図1,2参照)を取得する。画像処理部41は、画像取得部40が取得した画像P1を処理し、画像P1上における複数の花穂5(花穂群5E)のうち残すべき花穂5の範囲W1と切断すべき花穂5の範囲W2の境界である境界位置Xp(図3参照)を推定する。また、出力画像生成部42は、画像処理部41が推定した境界位置Xpを示す画像である出力画像P6を生成する(図1,3参照)。
【0031】
画像処理部41は、具体的には、花穂領域検出部41aと、主軸特定部41bと、円形パーツ検出部41cと、境界位置推定部41dとを備える。また、円形パーツ検出部41cには、はさみ検出部41c1と留め具検出部41c2とが含まれる。画像処理部41の各機能の詳細については、後述する。
【0032】
3-2.ユーザ端末3の機能構成
ユーザ端末3の機能構成として、ユーザ端末3の制御部30は、図5Bに示すように、画像撮影部50と、出力画像表示部51とを備える。画像撮影部50は、撮影部33により画像P1を撮影する。ここで、画像P1に映る範囲には、略同一平面上にぶどうの花穂群5E及びはさみ6が含まれ(図2参照)、ユーザ端末3が光学透過型ヘッドマウントディスプレイ等である場合には、ユーザである房づくりの作業者Wの視野に近い範囲となりうる。
【0033】
出力画像表示部51は、情報処理装置2から送信された境界位置Xpを示す出力画像P6(結果)を表示部34に表示する。表示部34に出力画像P6が表示されることで、作業者Wは、現実の花穂全体のうち残すべき花穂H1の範囲と切断すべき花穂H2の範囲の境界位置Xr(図11参照)を把握することができる。特に、ユーザ端末3が光学透過型ヘッドマウントディスプレイ等であれば、作業者Wの視界に含まれる実際のぶどうの花穂に、境界位置Xpを重畳表示することができる(図3参照)。
【0034】
3-3.機能構成の実現方法
上述したように、本実施形態の房づくり支援システム1は、機能構成として、画像撮影部50と、画像取得部40と、画像処理部41と、出力画像生成部42と、出力画像表示部51とを備える。
【0035】
上述した機能構成は、情報処理装置2又はユーザ端末3に適宜インストールされるソフトウェア(いわゆるアプリを含む)によって実現してもよく、ハードウェアによって実現してもよい。ソフトウェアによって実現する場合、制御部20又は制御部30がソフトウェアを構成するプログラムを実行することによって各種機能を実現することができる。
【0036】
プログラムを実行することで実現される場合、当該プログラムは、情報処理装置2又はユーザ端末3が内蔵する記憶部21又は記憶部31に格納してもよく、コンピュータが読み取り可能な非一時的な記録媒体に格納してもよい。また、外部の記憶装置に格納されたプログラムを読み出し、いわゆるクラウドコンピューティングにより実現してもよい。もしくは、ハードウェアによって実現する場合、ASIC、SOC、FPGA、又はDRPなどの種々の回路によって実現することができる。
【0037】
また、情報処理装置2の機能として説明した一部の機能構成は、ソフトウェア又はハードウェアによってユーザ端末3等で処理されるようにしてもよい。反対に、ユーザ端末3の機能として説明した一部の機能構成は、ソフトウェア又はハードウェアによって情報処理装置2等で処理されるようにしてもよい。
【0038】
3-4.花穂領域検出部41aの機能
花穂領域検出部41aは、図6に示すように、画像取得部40が取得した画像P1からぶどうの花穂5が存在する領域である花穂領域A1を検出する。花穂領域検出部41aによる花穂領域A1の検出は、第1学習モデルに基づいて行われる。すなわち、花穂領域検出部41aは、機械学習、深層学習(ディープラーニング)等に基づく画像認識処理を行い、物体の検出や分類等を行う。ここで、第1学習モデルは、花穂領域A1及び後述するはさみ6を検出することができる学習モデルであれば特に制限されないが、例えば、多数の教師データ(既知の入力データと正解データの組)を用いてモデルを訓練し、将来の出力を予測可能にする学習モデルである。
【0039】
第1学習モデルとしては、検出する物体のバウンディングボックスに加え、ピクセルマスクを得ることが可能なモデルを用いることが好ましい。このようなモデルとしては、例えば、再帰的特徴ピラミッド(Recursive Feature Pyramid)と切り替え可能なアトラスコンボリューション(Atrous Convolution)を用いたインスタンス・セグメンテーション・ネットワーク・モデルである「DetectoRS」を用いることができる。「DetectoRS」は、マルチステージモデルアーキテクチャを採用し、出力を次の学習セットとして使用することで検出精度の向上を図ったモデルである。
【0040】
花穂領域検出部41aが適用する第1学習モデルは、図1及び図2の画像P1に示すような、作業者Wが花穂の上方を保持した状態の画像を用いて学習される。これにより、第1学習モデルは、作業者Wが保持する位置よりも下方の花穂を検出できるよう学習される。
【0041】
以上のような第1学習モデルにより、花穂領域検出部41aは、画像P1から花穂領域A1を検出し、図6に示す、花穂領域A1以外の領域がマスクされたマスク画像P2を得ることができる。画像P2は、具体的には例えば、花穂領域A1以外の領域が黒く塗りつぶされ、花穂領域A1が白抜きされている。
【0042】
3-5.主軸特定部41bの機能
主軸特定部41bは、図7に示すように、まず、花穂領域検出部41aが検出した花穂領域A1の凸包領域A2を求め、次いで、凸包領域A2の主軸を求める。具体的には、主軸特定部41bは、花穂領域A1が複数の連結成分を有している場合、当該連結成分の凸包を算出し、1つの結合領域としての凸包領域A2を得る。次に、主軸特定部41bは、得られた凸包領域A2の主軸を算出し、花穂主軸Mとする。なお、凸包の算出及び主軸の算出には、従来既知の任意のアルゴリズムを用いることができるため、その詳細な説明は省略する。
【0043】
以上のように、主軸特定部41bは、画像P2から凸包領域A2を得ることができ(画像P3参照)、凸包領域A2の主軸として花穂主軸Mを得ることができる(画像P4参照)。なお、上記で説明した画像P2~画像P4(図6図7)は、各機能の説明のために示した画像にすぎず、撮影された画像は適宜拡大されており、また、ユーザ(作業者W)に対して実際に表示させる必要はない。
【0044】
3-6.円形パーツ検出部41cの機能
円形パーツ検出部41cは、図8A又は図8Bに示すように、画像P1に含まれるはさみ6の支点部分に設けられる円形の留め具60(かしめ)を検出する。本実施形態において、円形パーツ検出部41cは、図5Aに示すように、はさみ検出部41c1と留め具検出部41c2とから構成される。
【0045】
はさみ検出部41c1は、画像取得部40が取得した画像P1からはさみ6を検出する。はさみ検出部41c1によるはさみ6の検出は、上述した花穂領域検出部41aと同様、第1学習モデルに基づいて行われる。はさみ検出部41c1が適用する第1学習モデルは、図1及び図2の画像P1に示すような、はさみ6が含まれる画像を用いて学習される。以上のような第1学習モデルにより、はさみ検出部41c1は、画像P1からはさみ領域A3を検出し、図8A及び図8Bに示すような、はさみ領域A3以外の部分をマスクしたマスク画像P5を得ることができる。画像P5は、具体的には例えば、はさみ領域A3以外の部分が黒く塗りつぶされ、はさみ領域A3が白抜きされている。なお、図8Aは、元の画像P1のはさみ6が正面を向いている場合のはさみ領域A3を示し、図8Bは、画像P1のはさみ6が回転して斜めを向いている場合のはさみ領域A3を示している。
【0046】
留め具検出部41c2は、はさみ検出部41c1が取得した画像P5のはさみ領域A3から留め具60を検出する。留め具検出部41c2による留め具60の検出は、上述した第1学習モデルとは異なる第2学習モデルに基づいて行われる。
【0047】
第2学習モデルとしては、高速で検出する物体のバウンディングボックス(外接矩形領域)を得ることができるモデルを用いることが好ましい。このようなモデルとしては、例えば、リアルタイムでの実行が可能な高速な物体検出手法である「YoloV5」を用いることができる。「YoloV5」は、出力として検出する物体のマスク画像を提供することはできないものの、物体検出モデルとしては最も高速であることが知られている。
【0048】
以上のような第2学習モデルにより、留め具検出部41c2は、画像P5のはさみ領域A3から留め具60のバウンディングボックスBを得ることができる。
【0049】
3-7.境界位置推定部41dの機能
境界位置推定部41dは、既知であるはさみ6の留め具60の直径の実寸法と留め具60の画像P1上の大きさとを用いてキャリブレーションを行うことにより、花穂主軸M上において、画像P1上における境界位置Xp(花穂群5Eのうちの残すべき花穂5の範囲W1と切断すべき花穂5の範囲W2の境界)を推定する。ここで、現実の目標となる所望の(正しい)境界位置Xrは、図11に示すように、ぶどうの一つの房Gの先端からあらかじめ定めた目標長さLr(例えば、4cm)だけ離れた位置として定められる。
【0050】
境界位置推定部41dは、具体的には、まず、留め具60の画像P1上の大きさを、円形パーツ検出部41cにより得られた留め具60のバウンディングボックスBの長辺の長さ(幅又は高さの大きい方)と近似する。これは、はさみ6の留め具60が略正円形状をしていることで、はさみ6の角度に依存せず、バウンディングボックスBの長辺の長さが留め具60の直径となることに基づいている。
【0051】
そして、境界位置推定部41dは、下記式(1)~(4)により、画像P1上における境界位置Xpの座標を求める。
【0052】
【数1】
【数2】
【数3】
【数4】
【0053】
ここで、数式(1)におけるDetectedLencmは、推定される花穂全体の長さ(単位:cm)であり、ScrewDimcmは、留め具60の直径の実寸法(単位:cm)である。また、DetectedLenpxは、画像P1上の花穂群5Eの長さであり、図9に示すように、画像P4上における花穂主軸Mに沿った花穂領域A1の長さ(単位:画素(px))、すなわち、凸包領域A2と花穂主軸Mの2つの交点N1,N2間の距離により近似される。また、ScrewWidthpxとScrewHeightpxはそれぞれ、画像P1(P5)上の留め具60の幅と長さ(単位:px)である。
【0054】
一方、数式(2)におけるTargetLenpxは、交点N1を基準とした、画像P1(P4)上の目標長さLp(単位:px)であり、TargetLencmは、あらかじめ定めた残すべき花穂H1全体の目標長さLr(単位:cm)(図11参照)である。さらに、数式(3)及び数式(4)におけるTargetBotXpxとTargetBotYpxは、花穂群5Eの先端位置(穂先)の画像P1(P4)上(XY平面上)の座標であり、凸包領域A2と花穂主軸Mの下側の交点N1の座標により近似される。加えて、TargetTopXpxとTargetTopYpxは、推定される画像P1(P4)上の境界位置Xpの座標であり、θは花穂主軸MとY軸の間の角度である。
【0055】
そして、式(1)により、画像P1(P4)上の花穂群5Eの長さ(花穂領域A1の長さ)を、留め具60の直径の実寸法と留め具60の長辺の長さとによりキャリブレーションすることで、実際の花穂全体の長さが推定される。また、式(2)により、予め定めた残すべき花穂H1全体の目標長さLr(図11参照)を、式(1)により推定された実際の花穂全体の長さと画像P1(P4)上の花穂領域A1の長さとによりキャリブレーションすることで、画像P1(P4)上における残すべき花穂5全体の目標長さLpが推定される。また、式(3)及び式(4)により、画像P1(P4)上における残すべき花穂5全体の目標長さLpと、凸包領域A2と花穂主軸Mの下側の交点N1の座標及び花穂主軸MのY軸に対する傾きとから、画像P1上における境界位置Xpの座標を求めることができる。
【0056】
なお、実際の花穂全体の長さを推定することは必須ではなく、予め定めた残すべき花穂H1の目標長さLr(図11参照)を留め具60の直径の実寸法と留め具60の長辺の長さとによりキャリブレーションをすることで、画像P1上における花穂5の目標長さLpを推定し、画像P1上における境界位置Xpの座標を求めることも可能である。
【0057】
以上のようにして境界位置推定部41dが推定した画像P1(P4)上の境界位置Xpは、出力画像生成部42により出力画像P6として出力される。出力画像P6は、境界位置Xpが把握できればどのような表示のしかたでも良いが、例えば、図1及び図3に示すように、花穂主軸Mを直線で示すとともに、花穂群5Eの先端位置と境界位置Xpを互いに平行な直線で表すことが考えられる。なお、出力画像P6には、境界位置Xpを示す表示に加えて、残すべき花穂全体の目標長さLr(図11参照)及び推定される花穂全体の長さ(図9におけるDetectedLenpx参照)の表示を含めることも好適である。
【0058】
4.房づくり支援システム1による処理の流れ
次に、房づくり支援システム1による処理の流れについて説明する。まず、ユーザ端末3の制御部30が画像撮影工程を実行する。画像撮影工程では、ユーザ端末3の画像撮影部50により画像P1が撮影され、撮影された画像P1は、通信回線4を介してユーザ端末3から情報処理装置2へ送信される。
【0059】
次に、情報処理装置2の制御部20は、図10に示す情報処理の各工程、すなわち、画像取得工程S1、花穂領域検出工程S2、主軸特定工程S3、円形パーツ検出工程S4、境界位置推定工程S5、及び出力画像生成工程S6を順次実行する。なお、花穂領域検出工程S2及び主軸特定工程S3と円形パーツ検出工程S4とは、順序を入れ替えて実行してもよく、並列的に実行しても良い。
【0060】
具体的には、画像取得工程S1では、画像取得部40が画像P1を取得する。花穂領域検出工程S2では、画像処理部41の花穂領域検出部41aが画像P1から花穂領域A1を検出する。また、主軸特定工程S3では、主軸特定部41bが花穂領域A1から花穂主軸Mを推定する。さらに、円形パーツ検出工程S4では、まずはさみ検出部41c1が画像P1からはさみ領域A3を検出し、次いで留め具検出部41c2がはさみ領域A3から留め具60のバウンディングボックスBを取得する。そして、境界位置推定工程S5では、境界位置推定部41dが花穂主軸M上において、画像P1(P4)上における残すべき花穂5と切断すべき花穂5の境界位置Xpを推定する。最後に、出力画像生成工程S6では、出力画像生成部42が出力画像P6を生成する。
【0061】
次に、情報処理装置2の制御部20は、出力画像送信工程を実行する。出力画像送信工程では、出力画像P6が通信回線4を介して情報処理装置2からユーザ端末3へ送信される。その後、ユーザ端末3の制御部30は、出力画像表示工程を実行する。出力画像表示工程では、ユーザ端末3の出力画像表示部51に出力画像P6が表示される。
【0062】
5.推定される境界位置Xpの検証
実際の食用ぶどう農園における77房の花穂(花穂群)について、上述した房づくり支援システム1により推定した花穂領域A1の長さ(式(1)参照)と定規で測定した花穂群の長さを比較したところ、平均誤差は0.19cmであった。これは、実際に使用するのに十分な精度である。そして、推定した花穂領域の長さの推定精度が高ければ、境界位置Xpの推定精度も高いと考えられる。従って、上述した房づくり支援システム1により境界位置Xpをユーザに提示することで、ぶどうの房づくりを好適に支援することができる。
【0063】
6.作用効果
以上のように、本実施形態の房づくり支援システム1は、情報処理装置2の境界位置推定部41dが、ユーザ端末3の撮影部33によって撮影された画像P1上における複数の花穂5(花穂群5E)のうちの残すべき花穂5の範囲W1と切断すべき花穂5の範囲W2の境界である境界位置Xp(図3参照)を推定し、ユーザ端末3の表示部34に表示するよう構成されている。これにより、熟練者でなくとも、切断すべき花穂を知ることができ、ぶどうの房づくりを支援することが可能となっている。
【0064】
また、本実施形態の境界位置推定部41dは、花穂の切断に必要な道具である実際のはさみの留め具の直径と画像P1上における留め具60の大きさとを用いてキャリブレーションを行うようになっている。これにより、特別の参照物を必要とすることなく境界位置Xpを推定することが可能となっている。さらに、円形の形状であるはさみの留め具を用いることにより、撮影距離やはさみの角度に依存せずに留め具の直径を得ることができ、キャリブレーションに好適に利用することが可能となっている。
【0065】
また、円形パーツ検出部41cは、第1学習モデルを用いるはさみ検出部41c1と第2学習モデルを用いる留め具検出部41c2を備え、2段階で留め具60を検出するアプローチをとっている。これにより、不要な情報を捨て、関心のある領域だけに焦点を当てることができ、円形パーツである留め具60の検出を高速で行い、且つ、その検出精度を向上させることが可能となっている。また、このような画像処理部41の処理の高速化に加え、情報処理装置2とユーザ端末3の間の通信回線4としてローカル5Gシステムを使用すれば、ユーザ端末3の撮影部33による画像P1の撮影から表示部34による境界位置Xp(結果)の表示までを高速で行うことができる。そして、ユーザ端末3として光学透過型ヘッドマウントディスプレイを用いることにより、作業者Wの視界に含まれる実際のぶどうの花穂に境界位置Xpを重畳表示することで、作業者Wの房づくりをリアルタイムで支援することが可能となっている。
【0066】
7.変形例
なお、本発明は、以下の態様でも実施可能である。
【0067】
上記実施形態では、房づくり支援システム1が通信回線4を介して接続された情報処理装置2及びユーザ端末3を備えた構成であった。しかしながら、ユーザ端末3に情報処理装置2を組み込んで、通信回線4を介さずに処理する構成とすることも可能である。
【0068】
上記実施形態では、キャリブレーションに用いる円形パーツとしてはさみの留め具を用いていたが、画像に含ませる円形パーツとして、円形シール、指輪、円形パーツ付のブレスレット等を用いることも可能である。
【0069】
上記実施形態では、情報処理装置2がぶどうの房づくり支援のための房づくり支援システム1として用いられたが、本発明は、ぶどうの房づくり以外の用途にも用いることが可能である。例えば、本発明は、はさみを用いる必要のある果樹の選定や摘果作業における対象物の寸法を計測する場面において広く使用することができる。このような場面においても、はさみの留め具を画像上の寸法と実寸法とのキャリブレーションに用いることで、特別の参照物を必要とせず、また、撮影距離や角度に依存せず、実寸法を推定することが可能である。さらに、農作業以外の業態においても、はさみを用いる場面において本発明を用いることで、実寸法を推定することが可能である。
【符号の説明】
【0070】
1 :支援システム
2 :情報処理装置
3 :ユーザ端末
4 :通信回線
5 :花穂
5 :花穂群
6 :はさみ
20 :制御部
21 :記憶部
22 :通信部
23 :操作入力部
24 :モニタ
25 :システムバス
30 :制御部
31 :記憶部
32 :通信部
33 :撮影部
34 :表示部
40 :画像取得部
41 :画像処理部
41a :花穂領域検出部
41b :主軸特定部
41c :円形パーツ検出部
41c1 :検出部
41c2 :留め具検出部
41d :境界位置推定部
42 :出力画像生成部
50 :画像撮影部
51 :出力画像表示部
60 :留め具
A1 :花穂領域
A2 :凸包領域
A3 :はさみ領域
B :バウンディングボックス
G :房
H1 :残すべき花穂
H2 :切断すべき花穂
Lr :現実の目標長さ
Lp :画像上の目標長さ
M :花穂主軸
N1,N2 :交点
P1~P5 :画像
P6 :出力画像
S1 :画像取得工程
S2 :花穂領域検出工程
S3 :主軸特定工程
S4 :円形パーツ検出工程
S5 :境界位置推定工程
S6 :出力画像生成工程
W :作業者
W1 :範囲
W2 :範囲
Xp :現実の境界位置
Xr :画像上の境界位置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11