(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-11-29
(45)【発行日】2022-12-07
(54)【発明の名称】検品支援方法、及び検品支援システム
(51)【国際特許分類】
G06T 7/00 20170101AFI20221130BHJP
G06V 10/25 20220101ALI20221130BHJP
G06V 10/778 20220101ALI20221130BHJP
G06N 20/00 20190101ALI20221130BHJP
【FI】
G06T7/00 350B
G06T7/00 610C
G06V10/25
G06V10/778
G06N20/00 130
(21)【出願番号】P 2019001551
(22)【出願日】2019-01-09
【審査請求日】2021-06-28
(73)【特許権者】
【識別番号】597132849
【氏名又は名称】株式会社日立ソリューションズ・クリエイト
(74)【代理人】
【識別番号】110000176
【氏名又は名称】一色国際特許業務法人
(72)【発明者】
【氏名】中矢 雄志
(72)【発明者】
【氏名】北林 久義
(72)【発明者】
【氏名】樋口 正己
【審査官】久保 光宏
(56)【参考文献】
【文献】特開2009-150866(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T7/00
G06V10/00-10/98
G06N3/00-99/00
CSDB(日本国特許庁)
IEEEXplore(IEEE)
(57)【特許請求の範囲】
【請求項1】
撮影装置を備え、所定の眼鏡に取り付けられた、少なくとも1以上の情報処理装置を含んで構成される、プロセッサ及びメモリを備える検品支援システムが、
前記撮影装置により撮影された
、前記眼鏡を装着している作業員の視点に対応する所定の部材の画像を取得する学習対象画像取得処理と、
前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定する
と共に前記取得した画像のうち所定範囲を設定する学習対象部材設定処理と、
前記取得した画像、
前記設定した画像の範囲、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、
部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する学習処理と、
前記撮影装置により撮影された新たな部材の画像を取得する検品画像取得処理と、
前記取得した新たな部材の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定処理と、
を実行し、
前記学習対象部材設定処理において、前記取得した所定の部材の画像に基づき当該部材の形状又は色彩を認識し、所定の形状又は色彩を有する部分であると認識された当該部材の各部分を示す枠を、所定時間間隔で移動しながらそれぞれ表示し、指定入力がなされたタイミングで枠が表示されている部分に対応する、前記画像の範囲を設定する、
眼鏡による検品支援方法。
【請求項2】
撮影装置を備え、所定の眼鏡に取り付けられた、少なくとも1以上の情報処理装置を含んで構成される、プロセッサ及びメモリを備える検品支援システムが、
前記撮影装置により撮影された
、前記眼鏡を装着している作業員の視点に対応する所定の部材の画像を取得する学習対象画像取得処理と、
前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定する
と共に前記取得した画像のうち所定範囲を設定する学習対象部材設定処理と、
前記取得した画像、
前記設定した画像の範囲、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、
部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する学習処理と、
前記撮影装置により撮影された新たな部材の画像を取得する検品画像取得処理と、
前記取得した新たな部材の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定処理と、
を実行し、
前記学習対象部材設定処理において、前記眼鏡を装着している作業員の視点を基準とする、時間的に大きさが変化する領域を算出し、指定されたタイミングにおける前記領域が示す、
前記画像の範囲を設定する、
眼鏡による検品支援方法。
【請求項3】
前記検品支援システムは、
前記学習対象画像取得処理において、前記眼鏡を装着している作業員の視点を追跡し、当該視点が所定時間動いていないと判定した場合には、当該視点に対応する前記所定の部材の画像を取得する、
請求項1
又は2に記載の眼鏡による検品支援方法。
【請求項4】
前記検品支援システムは、前記判定した新たな部材の状態の情報を出力する出力処理を実行する、請求項1
又は2に記載の眼鏡による検品支援方法。
【請求項5】
撮影装置を備え、所定の眼鏡に取り付けられた、少なくとも1以上の情報処理装置を含んで構成される、プロセッサ及びメモリを備える検品支援システムであって、
前記撮影装置により撮影された
、前記眼鏡を装着している作業員の視点に対応する所定の部材の画像を取得する学習対象画像取得部と、
前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定する
と共に前記取得した画像のうち所定範囲を設定する学習対象部材設定部と、
前記取得した画像、
前記設定した画像の範囲、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、
部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する学習部と、
前記撮影装置により撮影された新たな部材の画像を取得する検品画像取得部と、
前記取得した新たな部材の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定部と、
を備え
、
前記学習対象部材設定部は、前記取得した所定の部材の画像に基づき当該部材の形状又は色彩を認識し、所定の形状又は色彩を有する部分であると認識された当該部材の各部分を示す枠を、所定時間間隔で移動しながらそれぞれ表示し、指定入力がなされたタイミングで枠が表示されている部分に対応する、前記画像の範囲を設定する、
検品支援システム。
【請求項6】
撮影装置を備え、所定の眼鏡に取り付けられた、少なくとも1以上の情報処理装置を含んで構成される、プロセッサ及びメモリを備える検品支援システムであって、
前記撮影装置により撮影された、前記眼鏡を装着している作業員の視点に対応する所定の部材の画像を取得する学習対象画像取得部と、
前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定すると共に前記取得した画像のうち所定範囲を設定する学習対象部材設定部と、
前記取得した画像、前記設定した画像の範囲、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する学習部と、
前記撮影装置により撮影された新たな部材の画像を取得する検品画像取得部と、
前記取得した新たな部材の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定部と、
を備え、
前記学習対象部材設定部は、前記眼鏡を装着している作業員の視点を基準とする、時間的に大きさが変化する領域を算出し、指定されたタイミングにおける前記領域が示す、前記画像の範囲を設定する、
検品支援システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、検品支援方法、及び検品支援システムに関する。
【背景技術】
【0002】
人工知能(AI: Artificial Intelligence)を利用した画像認識技術が種々の分野で活
用されているが、近年ではこれにディープラーニング(深層学習)技術を取り入れることで、従来の人工知能では困難であった、画像の特徴抽出(画像における特徴部分を抽出すること)の精度が向上している。このような技術としては、例えば特許文献1に、画像認識装置が、原画像に所定のデータ処理を施して入力データを生成し、生成された入力データに含まれるオブジェクトの種類を認識する階層型ニューラルネットワークを有するものであって、原画像がサンプル画像である場合は、ネットワークの認識結果に基づいてネットワークのパラメータを学習する処理を行い、原画像が認識の対象画像である場合は、ネットワークの認識結果を出力する処理を行うことが開示されている。
【0003】
このような手法を応用することにより、例えば、対象物の画像と、利用者により設定される対象物の属性情報(ラベル)とを用い、画像と対象物との関係を学習した学習モデルを作成することで、これを種々の業務に活用できるようになってきた。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
製造業の分野でも、製造部品に対する画像認識とこれによる機械学習を行うことで、部品の検査業務を効率よくかつ正確に行うことが試みられている。しかしながら、製造業では様々な種類及び構造を有する多量の部品を取り扱うため、業務に役立てることができるように機械学習の精度を充分に向上させる必要があるが、そのためには、画像に対するラベルの設定を正確に行うことが重要である。そして、そのためには、ラベルを設定する者に業務に関する幅広い知識や経験が必要である。
【0006】
しかしながら、製造業等の分野では、そのような高度の専門スキルを有している人材(作業員)が不足しているのが現状である。したがって、限られた人材の中で効率良く検品しラベルの設定を行わなければならない。
【0007】
以上の課題を解決するための本発明の一つは、撮影装置を備え、所定の眼鏡に取り付けられた、少なくとも1以上の情報処理装置を含んで構成される、プロセッサ及びメモリを備える検品支援システムが、前記撮影装置により撮影された、前記眼鏡を装着している作業員の視点に対応する所定の部材の画像を取得する学習対象画像取得処理と、前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定すると共に前記取得した画像のうち所定範囲を設定する学習対象部材設定処理と、前記取得した画像、前記設定した画像の範囲、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する学習処理と、前記撮影装置により撮影された新たな部材の画像を取得する検品画像取得処理と、前記取得した新たな部材の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定処理と、を実行し、前記学習対象部材設定処理において、前記取得した所定の部材の画像に基づき当該部材の形状又は色彩を認識し、所定の形状又は色彩を有する部分であると認識された当該部材の各部分を示す枠を、所定時間間隔で移動しながらそれぞれ表示し、指定入力がなされたタイミングで枠が表示されている部分に対応する、前記画像の範囲を設定する。
また、以上の課題を解決するための本発明の一つは、撮影装置を備え、所定の眼鏡に取り付けられた、少なくとも1以上の情報処理装置を含んで構成される、プロセッサ及びメモリを備える検品支援システムが、前記撮影装置により撮影された、前記眼鏡を装着している作業員の視点に対応する所定の部材の画像を取得する学習対象画像取得処理と、前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定すると共に前記取得した画像のうち所定範囲を設定する学習対象部材設定処理と、前記取得した画像、前記設定した画像の範囲、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する学習処理と、前記撮影装置により撮影された新たな部材の画像を取得する検品画像取得処理と、前記取得した新たな部材の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定処理と、を実行し、前記学習対象部材設定処理において、前記眼鏡を装着している作業員の視点を基準とする、時間的に大きさが変化する領域を算出し、指定されたタイミングにおける前記領域が示す、前記画像の範囲を設定する。
また、以上の課題を解決するための本発明の他の一つは、撮影装置を備え、所定の眼鏡に取り付けられた、少なくとも1以上の情報処理装置を含んで構成される、プロセッサ及びメモリを備える検品支援システムであって、前記撮影装置により撮影された、前記眼鏡を装着している作業員の視点に対応する所定の部材の画像を取得する学習対象画像取得部と、前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定すると共に前記取得した画像のうち所定範囲を設定する学習対象部材設定部と、前記取得した画像、前記設定した画像の範囲、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する学習部と、前記撮影装置により撮影された新たな部材の画像を取得する検品画像取得部と、前記取得した新たな部材の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定部と、を備え、前記学習対象部材設定部は、前記取得した所定の部材の画像に基づき当該部材の形状又は色彩を認識し、所定の形状又は色彩を有する部分であると認識された当該部材の各部分を示す枠を、所定時間間隔で移動しながらそれぞれ表示し、指定入力がなされたタイミングで枠が表示されている部分に対応する、前記画像の範囲を設定する。
また、以上の課題を解決するための本発明の他の一つは、撮影装置を備え、所定の眼鏡に取り付けられた、少なくとも1以上の情報処理装置を含んで構成される、プロセッサ及びメモリを備える検品支援システムであって、前記撮影装置により撮影された、前記眼鏡を装着している作業員の視点に対応する所定の部材の画像を取得する学習対象画像取得部と、前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定すると共に前記取得した画像のうち所定範囲を設定する学習対象部材設定部と、前記取得した画像、前記設定した画像の範囲、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する学習部と、前記撮影装置により撮影された新たな部材の画像を取得する検品画像取得部と、前記取得した新たな部材の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定部と、を備え、前記学習対象部材設定部は、前記眼鏡を装着している作業員の視点を基準とする、時間的に大きさが変化する領域を算出し、指定されたタイミングにおける前記領域が示す、前記画像の範囲を設定する。
【課題を解決するための手段】
【0008】
以上の課題を解決するための本発明の一つは、撮影装置を備え、所定の眼鏡に取り付けられた、少なくとも1以上の情報処理装置を含んで構成される、プロセッサ及びメモリを備える検品支援システムが、前記撮影装置により撮影された所定の部材の画像を取得する学習対象画像取得処理と、前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定する学習対象部材設定処理と、前記取得した画像、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する学習処理と、前
記撮影装置により撮影された新たな部材の画像を取得する検品画像取得処理と、前記取得した新たな部材の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定処理と、を実行する。
【発明の効果】
【0009】
本発明によれば、検品業務を正確かつ効率よく行うことができる。
【図面の簡単な説明】
【0010】
【
図1】
図1は、本実施形態に係る検品支援システムの構成の一例を説明する図である。
【
図2】
図2は、眼鏡端末100が備える構成の一例を説明する図である。
【
図3】
図3は、エッジ端末200が備える構成の一例を説明する図である。
【
図4】
図4は、AIサーバ300が備える構成の一例を説明する図である。
【
図5】
図5は、ファイルサーバ400が備える構成の一例を説明する図である。
【
図6】
図6は、眼鏡端末100が表示するメニュー画面1000の一例を示す図である。
【
図7】
図7は、AIサーバ300が各眼鏡端末100から部材の画像及びラベルを収集する情報収集処理の一例を示すフロー図である。
【
図8】
図8は、ラベル設定処理の詳細を説明するフロー図である。
【
図9】
図9は、眼鏡端末100が表示する撮影枠の一例を説明する図である。
【
図10】
図10は、眼鏡端末100が表示するズーム図形の一例を説明する図である。
【
図11】
図11は、物体ラベル及び状態ラベルの一例を示す図である。
【
図12】
図12は、学習対象部材学習処理を説明するフロー図である。
【
図13】
図13は、良品不良品画像データ500の一例を示す図である。
【
図14】
図14は、範囲指定画像データ600の一例を示す図である。
【
図15】
図15は、AIサーバ300が各眼鏡端末100から、検品対象の部材の画像を取得する検品対象画像取得処理の一例を示すフロー図である。
【
図16】
図16は、検品対象部材判定処理の一例を説明するフロー図である。
【
図17】
図17は、眼鏡端末100が表示する、判定対象部材の判定結果を示す判定結果画面1200の一例を示す図である。
【発明を実施するための形態】
【0011】
以下、本実施形態に係る検品支援システム及び検品支援方法について図面を参照しつつ説明する。
図1は、本実施形態に係る検品支援システムの構成の一例を説明する図である。検品支援システム1は、検品を行う1又は複数の作業員3がそれぞれ装着する眼鏡端末100と、1又は複数のエッジ端末200と、AIサーバ300と、ファイルサーバ400とを含んで構成されている。
【0012】
検品支援システム1は、熟練した作業員3が検品を行った検品対象の部材の画像及びその状態の情報(当該作業員3による検品結果の情報。例えば、不良品か否かといった情報や、どの部位に不良部分があるかといった情報。以下、ラベルという。)を収集し、これらに基づき深層学習(ディープラーニング)を利用した機械学習を行うことで、部材の画像とその状態との対応関係を学習する。そして、業務経験の浅い作業員3は、この学習結果を利用することで、正確かつ効率良く検品を行うことができる。
【0013】
眼鏡端末100は、撮影装置を備え、所定の眼鏡に取り付けられた情報処理装置(いわゆるスマートグラス(smart glasses))である。眼鏡端末100は、これを装着した作
業員3の視線を追跡し、また、作業員3の視線にある対象部材の画像(動画)を撮影する
ことができる。
【0014】
エッジ端末200は、眼鏡端末100と、AIサーバ300及びファイルサーバ400との間の中継装置であり、眼鏡端末100と情報の送受信を行うと共に、AIサーバ300及びファイルサーバ400とも情報の送受信を行う情報処理装置である。
【0015】
AIサーバ300は、エッジ端末200を介して眼鏡端末100から送信されてきた情報に基づき、検品対象の部材についての所定の機械学習を行う人工知能(AI:Artificial Intelligence)機能を有する情報処理装置である。また、AIサーバ300は、エッ
ジ端末200を介して眼鏡端末100から送信されてきた検品対象の部材の画像に基づき、その部材が良品であるか又は不良品であるかと行った状態判定を行う。なお、これらの機能の詳細は後述する。
【0016】
ファイルサーバ400は、AIサーバ300が受信し又は生成した情報等(例えば、部材の画像の情報)を記憶する情報処理装置である。
【0017】
なお、眼鏡端末100とエッジ端末200との間は、例えば、BLUETOOTH(登録商標)
のような短距離通信の他、LAN(Local Area Network)、WAN(Wide Area Network
)、インターネット、専用線等の無線通信ネットワーク5によって通信可能に接続される。
【0018】
また、エッジ端末200、AIサーバ300、及びファイルサーバ400の間は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、
専用線等の通信ネットワーク7によって通信可能に接続される。
次に、各情報処理装置の構成について説明する。
【0019】
まず、眼鏡端末100の構成について説明する。
<眼鏡端末100>
図2は、眼鏡端末100が備える構成の一例を説明する図である。眼鏡端末100は、ハードウェアとして、CPU(Central Processing Unit)などの処理部101と、RA
M(Random Access Memory)、ROM(Read Only Memory)等の記憶装置102と、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の補助記憶装置103と、入力装置104と、出力装置105と、エッジ端末200と通信を行う通信装置106と、撮影装置107と、センサ108とを備える。
【0020】
入力装置104は、例えば、音声の入力を受け付けるマイクロフォンである。また、入力装置104は、眼鏡端末100と通信可能に接続された所定の端末(コントローラ)におけるタッチパネルやボタンであってもよい。
【0021】
出力装置105は、眼鏡のレンズ部に画像等を表示するスクリーンであってもよいし、眼鏡端末100と通信可能に接続された所定の端末(コントローラ)におけるスクリーンであってもよい。
【0022】
撮影装置107は、眼鏡の前方の所定の領域(例えば、眼鏡端末100を装着した作業員3の前方の視界範囲)の動画又は静止画を撮影する。撮影装置107は、入力装置104に所定の入力が行われることにより、動画又は静止画の撮影を開始する。
【0023】
センサ108は、眼鏡端末100を装着した作業員3の視線を追跡する装置であり、例えば赤外線センサである。
【0024】
また、眼鏡端末100は、画像撮影部121、学習対象画像取得部123、学習対象部材設定部125、検品対象画像取得部127、情報送信部129、及び情報表示部131の各機能を備える。
【0025】
画像撮影部121は、撮影装置107による画像又は動画の撮影を行う。
【0026】
学習対象画像取得部123は、前記撮影装置により撮影された所定の部材(熟練した作業員3が検品する、学習対象の部材)の画像を取得する学習対象画像取得処理を実行する。
【0027】
例えば、学習対象画像取得部123は、前記眼鏡を装着している作業員3の視点に対応する学習対象の部材の画像を取得する。
【0028】
具体的には、例えば、学習対象画像取得部123は、前記眼鏡を装着している作業員3の視点を追跡し、当該視点が所定時間動いていないと判定した場合には、当該視点に対応する前記所定の部材(学習対象の部材)の画像を取得する。
【0029】
学習対象部材設定部125は、前記所定の部材を特定する情報である物体ラベル及び前記部材の状態を示す情報である状態ラベルを設定する学習対象部材設定処理を実行する。
【0030】
また、学習対象部材設定部125は、学習対象画像取得部123が前記取得した画像のうち所定範囲(以下、判定対象部分という)を設定する。
【0031】
例えば、学習対象部材設定部125は、学習対象画像取得部123が前記取得した所定の部材の画像に基づき当該部材の形状又は色彩を認識し、認識した形状又は色彩を有する当該部材の各部分のうち指定された部分に対応する、前記画像の範囲を設定する。なお、以下では、この設定処理を移動モードという。
【0032】
また、例えば、前記学習対象部材設定部125は、前記眼鏡を装着している作業員の視点を基準とする、時間的に大きさが変化する領域を算出し、指定されたタイミングにおける前記領域が示す、前記学習対象の部材の画像の範囲を設定する。なお、以下では、この設定処理をズームモードという。
【0033】
検品対象画像取得部127は、前記撮影装置により撮影された新たな部材(例えば、業務経験の浅い作業員3が検品しようとする部材。以下、検品対象部材という。)の画像を取得する。
【0034】
情報送信部129は、各画像及びラベルの情報等をエッジ端末200に送信する。
【0035】
情報表示部131は、検品対象部材の検品結果の情報等を表示する。
【0036】
次に、エッジ端末200の構成について説明する。
<エッジ端末200>
図3は、エッジ端末200が備える構成の一例を説明する図である。エッジ端末200は、ハードウェアとして、CPU(Central Processing Unit)などの処理部201と、
RAM(Random Access Memory)、ROM(Read Only Memory)等の記憶装置202と、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の補助記憶装置203と、キーボード、タッチパネル等の入力装置204と、モニタ等の出力装置205と、他の情報処理装置と通信を行う通信装置206とを備える。
【0037】
また、エッジ端末200は、情報転送部221、情報入力部222、及び情報表示部223の各機能を備える。情報転送部221は、眼鏡端末100から受信したデータをAIサーバ300又はファイルサーバ400に転送し、また、AIサーバ300又はファイルサーバ400から受信したデータを眼鏡端末100に転送する。情報入力部222は、ユーザから、所定の情報の入力を受け付ける。情報表示部223は、所定の情報を表示する。
【0038】
続いて、AIサーバ300の構成について説明する。
<AIサーバ300>
図4は、AIサーバ300が備える構成の一例を説明する図である。AIサーバ300は、ハードウェアとして、CPU(Central Processing Unit)などの処理部301と、
RAM(Random Access Memory)、ROM(Read Only Memory)等の記憶装置302と、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の補助記憶装置303と、キーボード、タッチパネル等の入力装置304と、モニタ等の出力装置305と、他の情報処理装置と通信を行う通信装置306とを備える。
【0039】
また、AIサーバ300は、情報受信部321、学習部323、検品画像判定部325、及び出力部327の各機能を備える。
【0040】
情報受信部321は、各眼鏡端末100が送信してきた、当該眼鏡端末100が取得した画像データ及びラベル等を受信する。なお、受信した情報は、ファイルサーバ400に記憶される。この詳細は後述する。
【0041】
学習部323は、眼鏡端末100の学習対象画像取得部123が前記取得した画像、学習対象部材設定部125が前記設定した物体ラベル、及び学習対象部材設定部125が前記設定した状態ラベルに基づき、部材の種類、部材の状態、及び部材の画像の間の関係を学習した学習済みモデル700を生成する。
【0042】
また、前記学習部323は、眼鏡端末100の学習対象画像取得部123が前記取得した画像、学習対象部材設定部125が前記設定した画像の範囲、学習対象部材設定部125が前記設定した物体ラベル、及び学習対象部材設定部125が前記設定した状態ラベルに基づき、部材の種類、部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデル700を生成する。
【0043】
検品画像判定部325は、眼鏡端末100が前記取得した新たな部材(検品対象部材)の画像を前記学習済みモデルに入力することにより、前記新たな部材の状態を判定する検品画像判定処理を実行する。
【0044】
出力部327は、検品画像判定部325が前記判定した新たな部材の状態の情報を出力する出力処理を実行する。
【0045】
続いて、ファイルサーバ400の構成について説明する。
<ファイルサーバ400>
図5は、ファイルサーバ400が備える構成の一例を説明する図である。ファイルサーバ400は、ハードウェアとして、CPU(Central Processing Unit)などの処理部4
01と、RAM(Random Access Memory)、ROM(Read Only Memory)等の記憶装置402と、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の補助記憶装置403と、他の情報処理装置と通信を行う通信装置406とを備える。
【0046】
また、ファイルサーバ400は、情報送受信部421の機能を備える。情報送受信部4
21は、他の情報処理装置(例えば、AIサーバ300)が送信してきたデータを受信し、また、自身が記憶しているデータを他の情報処理装置に送信する。
【0047】
ファイルサーバ400は、良品不良品画像データ500、範囲指定画像データ600、及び学習済みモデル700を記憶している。これらのデータの詳細は後述する。
【0048】
以上に説明した各情報処理装置の機能は、各情報処理装置のハードウェアによって、もしくは、各情報処理装置の処理部が、記憶装置又は補助記憶装置に記憶されている各プログラムを読み出して実行することにより実現される。
【0049】
また、これらのプログラムは、例えば、二次記憶デバイスや不揮発性半導体メモリ、ハードディスクドライブ、SSDなどの記憶デバイス、又は、ICカード、SDカード、DVDなどの、情報処理装置で読み取り可能な非一時的データ記憶媒体に格納される。
【0050】
続いて、検品支援システム1が行う処理について説明する。
<<メニュー画面>>
図6は、眼鏡端末100が表示するメニュー画面1000の一例を示す図である。メニュー画面1000は、学習対象部材の画像を取得して所定の機械学習を行う収集モードの実行をユーザから受け付ける収集モード開始選択欄1002と、機械学習により生成した学習済みモデル700に基づき、検品対象部材の状態を判定する判定モードの実行をユーザから受け付ける判定モード開始選択欄1004とを備える。
【0051】
また、メニュー画面1000は、収集モードにおける動作についてのオプション選択欄1006を備える。オプション選択欄1006は、収集モードにおいて移動モードを採用する場合にユーザから選択される移動モード選択欄1008と、収集モードにおいてズームモードを採用する場合にユーザから選択されるズームモード選択欄1010とを備える。
【0052】
なお、メニュー画面1000は、眼鏡端末100が起動した際、収集モード又は判定モードの実行が終了した後等に表示される。
【0053】
また、メニュー画面1000は、眼鏡端末100以外の情報処理装置、例えばエッジ端末200に表示するようにし、メニュー画面1000により設定された情報を眼鏡端末100に送信するようにしてもよい。
【0054】
<<収集モードにおける処理>>
続いて、収集モードにおいて検品支援システム1が行う処理について説明する。
【0055】
<情報収集処理>
図7は、AIサーバ300が各眼鏡端末100から部材の画像及びラベルを収集する情報収集処理の一例を示すフロー図である。この処理は、例えば、メニュー画面1000で収集モード開始選択欄1002が選択された場合に実行される。
【0056】
まず、眼鏡端末100は、眼鏡端末100を装着している作業員3(例えば、検品に熟達している作業員3)から所定の入力を受け付けることにより、当該作業員3が現在視認しながら検品を行っている、その視線の先にある部材の動画の撮影を開始する(s11)。
【0057】
そして、眼鏡端末100は、撮影中の動画から部材の画像を取得すると共にラベルを設定する処理(ラベル設定処理)を実行する(s12)。そして、眼鏡端末100は、s1
2で取得した画像及び設定したラベルを、エッジ端末200に送信する(s13)。
【0058】
なお、ラベル設定処理は、動画の撮影が終了するまで繰り返し実行される(s14、s15)。ラベル設定処理の詳細は後述する。
【0059】
エッジ端末200は、眼鏡端末100から画像及びラベルを受信すると、受信した画像及びラベルを、AIサーバ300に転送する(s21)。
【0060】
AIサーバ300は、エッジ端末200から画像及びラベルを受信すると、受信した画像及びラベルと、(ファイルサーバ400に記憶されている)現在の学習済みモデル700とに基づき、部材の種類、部材の状態、及び部材の画像の間の関係を機械学習により学習して学習済みモデル700を生成する学習対象部材学習処理を実行する(s31)。なお、受信した各データ及び生成した学習済みモデル700は、ファイルサーバ400に記憶される。
【0061】
<ラベル設定処理>
ここで、前記のラベル設定処理(s12)の詳細を説明する。
図8は、ラベル設定処理の詳細を説明するフロー図である。まず、眼鏡端末100は、学習対象の部材の画像の取得の要求を待機する(s111)。
【0062】
具体的には、例えば、眼鏡端末100は、当該眼鏡端末100を装着している作業員3の視線を監視し、所定時間その視線が動いていない状態が継続しているか否かを判定する。また、眼鏡端末100は、所定の音声が入力装置104に入力されたか否かを判定してもよい。なお、ラベル設定処理の間、眼鏡端末100は、作業員3の視線に応じた、学習対象の部材の画像を表示していてもよい。
【0063】
画像の取得の要求がなされた場合は(s111:YES)、眼鏡端末100は、現在設定されているモード(移動モード又はズームモード)を判定する(s112)。
【0064】
移動モードが設定されている場合は(s112:移動モード)、後述するs132の処理が実行され、ズームモードが設定されている場合は(s112:ズームモード)、後述するs152の処理が実行される。
【0065】
移動モードもズームモードも設定されていない場合は(s112:それ以外)、眼鏡端末100は、現在撮影中の部材の画像(すなわち、作業員3の視線の先にある部材の画像)を、学習対象画像として取得する(s114)。
【0066】
また、眼鏡端末100は、s114で取得した画像に対する状態ラベルを設定する(s116)。具体的には、例えば、眼鏡端末100は、s114で取得した画像に係る学習対象部材の状態に関する情報(例えば、その部材が良品であるか不良品であるかといった状態。なお、その部材に傷がある、汚れがある、といった不良状態を具体的に特定する情報でもよい。)の入力を、入力装置104を介してユーザから受け付ける。
【0067】
また、眼鏡端末100は、物体ラベルとして、学習対象部材を特定する情報(例えば、「ねじ」)を設定する(s118)。具体的には、例えば、眼鏡端末100は、学習対象部材の名称(例えば、「ねじ」)の入力を、入力装置104を介してユーザから受け付ける。以上でラベル設定処理は終了する(s120)。
【0068】
次に、s132において、眼鏡端末100は、現在撮影中の部材で特徴的な形状又は色彩を有している1又は2以上の部分を認識し、認識した各部分を示す情報をそれぞれ表示
する。
【0069】
具体的には、例えば、眼鏡端末100は、現在撮影中の部材の画像を取得し、取得した画像を対象に、形状又は色彩に関する所定の認識処理を実行し、所定の形状又は色彩を有している全ての部分(例えば、傷のある部分、急激な凹凸のある部分、汚れ又は着色のある部分、その他特徴的な形状又は色彩を有する部分)を特定する。そして、眼鏡端末100は、眼鏡のレンズに現在投影されている又は出力装置105等に現在表示されている学習対象の部材の画像の上に、上記各部分を囲う撮影枠を順次、所定の時間間隔で順番に表示する。
【0070】
ここで、本処理の具体例を説明する。
図9は、眼鏡端末100が表示する撮影枠の一例を説明する図である。同図に示すように、表示されている部材1050に関して、認識処理により特定された、当該部材に汚れや傷のある部分1052が複数存在する場合、撮影枠1054が、部材1050の各部分1052を所定時間間隔で移動していく。
【0071】
なお、認識処理は、眼鏡端末100を含む検品支援システム1内のいずれかの情報処理装置が、ファイルサーバ400に記憶されている学習済みモデル700に基づき行うものであってもよいし、所定の画像処理プログラムが行ってもよい。
【0072】
図8のs134に戻り、眼鏡端末100は、範囲指定の入力を監視する。具体的には、例えば、眼鏡端末100は、所定の音声その他の情報が入力装置104に作業員3により入力されたか否かを監視する。
【0073】
なお、作業員3が範囲指定の入力をするタイミングは、例えば、表示された部分(撮影枠)が、部材における不良箇所(例えば、傷、着色等がある箇所)に対応しているタイミングである。
【0074】
範囲指定の入力がなされていない場合は(s134:NO)、s132の処理が繰り返され、範囲指定の入力がなされた場合は(s134:YES)、眼鏡端末100は、現在撮影中の部材の画像を学習対象部材の画像として取得する(s136)。また、眼鏡端末100は、範囲指定された部分を特定する情報(例えば、取得した画像の座標に関する情報)を設定する(s138)。
【0075】
また、眼鏡端末100は、s136で取得した画像に対する状態ラベルを設定する(s140)。具体的には、例えば、眼鏡端末100は、s136で取得した画像に係る学習対象部材における、s138で設定した範囲の状態に関する情報(その範囲に傷がある、汚れがある、といった部材の不良状態を具体的に特定する情報。なお、その部材が単に良品であるか不良品であるかといった状態を示す情報でもよい。)の入力を、入力装置104を介してユーザから受け付ける。
【0076】
また、眼鏡端末100は、s118と同様に物体ラベルを設定する。以上でラベル設定処理は終了する(s120)。
【0077】
次に、ズームモードである場合は(s112:ズームモード)、眼鏡端末100は、現在撮影中の部材(現在の作業員3の視線の先の部材)の位置を基準とし、時間と共にその大きさが変化する領域を示す情報を表示する(s152)。
【0078】
具体的には、例えば、眼鏡端末100は、眼鏡端末100のレンズに現在投影されている又は出力装置105等に現在表示されている部材の画像の上に、作業員3の視線の先の
位置に対応する画像上の点を中心(基準点)とする、所定速度でその半径が大小を繰り返す同心円(ズーム図形)を表示する。なお、この同心円は、学習対象部材内の一部の領域を示すための図形であるので、部材の範囲を超える大きさにならないようにしてもよい。
【0079】
ここで、本処理の具体例を説明する。
図10は、眼鏡端末100が表示するズーム図形の一例を説明する図である。同図に示すように、表示されている部材1060に関して、当該部材に汚れや傷のある部分1062が存在する場合、円状のズーム図形1064が、汚れや傷のある部分1062の中心に設定された基準点1066を中心に、表示される。このズーム図形1064の半径は大小(長短)を繰り返している。
【0080】
次に、
図8のs154に戻り、眼鏡端末100は、範囲指定の入力を監視する。具体的には、例えば、眼鏡端末100は、所定の音声が作業員3により入力装置104に入力されたか否かを監視する。
【0081】
なお、作業員3が範囲指定の入力をするタイミングは、例えば、表示された同心円が、部材における不良箇所(例えば、傷、着色等がある箇所)を含む大きさになったタイミングである。
【0082】
範囲指定の入力がなされていない場合は(s154:NO)、s154の処理が繰り返され、範囲指定の入力がなされた場合は(s154:YES)、眼鏡端末100は、現在撮影中の部材の画像を学習対象部材の画像として取得する(s156)。また、眼鏡端末100は、範囲指定された領域(例えば、同心円の領域)を特定する情報(例えば、取得した画像の座標に関する情報)を設定する(s158)。
【0083】
また、眼鏡端末100は、s138と同様に、s156で取得した画像に対する状態ラベルを設定する(s158)。
【0084】
また、眼鏡端末100は、s140と同様に、s156で取得した学習対象部材の画像に対する物体ラベルを設定する(s160)。以上でラベル設定処理は終了する(s120)。
【0085】
ここで、ラベル設定処理において設定される物体ラベル及び状態ラベルの具体例について説明する。
図11は、物体ラベル及び状態ラベルの一例を示す図である。まず、移動モードでもズームモードでもない場合において、学習対象の部材「ねじ」が良品である場合、物体ラベルには「ねじ」が設定され、状態ラベルには「良品(正常)」が設定される(符号1101)。他方、学習対象の部材「ねじ」が不良品である場合、物体ラベルには「ねじ」が設定され、状態ラベルには「不良品(不良)」が設定される(符号1102)。
【0086】
また、移動モード又はズームモードである場合において、学習対象の部材が「ねじ」であり、設定された範囲1104に「汚れ」があるため当該部材が不良品である場合、物体ラベルには「ねじ」が設定され、状態ラベルには「汚れ」が設定される(符号1103)。また、設定された範囲1104に対応する座標の情報がラベルとして設定される。
【0087】
続いて、情報収集処理においてAIサーバ300が行う学習対象部材学習処理の詳細を説明する。
<学習対象部材学習処理>
図12は、学習対象部材学習処理を説明するフロー図である。まず、AIサーバ300は、エッジ端末200を介して眼鏡端末100から学習対象画像及びラベル(物体ラベル
、状態ラベル、及び画像の範囲の情報)を受信すると(s211)、その学習対象画像、状態ラベル、及び物体ラベルを対応付けて、ファイルサーバ400の良品不良品画像データ500に記憶する(s212)。
【0088】
また、AIサーバ300は、受信した学習対象画像、状態ラベル、物体ラベル、及び画像の範囲の情報を対応付けて、ファイルサーバ400の範囲指定画像データ600に記憶する(s213)。
【0089】
ここで、良品不良品画像データ500及び範囲指定画像データ600の具体例を説明する。
【0090】
(良品不良品画像データ500)
図13は、良品不良品画像データ500の一例を示す図である。良品不良品画像データ500は、物体ラベル508ごとに生成されるデータベースである。良品不良品画像データ500は、各学習対象画像に割り当てられた識別子(通し番号等)が格納される通番項目501、通番項目501に係る学習対象画像の状態ラベルの情報(良品又は不良品)が格納されるラベル項目502、通番項目501に係る学習対象画像の画像ファイル名が格納される画像ファイル名項目503、画像ファイル名項目503に係る画像ファイルの撮影日時又は時刻が格納される画像撮影日時項目504の各項目を有する。
【0091】
このように、良品不良品画像データ500は、学習対象部材の状態のうち良品又は不良品の情報を記録したデータベースである。
【0092】
(範囲指定画像データ600)
図14は、範囲指定画像データ600の一例を示す図である。範囲指定画像データ600は、物体ラベル608ごとに生成されるデータベースである。範囲指定画像データ600は、各学習対象画像に割り当てられた識別子(例えば、通し番号)が格納される通番項目601、通番項目601に係る学習対象画像の状態ラベルの情報が格納されるラベル項目602、通番項目601に係る学習対象画像の画像ファイル名が格納される画像ファイル名項目603、画像ファイル名項目603に係る画像ファイルの撮影日時又は時刻が格納される画像撮影日時項目604、学習対象画像のうち物体ラベルが示す領域を特定する情報(例えば、画像の座標)が格納される座標情報項目605の各項目を有する。
【0093】
このように、範囲指定画像データ600は、移動モード又はズームモードにおいて範囲指定をした場合の、学習対象部材の状態の情報を記録したデータベースである。
【0094】
続いて、
図10のs214に示すように、AIサーバ300は、前回に、後述するs216の再学習を行った後、所定数の画像データを記憶したか否かを判定する。
【0095】
所定数の画像データを記憶していない場合は(s214:NO)、学習対象部材学習処理は終了し(s215)、所定数の画像データを記憶している場合は(s214:YES)、AIサーバ300は、現在の良品不良品画像データ500及び範囲指定画像データ600に基づき、部材の画像、部材の種類(物体ラベルに対応)、部材の状態(状態ラベルに対応)、及び部材の画像の範囲の間の関係を機械学習する(例えば、深層学習を行う)ことにより、学習済みモデル700を生成する(s216)。以上で、学習対象部材学習処理は終了する(s217)。
【0096】
<<判定モードにおける処理>>
次に、検品支援システム1が、判定モードにおいて行う処理について説明する。
【0097】
<検品対象画像収集学習処理>
図15は、AIサーバ300が各眼鏡端末100から、検品対象の部材の画像を取得する検品対象画像取得処理の一例を示すフロー図である。なお、この処理は、例えば、メニュー画面1000で判定モード開始選択欄1004が選択された場合に開始される。
【0098】
まず、眼鏡端末100は、眼鏡端末100を装着している作業員3(例えば、検品に慣れていない作業員3)から所定の入力を受け付けることにより、当該作業員3が現在視認している、その視線の先にある部材の画像を撮影する(s311)。
【0099】
そして、眼鏡端末100は、撮影した画像を、エッジ端末200に送信する(s312)。エッジ端末200は、眼鏡端末100から画像を受信すると、受信した画像を、AIサーバ300に転送する(s321)。なお、眼鏡端末100は、撮影した画像に加えて、収集モードと同様に、物体ラベルを送信してもよい。
【0100】
AIサーバ300は、エッジ端末200から画像を受信すると、受信した画像(及び物体ラベル)を学習済みモデル700に入力することにより、検品対象の部材の状態の判定を実行する検品対象部材判定処理を実行する(s331)。なお、受信したデータは、ファイルサーバ400に記憶される。
【0101】
ここで、検品対象部材判定処理の詳細を説明する。
<検品対象部材判定処理>
図16は、検品対象部材判定処理の一例を説明するフロー図である。AIサーバ300は、眼鏡端末100から受信した画像(及び物体ラベル)を、学習済みモデル700に入力することにより、検品対象の部材の状態を判定する(s411)。
【0102】
これにより、学習済みモデル700は、入力した画像に係る部材の種類の情報、入力した画像に係る部材の状態の情報(良品か、不良品か、どの範囲にどのような不良(傷、汚れ等)が存在するかといった情報)を出力する。
【0103】
AIサーバ300は、s411で出力した情報が正しいか否かを確認する(s412)。具体的には、例えば、AIサーバ300は、ユーザから、s411で出力した情報が正しいか否かの入力を受け付ける。また、AIサーバ300は、眼鏡端末100に当該情報を表示させて、当該情報が正しいか否かの入力を受け付けるようにしてもよい。これにより、学習済みモデル700の生成に用いた学習対象部材の数が少なく、学習済みモデル700の精度が低いために明らかに適当でない学習結果が出力された場合でも、その適当でない結果を今後の学習の対象から除外することができる。
【0104】
出力した情報が正しくない場合は(s412:NO)、検品対象部材判定処理は終了する(s413)。他方、出力した情報が正しい場合は(s412:YES)、AIサーバ300は、検品対象の部材の画像を送信してきた眼鏡端末100に当該情報を送信し(s414)、その眼鏡端末100が、当該情報を表示する(s511)。
【0105】
AIサーバ300は、s411で受信した画像、当該画像に係る部材を特定する情報(物体ラベルに対応する情報)、及び当該画像に係る部材の良不良の情報(状態ラベルに対応する情報)を対応づけて、ファイルサーバ400の良品不良品画像データ500に記憶する(s415)。
【0106】
また、AIサーバ300は、s411で受信した画像、当該画像に係る部材を特定する情報(物体ラベルに対応する情報)、当該画像において不良がある範囲の情報(例えば、座標の情報)、及び当該範囲の状態の情報(例えば、傷、汚れ等の情報)を対応づけて、
ファイルサーバ400の範囲指定画像データ600に記憶する(s416)。
【0107】
そして、AIサーバ300は、前回に、後述するs419の再学習を行った後、所定数の画像データを記憶したか否かを判定する(s417)。
【0108】
所定数の画像データを記憶していない場合は(s417:NO)、検品対象部材判定処理は終了し(s418)、所定数の画像データを記憶した場合は(s417:YES)、AIサーバ300は、収集モードのs216と同様に、良品不良品画像データ500及び範囲指定画像データ600の内容を機械学習する(例えば、深層学習を行う)ことにより、更新した学習済みモデル700を生成する(s419)。以上で、検品対象部材判定処理は終了する(s420)。
【0109】
なお、前記のように、AIサーバ300は、s411による判定結果を眼鏡端末100に表示させてもよい。
<判定結果画面>
【0110】
図17は、眼鏡端末100が表示する、判定対象部材の判定結果を表示した判定結果画面1200の一例を示す図である。判定結果画面1200には、判定対象の部材1202に、傷や汚れ等の部分1204が存在することが画像により表示される。また、判定結果画面1200には、判定対象部材の名称1206、及び判定結果の詳細1208(例えば、傷や汚れ等の部分1204の内容である「汚れ」)が表示される。なお、部材における範囲の情報1210(例えば、座標の情報や部材の部位を示す情報)を表示してもよい。
【0111】
以上のように、本実施形態の検品支援システム1は、撮影装置107を備え、所定の眼鏡に取り付けられた情報処理装置(眼鏡端末100)を含んで構成されており、撮影装置107により所定の部材が撮影された画像(学習対象部材の画像)を取得し、また物体ラベル及び状態ラベルを設定することで、部材の種類、部材の状態、及び部材の画像の間の関係を学習した学習済みモデル700を生成し、さらに、撮影装置107により撮影された新たな部材の画像(検品対象部材の画像)を学習済みモデル700に入力することにより、検品対象部材の状態を判定することができる。
【0112】
このように、本実施形態の検品支援システム1によれば、眼鏡端末100を装着した熟練した作業員3により眼鏡端末100が取得した情報に基づき学習済みモデル700を生成し、他方で、部材を検品する他の経験の浅い作業員3は、眼鏡端末100により撮影した部材の画像を学習済みモデル700に入力するだけで、部材に関する情報、知識等を得ていなくても、部材の状態を判定することができる。
【0113】
すなわち、本実施形態の検品支援システム1によれば、検品業務を正確かつ効率よく行うことができる。例えば、製品の製造ラインを止めることなく最少の作業負荷で学習済みモデル700の元になる画像及びラベルを迅速かつ大量に収集することが可能になる。これにより、従来、「人」が「目」で製品を検査していた業務において、本実施形態の検品支援システム1を適用することで、作業者不足の問題に対応できると共に、検査レベルの均一化及び製造原価の低減を実現することができる。
【0114】
以上、本発明の実施形態について説明したが、本発明の各実施例は例示したものに限るものではなく、発明の主旨を逸脱しない範囲で種々の変更が可能である。
【0115】
例えば、本実施形態は、エッジ端末200、AIサーバ300、及びファイルサーバ400を別々の情報処理装置として構成したが、これらの一部または全部を同一の情報処理装置としてもよい。
【0116】
また、学習や検品を行う部材は、作業員3が視認できるものであれば特に限られるものではなく、気体や液体とすることも可能である。
【0117】
また、本実施形態では、ラベルとして、物体(部材)の種類の情報、良品又は不良品、傷、着色といった状態の情報、及び撮影した画像の範囲の情報を設定したが、部材又は画像に関する他の属性の情報(例えば、作業者の情報、業務内容、撮影場所)をラベルに設定してもよい。
【0118】
以上の本明細書の記載により、少なくとも次のことが明らかにされる。すなわち、記検品支援システムは、前記学習対象画像取得処理において、前記眼鏡を装着している作業員の視点に対応する部材の画像を取得し、前記学習対象部材設定処理において、前記取得した画像のうち所定範囲を設定し、前記学習処理において、前記取得した画像、前記設定した画像の範囲、前記設定した物体ラベル、及び前記設定した状態ラベルに基づき、部材の種類、部材の範囲、部材の状態、及び部材の画像の間の関係を学習した学習済みモデルを生成する、としてもよい。
【0119】
このように、眼鏡を装着している作業員3の視点に対応する部材の画像のうち所定範囲を設定し、この所定範囲を入力した学習済みモデルを生成することで、作業員3の視線に基づく部材の一部のみを対象とし、より厳密な学習済みモデル700を生成することができる。
【0120】
また、前記検品支援システムは、前記学習対象部材設定処理において、前記取得した所定の部材の画像に基づき当該部材の形状又は色彩を認識し、認識した形状又は色彩を有する当該部材の各部分のうち指定された部分に対応する、前記画像の範囲を設定する、としてもよい。
【0121】
このように、学習対象の部材の画像に基づき当該部材の各部分の形状又は色彩を認識し、このうち指定された部分に対応する画像の範囲を設定する(移動モード)ことで、部材の不良部分が各所に点在している場合であっても、これらを的確に把握することができる。
【0122】
また、前記検品支援システムは、前記学習対象部材設定処理において、前記眼鏡を装着している作業員の視点を基準とする、時間的に大きさが変化する領域を算出し、指定されたタイミングにおける前記領域が示す、前記学習対象の部材の画像の範囲を設定する、としてもよい。
【0123】
このように、作業員3の視点を基準とする、時間的に大きさが変化する領域を算出し、所定のタイミングで前記領域に対応する画像の範囲を設定する(ズームモード)ことで、部材の不良が、形状や色彩に関して明確な外延を有しない場合(例えば、広範囲にわたる浅い傷)であっても、作業員3の視線に基づき、その不良部分を的確に把握することができる。
【0124】
また、前記検品支援システムは、前記学習対象画像取得処理において、前記眼鏡を装着している作業員の視点を追跡し、当該視点が所定時間動いていないと判定した場合には、当該視点に対応する前記所定の部材の画像を取得する、としてもよい。
【0125】
このように、眼鏡を装着している作業員3の視点を追跡し、その視点が所定時間動いていないと判定した場合に画像を取得することで、学習対象の部材を正確に特定することができる。
【0126】
また、前記検品支援システムは、前記判定した新たな部材の状態の情報を出力する出力処理を実行する、としてもよい。
【0127】
このように、検品対象の部材の状態の情報を出力することで、作業員3は、その部材がどのように判定されたかを容易に知ることができる。
【符号の説明】
【0128】
1 検品支援システム、107 撮影装置、123 学習対象画像取得部、125 学習対象部材設定部、127 検品対象画像取得部、300 AIサーバ、323 学習部、325 検品画像判定部、700 学習済みモデル