(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022029166
(43)【公開日】2022-02-17
(54)【発明の名称】箱選定装置、情報処理方法、及び情報処理プログラム
(51)【国際特許分類】
B65B 57/00 20060101AFI20220209BHJP
G06Q 10/08 20120101ALI20220209BHJP
G06Q 50/04 20120101ALI20220209BHJP
【FI】
B65B57/00 Z
G06Q10/08
G06Q50/04
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2020132368
(22)【出願日】2020-08-04
(71)【出願人】
【識別番号】000003218
【氏名又は名称】株式会社豊田自動織機
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100124062
【弁理士】
【氏名又は名称】三上 敬史
(74)【代理人】
【識別番号】100148013
【弁理士】
【氏名又は名称】中山 浩光
(74)【代理人】
【識別番号】100162640
【弁理士】
【氏名又は名称】柳 康樹
(72)【発明者】
【氏名】小出 幸和
(72)【発明者】
【氏名】岡部 大輔
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049AA16
5L049CC03
(57)【要約】
【課題】計算コストを削減し、箱の選定精度を向上できるようにニューラルネットワーク演算部の学習を行うことができる箱選定装置、情報処理方法、及び情報処理プログラムを提供する。
【解決手段】入力情報変換部31は、梱包実績に基づいて各部品の特徴量を算出する特徴量算出部34と、特徴量に基づいて各部品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理部35と、を有する。そのため、クラスタリング処理部35は、膨大な種類の部品を、特徴量に基づいたクラスタに分類することができる。クラスタの数は、部品の種類よりは少ない。従って、入力情報削減処理部33が、クラスタリング処理部35で分類された複数のクラスタによって、入力情報の情報量を削減することができる。
【選択図】
図1
【特許請求の範囲】
【請求項1】
予め学習された学習情報に基づき、物品を梱包する箱を選定する箱選定装置であって、
前記箱選定装置の制御部は、
前記学習情報及び箱情報を記憶する記憶部と、
前記物品に関する入力情報を作成する入力情報受付部と、
前記入力情報を変換する入力情報変換部と、
変換された前記入力情報を入力層に入力し、梱包実績に基づいて予め学習された前記学習情報に基づくニューラルネットワーク演算によって、前記箱に関する評価値の算出を行うニューラルネットワーク演算部と、
前記ニューラルネットワーク演算部の出力層から出力された前記評価値に基づいて前記箱を選定する選定部と、を有し、
変換前の前記入力情報は、予め定められた物品一覧における各物品の個数に関する情報を有し、
前記入力情報変換部は、
前記梱包実績に基づいて各物品の特徴量を算出する特徴量算出部と、
前記特徴量に基づいて各物品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理部と、
前記クラスタリング処理部で分類された複数の前記クラスタによって、前記入力情報の情報量を削減する入力情報削減処理部と、を有する、箱選定装置。
【請求項2】
前記特徴量算出部は、各物品がそれぞれの前記箱に梱包される割合に基づいて、前記特徴量を算出する、請求項1に記載の箱選定装置。
【請求項3】
前記クラスタリング処理部は、k-means法にて各物品を複数のクラスタに分類する、請求項1又は2に記載の箱選定装置。
【請求項4】
予め学習された学習情報及び箱情報を記憶する記憶ステップと、
物品に関する入力情報を作成する入力情報受付ステップと、
前記入力情報を変換する入力情報変換ステップと、
変換された前記入力情報を入力層に入力し、梱包実績に基づいて予め学習された前記学習情報に基づくニューラルネットワーク演算によって、前記箱に関する評価値の算出を行うニューラルネットワーク演算ステップと、
前記ニューラルネットワーク演算ステップにおいて出力層から出力された前記評価値に基づいて前記箱を選定する選定ステップと、を有する箱選定方法で用いられる情報処理方法であって、
変換前の前記入力情報は、予め定められた物品一覧における各物品の個数に関する情報を有し、
前記梱包実績に基づいて各物品の特徴量を算出する特徴量算出ステップと、
前記特徴量に基づいて各物品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理ステップと、
前記クラスタリング処理ステップで分類された複数の前記クラスタによって、前記入力情報の情報量を削減する入力情報削減処理ステップと、を有する、情報処理方法。
【請求項5】
予め学習された学習情報及び箱情報を記憶する記憶ステップと、
物品に関する入力情報を作成する入力情報受付ステップと、
前記入力情報を変換する入力情報変換ステップと、
変換された前記入力情報を入力層に入力し、梱包実績に基づいて予め学習された前記学習情報に基づくニューラルネットワーク演算によって、前記箱に関する評価値の算出を行うニューラルネットワーク演算ステップと、
前記ニューラルネットワーク演算ステップにおいて出力層から出力された前記評価値に基づいて前記箱を選定する選定ステップと、をコンピュータシステムに実行させる箱選定プログラムで用いられる情報処理プログラムであって、
変換前の前記入力情報は、予め定められた物品一覧における各物品の個数に関する情報を有し、
前記梱包実績に基づいて各物品の特徴量を算出する特徴量算出ステップと、
前記特徴量に基づいて各物品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理ステップと、
前記クラスタリング処理ステップで分類された複数の前記クラスタによって、前記入力情報の情報量を削減する入力情報削減処理ステップと、をコンピュータシステムに実行させる、情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、箱選定装置、情報処理方法、及び情報処理プログラムに関する。
【背景技術】
【0002】
従来、例えば特許文献1に記載されるような箱選定装置が知られている。箱選定装置は、対象となる積荷の容積などのデータに基づいて、積荷とコンテナの組み合わせを選んでいる。この箱選定装置は、コンテナの総容量が積荷の総容積以上となるようなコンテナの組み合わせを全て選んでいる。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述のような箱選定装置は、条件を満たすようなコンテナ(箱)の組み合わせを全て選んでいる。しかし、このような方法を採用した場合、積荷や箱の種類数が増えると組合せの数が急増し、組合せの全てに対して、全物品が積載可能かどうかを毎回計算する必要が生じる。この場合、当該方法を採用することが、計算コストなどの観点から困難になるという問題がある。このような課題に対して、梱包実績に基づいて予め部品がリスト化された情報を用いてニューラルネットワーク演算部を学習させる場合、計算コストを削減し、箱の選定精度を向上できるように学習を行うこと求められる。
【0005】
本発明の目的は、計算コストを削減し、箱の選定精度を向上できるようにニューラルネットワーク演算部の学習を行うことができる箱選定装置、情報処理方法、及び情報処理プログラムを提供することである。
【課題を解決するための手段】
【0006】
本発明の一態様に係る箱選定装置は、予め学習された学習情報に基づき、物品を梱包する箱を選定する箱選定装置であって、箱選定装置の制御部は、学習情報及び箱情報を記憶する記憶部と、物品に関する入力情報を作成する入力情報受付部と、入力情報を変換する入力情報変換部と、変換された入力情報を入力層に入力し、梱包実績に基づいて予め学習された学習情報に基づくニューラルネットワーク演算によって、箱に関する評価値の算出を行うニューラルネットワーク演算部と、ニューラルネットワーク演算部の出力層から出力された評価値に基づいて箱を選定する選定部と、を有し、変換前の入力情報は、予め定められた物品一覧における各物品の個数に関する情報を有し、入力情報変換部は、梱包実績に基づいて各物品の特徴量を算出する特徴量算出部と、特徴量に基づいて各物品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理部と、クラスタリング処理部で分類された複数のクラスタによって、入力情報の情報量を削減する入力情報削減処理部と、を有する。
【0007】
箱選定装置において、ニューラルネットワーク演算部は、物品に関する入力情報を入力層に入力し、学習情報に基づくニューラルネットワーク演算によって、箱に関する評価値の算出を行う。そして、選定部は、ニューラルネットワーク演算部の出力層から出力された評価値に基づいて、梱包の対象となる物品に適した箱を選定することができる。ここで、学習情報は、梱包実績に基づいて予め学習されたものである。すなわち、ニューラルネットワーク演算部は、例えば物品の形状、梱包先の環境情報などの複雑な条件を考慮することを省略し、過去の梱包実績に基づく学習を行うだけで、梱包する物品に適した箱を選定するための評価値を出力することができる。そのため、箱選定装置は、計算コストを低減した状態で、容易に箱を選定することができる。ここで、入力情報変換部は、ニューラルネットワーク演算部に入力される入力情報を変換することができる。変換前の入力情報は、予め定められた物品一覧における各物品の個数に関する情報を有する。例えば、物品一覧の物品の種類が膨大になるなどの場合、入力情報の情報量が多くなることで、計算コストが上昇し、計算コストを低減しようとすると箱の選定精度が低下する可能性がある。これに対し、入力情報変換部は、梱包実績に基づいて各物品の特徴量を算出する特徴量算出部と、特徴量に基づいて各物品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理部と、を有する。そのため、クラスタリング処理部は、膨大な種類の物品を、特徴量に基づいたクラスタに分類することができる。クラスタの数は、物品の種類よりは少ない。従って、入力情報削減処理部が、クラスタリング処理部で分類された複数のクラスタによって、入力情報の情報量を削減することができる。従って、ニューラルネットワーク演算部は、情報量が削減されることで計算コストが抑制されつつも、各物品の特徴量が考慮されて梱包実績を十分に反映した入力情報で学習を行うことができる。以上より、計算コストを削減し、箱の選定精度を向上できるようにニューラルネットワーク演算部の学習を行うことができる。
【0008】
特徴量算出部は、各物品がそれぞれの箱に梱包される割合に基づいて、特徴量を算出してよい。この場合、特徴量算出部は、計算コストを抑制しつつ、実際に部品がどの箱に梱包されたかの事情を十分に反映した特徴量を算出できる。
【0009】
クラスタリング処理部は、k-means法にて各物品を複数のクラスタに分類してよい。この場合、クラスタリング処理部は、計算コストを抑制しつつ、適切にクラスタを分類できる。
【0010】
本発明の一態様に係る情報処理方法は、予め学習された学習情報及び箱情報を記憶する記憶ステップと、物品に関する入力情報を作成する入力情報受付ステップと、入力情報を変換する入力情報変換ステップと、変換された入力情報を入力層に入力し、梱包実績に基づいて予め学習された学習情報に基づくニューラルネットワーク演算によって、箱に関する評価値の算出を行うニューラルネットワーク演算ステップと、ニューラルネットワーク演算ステップにおいて出力層から出力された評価値に基づいて箱を選定する選定ステップと、を有する箱選定方法で用いられる情報処理方法であって、変換前の入力情報は、予め定められた物品一覧における各物品の個数に関する情報を有し、梱包実績に基づいて各物品の特徴量を算出する特徴量算出ステップと、特徴量に基づいて各物品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理ステップと、クラスタリング処理ステップで分類された複数のクラスタによって、入力情報の情報量を削減する入力情報削減処理ステップと、を有する。
【0011】
本発明の一態様に係る情報処理プログラムは、予め学習された学習情報及び箱情報を記憶する記憶ステップと、物品に関する入力情報を作成する入力情報受付ステップと、入力情報を変換する入力情報変換ステップと、変換された入力情報を入力層に入力し、梱包実績に基づいて予め学習された学習情報に基づくニューラルネットワーク演算によって、箱に関する評価値の算出を行うニューラルネットワーク演算ステップと、ニューラルネットワーク演算ステップにおいて出力層から出力された評価値に基づいて箱を選定する選定ステップと、をコンピュータシステムに実行させる箱選定プログラムで用いられる情報処理プログラムであって、変換前の入力情報は、予め定められた物品一覧における各物品の個数に関する情報を有し、梱包実績に基づいて各物品の特徴量を算出する特徴量算出ステップと、特徴量に基づいて各物品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理ステップと、クラスタリング処理ステップで分類された複数のクラスタによって、入力情報の情報量を削減する入力情報削減処理ステップと、をコンピュータシステムに実行させる。
【0012】
これらの情報処理方法、及び情報処理プログラムによれば、上述の箱選定装置と同趣旨の作用・効果を得ることができる。
【発明の効果】
【0013】
本発明によれば、計算コストを削減し、箱の選定精度を向上できるようにニューラルネットワーク演算部の学習を行うことができる箱選定装置、情報処理方法、及び情報処理プログラムが提供される。
【図面の簡単な説明】
【0014】
【
図1】本発明の一実施形態に係る箱選定装置を示す概略構成図である。
【
図2】箱選定装置がニューラルネットワークを用いて輸送箱の選定を行う場合の処理イメージを示す模式図である。
【
図3】箱選定装置のニューラルネットワーク演算部が過去の梱包実績を教師データとして学習を行う場合の処理イメージを示す模式図である。
【
図4】箱選定装置の処理内容の具体例を示す模式図である。
【
図5】特徴量の算出、及びクラスタリング処理について説明するための図である。
【
図6】箱選定装置の制御部による学習時における制御処理の内容を示すフローチャートである。
【
図7】箱選定装置の制御部による制御処理の内容を示すフローチャートである。
【発明を実施するための形態】
【0015】
以下、本発明の実施形態について、図面を参照して詳細に説明する。なお、図面において、同一または同等の要素には同じ符号を付し、重複する説明を省略する。
【0016】
図1は、本発明の一実施形態に係る箱選定装置100を示す概略構成図である。箱選定装置100は、倉庫などの物流現場において、複数の物品を箱に梱包する際に、どの箱に梱包すべきかを選定する装置である。なお、箱を選定した後、当該箱に物品をどのような位置、順序で梱包するかについては、他の方法によって自動的に決定がなされる。なお、本実施形態では、梱包対象となる物品として部品を例示しており、箱として輸送箱を例示している。ただし、物品及び箱の種類は特に限定されるものではない。
【0017】
図1に示すように、箱選定装置100は、情報入力部2と、情報出力部3と、制御部10と、を備える。箱選定装置100は、予め学習された学習情報に基づき、部品を梱包する輸送箱を選定する装置である。なお、箱選定装置100の各構成要素を説明するために、
図2及び
図3を参照する場合がある。
図2は、箱選定装置100がニューラルネットワークを用いて輸送箱の選定を行う場合の処理イメージを示す模式図である。
図3は、箱選定装置100のニューラルネットワーク演算部12が過去の梱包実績を教師データとして学習を行う場合の処理イメージを示す模式図である。
【0018】
情報入力部2は、各種情報を入力するインターフェースである。例えば、情報入力部2は、キーボード、マウス、タッチパネルなどによって構成される。あるいは、情報入力部2は、記憶媒体や通信を介して情報を入力されてもよい。情報出力部3は、各種情報を出力するインターフェースである。例えば、情報出力部3は、モニタ、スピーカーなどによって情報を出力してよい。あるいは、情報出力部3は、記憶媒体や通信を介して情報を出力してもよい。
【0019】
制御部10は、CPU、RAM、ROM等により構成されている。制御部10は、入力情報受付部11と、ニューラルネットワーク演算部12と、選定部13と、記憶部14と、入力情報変換部31と、を有している。制御部10は、プログラムに従って動作する1つ以上のプロセッサ、ASIC等の1つ以上の専用のハードウェア回路、あるいは、それらの組み合わせを含む回路として構成し得る。プロセッサはCPU、並びにRAM及びROM等のメモリを有する。メモリには、情報の処理を行うための種々のプログラムが記憶され、CPUは各種プログラムの読み出し、による演算を行う。
【0020】
入力情報受付部11は、部品に関する入力情報を作成する。入力情報受付部11は、情報入力部2にて入力された情報を取得し、当該情報を用いて入力情報を作成する。入力情報受付部11は、複数の部品にそれぞれ紐付けられた識別情報、及び部品の個数などに関する情報を取得する。入力情報は、部品に関する情報をニューラルネットワーク演算を行い易い態様に調整された情報である。
図2に示すように、入力情報受付部11は、梱包作業の前段階において、梱包する部品の部品リスト、すなわち、どの部品が何個、梱包対象となっているかを示すリストを取得する。また、
図3に示すように、入力情報受付部11は、学習時において、実際に梱包された部品の部品リスト、及びどの輸送箱が梱包に用いられたかの情報を取得する。なお、部品に紐付けられた識別情報の具体的な内容、及び入力情報の具体的な内容については後述する。なお、本実施形態では、入力情報受付部11が作成した入力情報は、入力情報変換部31によって変換された状態で、ニューラルネットワーク演算部12へ入力される。
【0021】
ニューラルネットワーク演算部12は、梱包実績に基づいて予め学習された学習情報に基づくニューラルネットワーク演算によって、輸送箱に関する評価値の算出を行う。ニューラルネットワーク演算部12は、過去の梱包実績に基づく教師データを用いて学習を行うことで学習情報を取得する(
図3参照)。また、ニューラルネットワーク演算部12は、当該学習情報を用いて実際の作業現場において梱包する部品リストに適した輸送箱として、どの輸送箱がよいかを選定するための評価値を演算する(
図2参照)。
【0022】
ニューラルネットワーク演算部12は、学習部16を有する。学習部16は、機械学習のモデルを学習情報として生成する。学習段階(
図3参照)において、学習部16は、最も予測精度が高いと推定される最良のニューラルネットワークをモデルとして生成する。学習部16は、教師データ(過去の梱包実績のサンプル)を記憶部14などから読み出し、学習をさせるニューラルネットワークに個々のサンプルを逐次入力しながら機械学習を実行する。なお、このようなニューラルネットワークは、例えば、ニューロンのモデルを模した演算部や記憶部等によって構成できる。例えば、学習部16は、多層ニューラルネットワークを用いる深層学習を実行することでモデルを生成してもよい。機械学習の種類は深層学習に限定されず、学習部16は他の手法を用いてモデルを生成してもよい。なお、ニューラルネットワーク演算部12の具体的な構成、及び処理内容については後述する。
【0023】
選定部13は、ニューラルネットワーク演算部12の出力層から出力された評価値に基づいて輸送箱を選定する。選定部13は、評価値を取得して、当該評価値を用いて、部品を梱包する上で、最も適した輸送箱を選定する。選定部13は、予め記憶部14に記憶された輸送箱リスト(箱情報)の中から、最も適した輸送箱を選定する。なお、選定部13の具体的な処理内容については、後述する。
【0024】
記憶部14は、箱選定装置100における各種情報を記憶する部分である。記憶部14は、少なくとも学習情報(ニューラルネットワークのモデル)、及び箱情報を記憶している。箱情報は、作業現場において用いられる複数の輸送箱に関する情報であり、箱選定作業の前段階で事前に記憶部14に記憶される。記憶部14は、複数の輸送箱のそれぞれの大きさや形状等の情報を含んだ輸送箱リスト(
図2参照)の形態で、箱情報を記憶する。
【0025】
入力情報変換部31は、入力情報受付部11が作成した入力情報を変換する。入力情報変換部31は、部品クラスタ情報生成部32と、入力情報削減処理部33と、を有する。部品クラスタ情報生成部32は、梱包実績のある各部品を複数のクラスタに分類するための部品クラスタ情報を生成する。部品クラスタ情報生成部32は、特徴量算出部34と、クラスタリング処理部35と、を備える。特徴量算出部34は、梱包実績に基づいて各部品の特徴量を算出する。クラスタリング処理部35は、特徴量に基づいて各部品を複数のクラスタに分類するクラスタリング処理を行う。部品クラスタ情報生成部32は、各部品と各クラスタとの対応関係を示す部品クラスタ情報を生成する。
【0026】
入力情報削減処理部33は、クラスタリング処理部35で分類された複数のクラスタによって、入力情報の情報量を削減する。変換前の入力情報は、予め定められた部品一覧における各部品の個数に関する情報を有する。これに対し、入力情報削減処理部33は、部品クラスタ情報を用いて、どの部品が何個含まれているかを示す入力情報を、どのクラスタに何個の部品が属しているかという情報に変換する。クラスタの分類数は、部品一覧に含まれる部品の種類の数より少ないため、入力情報削減処理部33は、部品クラスタ情報を用いて変換することで、入力情報の情報量を削減することができる。入力情報変換部31の具体的な処理内容については後述する。
【0027】
次に、
図2及び
図3を参照して、ニューラルネットワーク演算部12の処理の具体例について説明する。まず、
図3を参照して、箱選定装置100のニューラルネットワーク演算部12が過去の梱包実績を教師データとして学習を行う場合について説明する。ここでは、梱包実績として、「部品aが2個」「部品bが1個」「部品cが2個」「部品dが1個」という部品リストの場合に、「輸送箱Z」が用いられたというデータが用いられる。なお、この場合の部品リストを「部品リストPL1」と称する場合がある。また、梱包に用いることができる輸送箱は、「輸送箱U,V,W,X,Y,Z」という6種類(
図2参照)の輸送箱が登録された輸送箱リストの中から、選定されるものとする。当該輸送箱リストを「輸送箱リストBL1」と称する場合がある。
【0028】
図3に示すように、ニューラルネットワーク演算部12は、梱包実績のデータから、梱包した部品リストPL1を抽出し、当該部品リストに対し、梱包した輸送箱として「輸送箱Z」が選定されたことを抽出する。ニューラルネットワーク演算部12の学習部16(
図1参照)は、当該部品リストPL1が抽出された場合に、輸送箱Zが選定されるような評価値が出力されるように、ニューラルネットワークのモデルMを適宜更新する。ニューラルネットワーク演算部12は、複数種類の部品リストと、当該部品リストに対して選定された輸送箱に関する多数の梱包実績に基づく教師データを用いて学習を行う。
【0029】
ここで、部品クラスタ情報生成部32は、梱包実績に基づいて、部品クラスタ情報を生成する。部品クラスタ情報生成部32は、梱包実績に含まれる部品リストの各部品の個数の情報、及び選定された輸送箱の情報を用いて、部品クラスタ情報を生成する。抽出された部品リストPL1は、入力情報削減処理部33で情報量を削減された状態で、ニューラルネットワーク演算部12に入力される。
【0030】
次に、
図2を参照して、箱選定装置100が輸送箱の選定を行う場合について説明する。
図2に示すように、箱選定装置100は、予め輸送箱リストBL1を取得しておく。そして、輸送箱の選定を行うときには、箱選定装置100は、梱包の対象となる部品を示す情報として、前述の部品リストPL1を取得する。このとき、部品リストPL1に係る入力情報は、入力情報削減処理部33で情報量を削減された状態でニューラルネットワーク演算部12に入力される。ニューラルネットワーク演算部12は、
図3に示す学習によって更新したニューラルネットワークのモデルMを用いて輸送箱に関する評価値を算出する。ニューラルネットワーク演算部12は、学習の結果、輸送箱リストBL1のうち、輸送箱Zが最も選定され易くなるような評価値を出力する。従って、選定部13は、当該評価値に基づいて、輸送箱Zを選定する。箱選定装置100は、輸送箱Zを選定した旨を出力する。
【0031】
次に、
図4を参照して、箱選定装置100のより詳細な処理内容、ニューラルネットワーク演算部12の詳細な構成、及びその処理内容について説明する。
図4は、箱選定装置100の処理内容の具体例を示す模式図である。まず、入力情報受付部11が入力情報を作成する際の処理について説明する。
【0032】
変換前の入力情報は、予め定められた部品一覧における各部品の個数に関する情報を有する。部品一覧は、梱包実績から、輸送箱に梱包され得る部品を全て抽出することで予め設定される。従って、変換前の入力情報は、部品一覧に含まれる部品の種類数、すなわち梱包の対象となる部品の種類数に対応する行(列でもよい)を有する情報テーブル60を有する。すなわち、部品の種類がN種類であった場合、情報テーブル60は、N行の格納部61を有する。なお、各行における格納部61は、1個だけである(すなわち1列)。入力情報受付部11は、輸送箱の選定対象となる部品リストを取得したら、情報テーブル60にそれぞれの種類に係る部品の個数を入力する。例えば、
図4に示す例では、「部品bが2個、部品dが1個、部品eが3個、部品fが2個…」をいう部品リストを取得している。従って、情報テーブル60の部品bに対応する2行目の格納部61には「2」が格納され、部品dに対応する4行目の格納部61には「1」が格納され、部品eに対応する5行目の格納部61には「3」が格納され、部品fに対応する6行目の格納部61には「2」が格納される。0個の部品に対応する格納部61には「0」が格納される。
【0033】
なお、新規部品のように詳細を把握できていない「未知部品x」が存在している場合、入力情報受付部11は、次のような前処理を行ってよい。例えば、入力情報受付部11は、情報テーブル60に「未知部品」を示す行を追加し、当該行に全ての未知部品xの個数を入力してよい。入力情報受付部11は、「未知部品x」に対応する行を破棄してよい。
【0034】
入力情報削減処理部33は、入力情報受付部11が作成した入力情報を変換して入力情報の情報量を削減する。具体的には、入力情報削減処理部33は、入力情報が「N+1次元」の情報であるものに対し、ニューラルネットワーク演算部12に入力される情報の次元数を削減する。
【0035】
まず、特徴量算出部34について説明する。
図5(a)に示すように、梱包実績は、部品リスト、及び選定された輸送箱の組み合わせに係る情報を複数含んでいる。各部品リストは、N種類の部品の組み合わせによって構成されているものとする。また、輸送箱は、M種類の中から選定されるものとする。この場合、特徴量算出部34は、N種類の各部品が、M種類のそれぞれの輸送箱に梱包される割合に基づいて、特徴量を算出する。例えば、特徴量算出部34は、部品aを含む部品リストを抽出し、抽出された部品リストにおいて選定された輸送箱の種類及び選定された回数を把握する。特徴量算出部34は、部品aを含む部品リストの合計個数と、各種類の輸送箱の選定回数と、を把握し、部品aが梱包される割合をそれぞれの種類の輸送箱について算出する。例えば、特徴量算出部34は、以下の式(1)を用いて各部品のそれぞれの輸送箱に梱包される割合を算出する。
【数1】
p
ij:各部品がそれぞれの輸送箱に梱包された割合
d
ij:部品iが輸送箱jに梱包された回数
i :部品の種類を示す番号
j :輸送箱の種類を示す番号
n :輸送箱の種類の総数
【0036】
例えば、部品aを含む部品リストが100個存在しており、それに対し、輸送箱Bが50回選定され、輸送箱Cが50回選定されたとする。この場合、特徴量算出部34は、部品aが輸送箱Bに梱包される割合は50%であり、輸送箱Cに梱包される割合は50%であると算出する。この場合、「輸送箱B:50%、輸送箱C:50%、他の種類の輸送箱:0%」という確率分布が部品aの特徴量として算出される。同様に、「輸送箱A:100%、他の種類の輸送箱:0%」という確率分布が部品bの特徴量として算出される。「輸送箱B:10%、輸送箱C:90%、他の種類の輸送箱:0%」という確率分布が部品cの特徴量として算出される。このように、特徴量算出部34は、N種類全ての部品に対する特徴量を算出する。
【0037】
次に、クラスタリング処理部35について説明する。クラスタリング処理部35は、特徴量算出部34が算出した各部品の特徴量を用いて、公知のクラスタリングの手法を用いて、各部品に対するクラスタリング処理を行う。クラスタリング処理部35は、k-means法にて各部品を複数のクラスタに分類する。例えば、
図5(b)に示すように、クラスタリング処理部35は、N種類の部品について算出された特徴量に基づいて、N種類の部品を複数のクラスタに分類する。クラスタリング処理部35は、輸送箱の確率分布が似た傾向にある部品同士については、同じクラスタに属するものとして分類できる。クラスタの数は特に限定されないが、少なくとも部品の種類よりは少ない。クラスタリング処理部35は、各部品とクラスタとの対応表を部品クラスタ情報(
図5(b)の右側の表)として取得する。
【0038】
次に、入力情報削減処理部33について説明する。
図4に示すように、入力情報削減処理部33は、クラスタリング処理部35で作成された部品クラスタ情報に基づき、入力情報に含まれる各部品を対応するクラスタに振り分ける。入力情報削減処理部33は、クラスタの個数に対応する行数の情報テーブル70を準備する。ここでは、クラスタの数がL個(L<N)であるため、L行の情報テーブル70が準備される。情報テーブル70の格納部71には、クラスタに属する部品の個数が格納される。例えば、部品a,dがクラスタ1に属し、部品b,fがクラスタ2に属し、部品c,eがクラスタ3に属するものとする。この場合、クラスタ1の格納部71には、部品a,dの格納部61の値の合計値である「1」が格納される。クラスタ2の格納部71には、部品b,fの格納部61の値の合計値である「4」が格納される。クラスタ3の格納部71には、部品c,eの格納部61の合計値である「3」が格納される。なお、入力情報削減処理部33は、未知部品xが属する未知部品クラスタを追加し、未知部品の個数は全て未知部品クラスタの格納部71に集約してよい。この場合、情報テーブル70はL+1行となる。このように、入力情報削減処理部33は、N+1次元の入力情報をL+1次元の情報に削減することができる。
【0039】
入力情報削減処理部33は、情報テーブル70に各クラスタに属する部品の合計の個数を格納して入力情報を変換したら、各行に格納された個数の情報をニューラルネットワーク演算部12へ入力する。なお、入力情報削減処理部33は、学習時においても、梱包実績に係る入力情報をニューラルネットワーク演算部12へ入力する前段階において、入力情報の情報量を削減する。
【0040】
ニューラルネットワーク演算部12は、ニューラルネットワークのモデルとして、入力層21と、中間層22と、出力層23と、を有する。入力層21は、ニューラルネットワーク演算を行うためのパラメータを入力するための層である。中間層22は、入力されたパラメータに対して所定の演算を行う層である。出力層23は、評価値を出力する層である。入力層21は、入力されるパラメータの数に応じたノードNDを有している。また、中間層22は任意の数のノードNDを有し、出力層23は、出力されるパラメータの数に応じたノードNDを有する。例えば、入力層21は、m個のパラメータを成分とする入力ベクトルx=(x
1,x
2,…x
m)をそのまま中間層22に出力する。中間層22は各層の重みと活性化関数により総入力を出力に変換してその出力を出力層23に渡す。出力層23も各層の重みと活性化関数により総入力を出力に変換する。この出力は、n個のパラメータを成分とするニューラルネットワークの出力ベクトルy=(y
1,y
2,…,y
n)である。この出力ベクトルyは評価値を示す。なお、学習時においては(
図3参照)一つの入力ベクトルxに対する出力ベクトルの正解をd=(d
1,d
2,…,d
n)とすると、その出力ベクトルyが正解dに近くなるように各層の重みwが更新される。これが学習という情報処理である。なお、各層21~23のノードNDの数は特に限定されるものではなく、各層21~23が入力されるパラメータの数に応じたノードNDを有してよい。
【0041】
本実施形態においては、入力層21のノードNDの数は、情報テーブル70の行の数(L+1)、すなわち変換後の入力情報に含まれるクラスタの数と同じに設定される。中間層22は、全結合、畳込み層、プーリング層などのニューラルネットワークにおける一般的な層によって構成され、作業現場に応じて適切に構成される。ニューラルネットワーク演算部12は、比例関数を利用して評価値を算出する。具体的には、出力層23が、比例関数を利用して評価値を算出する。比例関数を以下の数式(2)に示す。出力層23は、輸送箱の各辺における寸法を評価値として出力する。すなわち、出力層23の各ノードNDには、輸送箱の長辺、短辺、及び高さが割り当てられ、各辺の寸法が出力される。
yk=zk …(2)
yk:出力層のk番目のノードの出力
zk:出力層のk番目のノードの値
【0042】
選定部13は、出力層23から出力された評価値としての各辺の寸法を取得する。そして、選定部13は、選定可能な輸送箱(輸送箱リストBL1の中の輸送箱)の各辺の寸法と、評価値に係る寸法とを比較して誤差を演算する。そして、選定部13は、評価値に係る寸法との誤差が最小となる輸送箱を選定する。ここで、選定部13は、選定時の評価関数として、各辺の誤差の二乗和(以下の式(3)を参照)等を用いてよい。
【数2】
【0043】
次に、
図6及び
図7を参照して、本実施形態に係る箱選定方法について説明する。
図6は、箱選定装置100の制御部10による学習時における制御処理の内容を示すフローチャートである。
図7は、箱選定装置100の制御部10による輸送箱の選定時における制御処理の内容を示すフローチャートである。箱選定方法は、予め学習された学習情報に基づき、部品を梱包する輸送箱を選定する方法である。なお、各ステップにおける詳細な処理内容は、箱選定装置100の各構成要素の説明においてなされたものと同様であるため、説明を省略する。
【0044】
図6に示すように、特徴量算出部34は、梱包実績に基づいて各部品の特徴量を算出する特徴量算出ステップS100を実行する。クラスタリング処理部35は、特徴量に基づいて各部品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理ステップS110を実行する。次に、入力情報削減処理部33は、クラスタリング処理ステップS110で分類された複数のクラスタによって、入力情報の情報量を削減する入力情報削減処理ステップS120を実行する。ニューラルネットワーク演算部12は、情報量を削減された変換後の入力情報に基づいて、学習を行う学習ステップS130を実行する。なお、S120の処理は、ニューラルネットワーク演算部12へ入力情報受付部11が梱包実績に含まれる部品リストを入力する毎に実行されてもよいし、学習ステップS130が実行される前段階で、梱包実績に含まれる全ての部品リストに基づく入力情報に対し、まとめて実行されてもよい。S100,110,120は、入力情報を変換する入力情報変換ステップに該当する。
【0045】
箱選定方法においては、
図7に示すように、記憶部14に学習情報及び輸送箱の箱情報を記憶させる記憶ステップS10が実行される。なお、記憶ステップS10は、
図7の処理が実行される前段階において予め実行されてよい。ここでは、
図3で説明したように、学習情報として、ニューラルネットワークのモデルが生成、または更新される。
【0046】
次に、入力情報受付部11は、部品に関する情報を取得すると共に、取得した情報に基づいて入力情報を作成する入力情報受付ステップS20を実行する。次に、入力情報変換部31は、入力情報を変換する入力情報変換ステップS25を実行する。ここでは、
図6の入力情報削減処理ステップS120と同趣旨の処理が行われる。次に、ニューラルネットワーク演算部12は、入力情報変換ステップS25で変換された入力情報を入力層21に入力し、記憶部14に記憶された学習情報に基づくニューラルネットワーク演算によって、輸送箱に関する評価値の算出を行うニューラルネットワーク演算ステップS30を実行する。次に、選定部13は、ニューラルネットワーク演算ステップS30において出力層23から出力された評価値に基づいて輸送箱を選定する選定ステップS40を実行する。以上により、
図7に示す制御処理が終了する。なお、別の部品リストに対する輸送箱の選定を行うときは、入力情報受付ステップS20から再び処理を繰り返してよい。
【0047】
次に、本実施形態に係る箱選定装置100の作用・効果について説明する。
【0048】
箱選定装置100において、ニューラルネットワーク演算部12は、部品に関する入力情報を入力層21に入力し、学習情報に基づくニューラルネットワーク演算によって、箱に関する評価値の算出を行う。そして、選定部13は、ニューラルネットワーク演算部12の出力層23から出力された評価値に基づいて、梱包の対象となる部品に適した箱を選定することができる。ここで、学習情報は、梱包実績に基づいて予め学習されたものである。すなわち、ニューラルネットワーク演算部12は、例えば部品の形状、梱包先の環境情報などの複雑な条件を考慮することを省略し、過去の梱包実績に基づく学習を行うだけで、梱包する部品に適した箱を選定するための評価値を出力することができる。そのため、箱選定装置100は、計算コストを低減した状態で、容易に箱を選定することができる。ここで、入力情報変換部31は、ニューラルネットワーク演算部12に入力される入力情報を変換することができる。変換前の入力情報は、予め定められた部品一覧における各部品の個数に関する情報を有する。例えば、部品一覧の部品の種類が膨大になるなどの場合、入力情報の情報量が多くなることで、計算コストが上昇し、計算コストを低減しようとすると箱の選定精度が低下する可能性がある。これに対し、入力情報変換部31は、梱包実績に基づいて各部品の特徴量を算出する特徴量算出部34と、特徴量に基づいて各部品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理部35と、を有する。そのため、クラスタリング処理部35は、膨大な種類の部品を、特徴量に基づいたクラスタに分類することができる。クラスタの数は、部品の種類よりは少ない。従って、入力情報削減処理部33が、クラスタリング処理部35で分類された複数のクラスタによって、入力情報の情報量を削減することができる。従って、ニューラルネットワーク演算部12は、情報量が削減されることで計算コストが抑制されつつも、各部品の特徴量が考慮されて梱包実績を十分に反映した入力情報で学習を行うことができる。以上より、計算コストを削減し、箱の選定精度を向上できるようにニューラルネットワーク演算部12の学習を行うことができる。
【0049】
また、従来の手法のように、部品形状のような追加データを追加して学習を行う場合、部品一覧の部品の種類が膨大になるため、追加データの取得に膨大な手間が係る。一方、本実施形態に係る箱選定装置100は、そのような追加データを用いることなく、箱の選定精度を向上できる。
【0050】
特徴量算出部34は、各部品がそれぞれの箱に梱包される割合に基づいて、特徴量を算出してよい。この場合、特徴量算出部34は、計算コストを抑制しつつ、実際に部品がどの箱に梱包されたかの事情を十分に反映した特徴量を算出できる。
【0051】
クラスタリング処理部35は、k-means法にて各部品を複数のクラスタに分類してよい。この場合、クラスタリング処理部35は、計算コストを抑制しつつ、適切にクラスタを分類できる。
【0052】
本実施形態に係る情報処理方法は、予め学習された学習情報及び箱情報を記憶する記憶ステップS10と、部品に関する入力情報を作成する入力情報受付ステップS20と、入力情報を変換する入力情報変換ステップS25と、変換された入力情報を入力層に入力し、梱包実績に基づいて予め学習された学習情報に基づくニューラルネットワーク演算によって、箱に関する評価値の算出を行うニューラルネットワーク演算ステップS30と、ニューラルネットワーク演算ステップS30において出力層から出力された評価値に基づいて箱を選定する選定ステップと、を有する箱選定方法で用いられる情報処理方法であって、変換前の入力情報は、予め定められた部品一覧における各部品の個数に関する情報を有し、梱包実績に基づいて各部品の特徴量を算出する特徴量算出ステップS100と、特徴量に基づいて各部品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理ステップS110と、クラスタリング処理ステップS110で分類された複数のクラスタによって、入力情報の情報量を削減する入力情報削減処理ステップS120と、を有する。
【0053】
本実施形態に係る情報処理プログラムは、予め学習された学習情報及び箱情報を記憶する記憶ステップS10と、部品に関する入力情報を作成する入力情報受付ステップS20と、入力情報を変換する入力情報変換ステップS25と、変換された入力情報を入力層に入力し、梱包実績に基づいて予め学習された学習情報に基づくニューラルネットワーク演算によって、箱に関する評価値の算出を行うニューラルネットワーク演算ステップS30と、ニューラルネットワーク演算ステップS30において出力層から出力された評価値に基づいて箱を選定する選定ステップS40と、をコンピュータシステムに実行させる箱選定プログラムで用いられる情報処理プログラムであって、変換前の入力情報は、予め定められた部品一覧における各部品の個数に関する情報を有し、梱包実績に基づいて各部品の特徴量を算出する特徴量算出ステップS100と、特徴量に基づいて各部品を複数のクラスタに分類するクラスタリング処理を行うクラスタリング処理ステップS110と、クラスタリング処理ステップS110で分類された複数のクラスタによって、入力情報の情報量を削減する入力情報削減処理ステップS120と、をコンピュータシステムに実行させる。
【0054】
これらの情報処理方法、及び情報処理プログラムによれば、上述の箱選定装置100と同趣旨の作用・効果を得ることができる。
【0055】
例えば、上述の実施形態では、特徴量の算出方法として、各部品のそれぞれの輸送箱に梱包された割合を用いた方法が採用された。しかし、特徴量の算出方法は特に限定されるものではなく、適宜変更可能である。例えば、特徴量の算出方法として、各部品がそれぞれの輸送箱に梱包された割合の、全部品の割合に対する比を用いる方法が採用されてもよい。例えば、特徴量算出部34は、前述の式(1)、及び以下の式(4)を演算し、式(5)の結果を特徴量としてもよい。
【数3】
p
ij:各部品がそれぞれの輸送箱に梱包された割合
q
j:全部品の各輸送箱に梱包された割合
rij:各部品がそれぞれの輸送箱に梱包された割合の全部品の割合に対する比
d
ij:部品iが輸送箱jに梱包された回数
i :部品の種類を示す番号
m :部品の種類の総数
j :輸送箱の種類を示す番号
n :輸送箱の種類の総数
【0056】
また、クラスタリング処理の手法は、k-means法に限定されず、例えば、階層的クラスタリング、スペクトラルクラスタリング、DBSCAN等の手法が採用されてもよい。
【0057】
また、ニューラルネットワーク演算部の各層の構成は特に限定されない、例えば中間層は、全結合、畳み込み等、種類が限定されることなく採用可能である。また、出力層は3辺を出力するものでなくてもよく、ワンホット出力の形式であってもよい。
【符号の説明】
【0058】
10…制御部、11…入力情報受付部、12…ニューラルネットワーク演算部、13…選定部、14…記憶部、21…入力層、23…出力層、31…入力情報変換部、33…入力情報削減処理部、34…特徴量算出部、35…クラスタリング処理部、100…箱選定装置。