IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 横浜ゴム株式会社の特許一覧

<>
  • 特開-性能予測装置及びプログラム 図1
  • 特開-性能予測装置及びプログラム 図2
  • 特開-性能予測装置及びプログラム 図3
  • 特開-性能予測装置及びプログラム 図4
  • 特開-性能予測装置及びプログラム 図5
  • 特開-性能予測装置及びプログラム 図6A
  • 特開-性能予測装置及びプログラム 図6B
  • 特開-性能予測装置及びプログラム 図7A
  • 特開-性能予測装置及びプログラム 図7B
  • 特開-性能予測装置及びプログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022160848
(43)【公開日】2022-10-20
(54)【発明の名称】性能予測装置及びプログラム
(51)【国際特許分類】
   G06Q 10/04 20120101AFI20221013BHJP
   G06Q 50/04 20120101ALI20221013BHJP
   G06Q 50/10 20120101ALI20221013BHJP
   G06N 20/00 20190101ALI20221013BHJP
【FI】
G06Q10/04
G06Q50/04
G06Q50/10
G06N20/00
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2021065316
(22)【出願日】2021-04-07
(71)【出願人】
【識別番号】000006714
【氏名又は名称】横浜ゴム株式会社
(74)【代理人】
【識別番号】110000154
【氏名又は名称】弁理士法人はるか国際特許事務所
(72)【発明者】
【氏名】古渡 直哉
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049AA04
5L049CC03
5L049CC11
5L049DD01
(57)【要約】
【課題】短時間で予測性能の確度を算出することができる性能予測装置及びプログラムを提供する。
【解決手段】機械学習モデル40は、製品の製造条件をそれぞれ示す複数の学習用データ110により学習され、所与の入力データ210を入力する場合に、その入力データ210が示す製造条件により製造される製品の性質を示す予測値230を出力する。次元圧縮部50は、複数の学習用データ110及び入力データ210のそれぞれを次元圧縮する。類似性判定部60は、次元圧縮された入力データ210が、次元圧縮された複数の学習用データ110のいずれかと類似するか否かを判定する。出力部80は、予測値230を出力するとともに、この予測値230の確度として、次元圧縮部50の判定結果に応じた情報を出力する。
【選択図】図2

【特許請求の範囲】
【請求項1】
製品の製造条件をそれぞれ示す複数の学習用製造条件ベクトルデータにより学習され、所与の入力製造条件ベクトルデータを入力する場合に該入力製造条件ベクトルデータが示す製造条件により製造される製品の性質を示す予測性能データを出力する機械学習モデルと、
前記複数の学習用製造条件ベクトルデータ及び前記入力製造条件ベクトルデータのそれぞれを次元圧縮する次元圧縮手段と、
次元圧縮された前記入力製造条件ベクトルデータが、次元圧縮された前記複数の学習用製造条件ベクトルデータのいずれかと類似するか否かを判定する類似性判定手段と、
前記予測性能データを出力するとともに、該予測性能データの確度として前記類似性判定手段の判定結果に応じた情報を出力する出力手段と、
を含むことを特徴とする性能予測装置。
【請求項2】
請求項1に記載の性能予測装置において、
前記次元圧縮手段は、前記複数の学習用製造条件ベクトルデータ及び前記入力製造条件ベクトルデータのそれぞれを前記機械学習モデルに入力し、前記機械学習モデルの中間層の出力を次元圧縮された前記複数の学習用製造条件ベクトルデータ及び前記入力製造条件ベクトルデータとして取得する、
ことを特徴とする性能予測装置。
【請求項3】
請求項1又は2に記載の性能予測装置において、
前記類似性判定手段は、次元圧縮された前記複数の学習用製造条件ベクトルデータの分布の密度推定を行い、該密度推定の結果に基づいて類似性を判定する、
ことを特徴とする性能予測装置。
【請求項4】
請求項1乃至3のいずれかに記載の性能予測装置において、
前記製品はタイヤであり、
前記複数の学習用製造条件ベクトルデータと前記入力製造条件ベクトルデータは、前記タイヤの材料を示す1以上の要素、及び前記タイヤの構造を示す1以上の要素を含み、
前記予測性能データは、前記タイヤの性能を示す、
ことを特徴とする性能予測装置。
【請求項5】
請求項1乃至3のいずれかに記載の性能予測装置において、
前記製品はタイヤのゴムであり、
前記複数の学習用製造条件ベクトルデータと前記入力製造条件ベクトルデータは、前記ゴムの材料を示す1以上の要素、及び前記ゴムの製造条件を示す1以上の要素を含み、
前記予測性能データは、前記ゴムの物性を示す、
ことを特徴とする性能予測装置。
【請求項6】
製品の製造条件をそれぞれ示す複数の学習用製造条件ベクトルデータにより学習され、所与の入力製造条件ベクトルデータを入力する場合に該入力製造条件ベクトルデータが示す製造条件により製造される製品の性質を示す予測性能データを出力する機械学習モデル、
前記複数の学習用製造条件ベクトルデータ及び前記入力製造条件ベクトルデータのそれぞれを次元圧縮する次元圧縮手段、
次元圧縮された前記入力製造条件ベクトルデータが、次元圧縮された前記複数の学習用製造条件ベクトルデータのいずれかと類似するか否かを判定する類似性判定手段、及び
前記予測性能データを出力するとともに、該予測性能データの確度として前記類似性判定手段の判定結果に応じた情報を出力する出力手段、
としてコンピュータを機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は性能予測装置及びプログラムに関する。
【背景技術】
【0002】
ニューラルネットワーク等の機械学習技術により得られた機械学習モデルを用いて、所与の入力製造条件データに対する予測を行うことが知られている。例えば、特許文献1には、未知事例である予測事例が入力された場合に、既知事例集合から予測事例に類似した事例の集合である類似事例集合を抽出し、類似事例集合からある予測属性値の確信度を計算し、類似事例集合と確信度から、その確信度の信頼性尺度を計算し、ある予測属性値の確信度と、その確信度の信頼性尺度を出力することが記載されている。また、下記特許文献2には、入力データセットを指定された分割条件で分割し、分割された各データセットの分布構造の特徴を表す特徴ノードを含む入力データの近傍データを生成し、生成された近傍データの説明変数と、近傍データを機械学習モデルに入力して得られた目的変数のデータとに基づいて、説明変数と当該目的変数との関係性を表すスコアを算出することが記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開第2003-323601号公報
【特許文献2】特開第2019-191895号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
予測の確からしさは予測ごとに異なる。確からしさの程度が予測ごとに知ることができれば、ユーザはどの予測を頼りに試作をするかの判断に役立てることができる。この点、製品の製造条件が学習済みの製造条件に類似する場合には、当該機械学習モデルにより出力される予測性能の確度は高いと考えられ、逆に類似しない場合には確度は低いと考えられる。このため、製造条件の類似度を判定することが望ましい。
【0005】
しかし、製造条件が多数の因子の情報を含む多次元ベクトルデータとなる場合には類似度の判定に計算時間が掛かってしまう。
【0006】
本開示は上記課題に鑑みてなされたものであって、その目的は、短時間で予測性能の確度を算出することができる性能予測装置及びプログラムを提供することにある。
【課題を解決するための手段】
【0007】
本開示に係る性能予測装置は、製品の製造条件をそれぞれ示す複数の学習用製造条件ベクトルデータにより学習され、所与の入力製造条件ベクトルデータを入力する場合に該入力製造条件ベクトルデータが示す製造条件により製造される製品の性質を示す予測性能データを出力する機械学習モデルと、前記複数の学習用製造条件ベクトルデータ及び前記入力製造条件ベクトルデータのそれぞれを次元圧縮する次元圧縮手段と、次元圧縮された前記入力製造条件ベクトルデータが、次元圧縮された前記複数の学習用製造条件ベクトルデータのいずれかと類似するか否かを判定する類似性判定手段と、前記予測性能データを出力するとともに、該予測性能データの確度として前記類似性判定手段の判定結果に応じた情報を出力する出力手段と、を含むことを特徴とする。これによれば、短時間で予測性能の確度を算出することができる。
【0008】
本開示に係るプログラムは、製品の製造条件をそれぞれ示す複数の学習用製造条件ベクトルデータにより学習され、所与の入力製造条件ベクトルデータを入力する場合に該入力製造条件ベクトルデータが示す製造条件により製造される製品の性質を示す予測性能データを出力する機械学習モデル、前記複数の学習用製造条件ベクトルデータ及び前記入力製造条件ベクトルデータのそれぞれを次元圧縮する次元圧縮手段、次元圧縮された前記入力製造条件ベクトルデータが、次元圧縮された前記複数の学習用製造条件ベクトルデータのいずれかと類似するか否かを判定する類似性判定手段、及び、前記予測性能データを出力するとともに、該予測性能データの確度として前記類似性判定手段の判定結果に応じた情報を出力する出力手段、としてコンピュータを機能させる。これによれば、コンピュータを用いて短時間で予測性能の確度を算出することができる。
【図面の簡単な説明】
【0009】
図1】本開示の実施形態の一例である性能予測装置の構成を示す図である。
図2】性能予測装置で実装される機能の一例を示す機能ブロック図である。
図3】学習用データ及び学習時次元圧縮データの一例を示す図である。
図4】入力データ及び入力時次元圧縮データの一例を示す図である。
図5】予測性能データ及び予測性能データの確度の一例を示す図である。
図6A】機械学習モデルの学習時に行われる処理の一例を示す図である。
図6B】機械学習モデルの学習時に行われる処理の一例を示す図である。
図7A】入力データに対する予測時に行われる処理の一例を示す図である。
図7B】入力データに対する予測時に行われる処理の一例を示す図である。
図8】性能予測装置で実装される機能の他の一例を示す機能ブロック図である。
【発明を実施するための形態】
【0010】
以下、本開示の実施形態について図面を参照しながら説明する。本実施形態では、製品の製造条件を示す入力データを、学習済みの機械学習モデルに入力することにより、当該製造条件により製造される製品の性質を示す予測性能データを出力するとともに、その予測性能データの確度に関する情報を出力する。以下では、製品がタイヤ、又はタイヤのゴムである場合について説明するが、製品は複数の原料及び生成プロセスによって生成されるタイヤやタイヤのゴムなどといった混合物に限らず、所定の条件に基づいて生成される物質であればよい。
【0011】
[1.ハードウェア構成]
図1は、本開示の実施形態の一例である性能予測装置10の構成を示す図である。本実施形態に係る性能予測装置10は、パーソナルコンピュータや汎用コンピュータ、携帯情報端末などのコンピュータであり、図1に示すように、プロセッサ11、記憶部12、通信部13、表示部14、操作部15を含んでいる。なお、性能予測装置10は、光ディスクを読み取る光ディスクドライブや、USB(Universal Serial Bus)ポートなどを含んでいてもよい。
【0012】
プロセッサ11は、例えばコンピュータである性能予測装置10にインストールされたプログラムに従って動作するCPU(Central Processing Unit)などのプログラム制御デバイスである。記憶部12は、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶素子やハードディスクドライブなどである。記憶部12には、プロセッサ11によって実行されるプログラムなどのデータが記憶される。通信部13は、例えばネットワークボードなどの通信インタフェースである。表示部14は、液晶ディスプレイ等の表示デバイスであって、プロセッサ11の指示に従って各種の画像を表示する。操作部15は、キーボードやマウスなどのユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ11に出力する。
【0013】
[2.機能ブロック]
性能予測装置10は、例えば、タイヤ、又はタイヤのゴムについて予測される性能(例えば、タイヤの転がり抵抗やゴムの硬さなど)を示す予測性能データを出力するとともに、その予測性能データの確度に関する情報を出力する。以下では、性能予測装置10による予測性能データ及び確度に関する情報の出力について説明する。
【0014】
図2は、性能予測装置10で実装される機能の一例を示す機能ブロック図である。図2に示すように、性能予測装置10は、機能的には、学習用データ取得部20と、入力データ取得部30と、機械学習モデル40と、次元圧縮部50と、次元圧縮データ記憶部60と、類似性判定部70と、出力部80とを含む。なお、性能予測装置10において、図2に示す機能のすべてが実装されなくてもよく、図2に示す機能以外の機能が実装されていてもよい。
【0015】
[2-1.学習用データ取得部]
学習用データ取得部20は学習用製造条件ベクトルデータを取得する。「学習用製造条件ベクトルデータ」とは、製品の製造条件を示す学習用製造条件データを、所与の計算式を用いてベクトル化したデータであり、後述する機械学習モデル40の学習に用いられる教師データである。これに限らず、学習用データ取得部20は、ベクトル化以外の所与の変換手法により学習用製造条件データから変換したデータを教師データとして取得してもよいし、学習用製造条件データそのものを取得してもよい。以下では、学習用データ取得部20により取得されるデータ(本実施形態では、学習用製造条件ベクトルデータ)を、単に「学習用データ」とも称する。なお、学習用データ取得部20は、プロセッサ11を主として実現されてよいが、これに限らず、性能予測装置10にネットワークを介して接続される他の情報処理装置のプロセッサなどにより実現されてもよい。
【0016】
図3は、学習用データ及び学習時次元圧縮データの一例を示す図である。図3に示す例では、個々のID(1,2,Nなど)により特定されるデータ(表における1行分のデータ)が、1つのデータに相当する。
【0017】
図3に示すように、学習用データ110は複数の因子を含んでいる。より具体的には、因子X~XのM個の因子を含んでいる。また、学習用データ110は、例えば、タイヤの材料を示す1以上の因子を含んでよく、タイヤの構造を示す1以上の因子を含んでもよい。この他にも、学習用データ110は、タイヤのゴムの材料を示す1以上の因子を含んでよく、タイヤのゴムの製造条件を示す1以上の因子を含んでもよい。
【0018】
また、学習用データ110には、これに示される製造条件で製造される製品の性能(性質)を示す予測性能データを含んでいる。予測性能データは、例えば、タイヤの性能(タイヤの転がり抵抗など)を示すデータである。他にも例えば、予測性能データは、タイヤのゴムの物性(硬さなど)を示すデータであってもよい。図3に示す例では、予測性能データは予測値とし、数値で示されている。例えば、IDが「1」で特定される学習用データ110では予測値が「15.0」であり、IDが「2」で特定される学習用データ110では予測値が「14.8」であることが示されている。
【0019】
なお、図示は省略するが、複数の学習用データ110のそれぞれに含まれる複数の因子(因子X~X)は、各学習用データ間で互いに異なっている。このため、各学習用データ間の予測値も基本的には互いに相違するが、予測値の端数切捨てなどの丸め処理により、複数の学習用データ間で予測値が一致する場合もある。
【0020】
[2-2.入力データ取得部]
入力データ取得部30は、所与の入力製造条件ベクトルデータを取得する。「入力製造条件ベクトルデータ」とは、学習用製造条件ベクトルデータと同様に、製品の製造条件を示す入力用製造条件データを、所与の計算式を用いてベクトル化したデータである。これに限らず、入力データ取得部30は、ベクトル化以外の所与の変換手法により入力用製造条件データから変換したデータを取得してもよいし、入力用製造条件データそのものを取得してもよい。例えば、学習用製造条件データそのものが、教師データとして後述する機械学習モデル40の学習に用いられる場合、入力データ取得部30は、変換していない状態の入力用製造条件データを取得してよい。以下では、入力データ取得部30により取得されるデータ(本実施形態では、入力製造条件ベクトルデータ)を、単に「入力データ」とも称する。なお、入力データ取得部30は、プロセッサ11を主として実現されてよいが、これに限らず、性能予測装置10にネットワークを介して接続される他の情報処理装置のプロセッサなどにより実現されてもよい。
【0021】
図4は、入力データ及び入力時時次元圧縮データの一例を示す図である。図4に示す例でも、図3と同様に、個々のID(1,2,nなど)により特定されるデータ(表における1行分のデータ)が、1つのデータに相当する。なお、図4に示した例では、入力データの数は複数(n個)であるが、入力データ取得部30が取得し、後述する後述する機械学習モデル40に入力される入力データの数は、1つであってもよい。
【0022】
入力データ210も学習用データ110と同様に、複数の因子を含んでいる。より具体的には、因子X~XのM個の因子を含んでいる。入力データ210は、学習用データ110と同様に、タイヤの材料を示す1以上の因子を含んでよく、タイヤの構造を示す1以上の因子を含んでもよい。この他にも、入力データ210は、タイヤのゴムの材料を示す1以上の因子を含んでよく、タイヤのゴムの製造条件を示す1以上の因子を含んでもよい。
【0023】
なお、本実施形態では、複数の学習用データ110と入力データ210とのそれぞれに含まれる因子の数はM個であり、同数としているが、複数の学習用データ110と入力データ210とには共通する所定の因子が複数含まれていればよく、それぞれに含まれる因子全体の数は、必ずしも一致しなくてよい。
【0024】
入力データ210は、これに示される複数の製造条件で製造される製品の性質を予測するためのものである。このため、入力データ210は、学習用データ110と異なり、予測値などの予測性能データを含んでいない。ユーザは、複数の製造条件を示す入力データを作成して後述する機械学習モデル40に入力することで、機械学習モデル40(より具体的には、予測部43)により予測される性質に関する情報を知ることができる。
【0025】
[2-3.機械学習モデル]
機械学習モデル40は、製品の製造条件をそれぞれ示す複数の学習用データ110(学習用製造条件ベクトルデータ)により学習されるモデルであり、所与の入力データ210(入力製造条件ベクトルデータ)が入力される場合に、この入力製造条件ベクトルデータが示す製造条件により製造される製品の性質を示す予測性能データを出力するモデルである。性能予測装置10は、予測したい予測性能データの種別(例えば、タイヤの転がり抵抗やゴムの硬さなどといった性質の種別)にそれぞれ対応する複数の機械学習モデル40を機能として備えてもよい。この場合、機械学習モデル40には、この機械学習モデル40に対応する種別の予測性能データを含む学習用データ110が入力されることにより、機械学習が行われてよい。また、ユーザは、複数の機械学習モデル40のうち、予測したい予測性能データの種別に対応する機械学習モデル40に入力データ210を入力してよい。
【0026】
図2に示すように、機械学習モデル40は、パラメータ記憶部41と、学習部42と、予測部43とを含んでいる。機械学習モデル40は、例えば、DNN(Deep Neural Network)やCNN(Convolutional Neural Network)などといった、多層間のニューラルネットワークにより機械学習されるモデルである。他にも例えば、機械学習モデル40は、所与の統計的手法や線型回帰などにより機械学習されるモデルであってもよい。
【0027】
[2-3-1.パラメータ記憶部]
パラメータ記憶部41は、機械学習モデル40のパラメータを記憶する。より具体的には、パラメータ記憶部41は、入力データ210を機械学習モデル40に入力する場合に、予測性能データを出力する機械学習モデル40のパラメータを記憶する。なお、パラメータ記憶部41は、性能予測装置10の記憶部12を主として実現されてよいし、性能予測装置10に有線又は無線で接続される外部記憶装置やNAS(Network Attached Storage)などの他の記憶装置により実現されてもよい。
【0028】
機械学習モデル40が多層間のニューラルネットワークにより実現される場合、パラメータ記憶部41は、ニューラルネットワークを構成する複数のノードと各ノードの重みづけ、レイヤの数、各レイヤに使用されるノード数などを、機械学習モデル40のパラメータとして記憶してよい。他にも例えば、パラメータ記憶部41は、複数の製造条件から予測性能データを求めるための計算式や計算式の係数を、機械学習モデル40のパラメータとして記憶してもよい。
【0029】
[2-3-2.学習部]
学習部42は、学習用データ取得部20により取得された複数の学習用データ110を用いて機械学習を行うことにより、パラメータ記憶部41に記憶されている機械学習モデル40のパラメータを更新する。すなわち、パラメータ記憶部41に記憶されている機械学習モデル40のパラメータは、複数の学習用データにより学習(更新)される。なお、学習部42は、性能予測装置10のプロセッサ11を主として実現されてよいし、性能予測装置10にネットワークを介して接続される他の情報処理装置のプロセッサなどにより実現されてもよい。
【0030】
[2-3-3.予測部]
予測部43は、機械学習モデル40に所与の入力データ210を入力する場合に、その入力データ210についての予測性能データを演算する。予測部43は、性能予測装置10のプロセッサ11を主として実現されてよいし、性能予測装置10にネットワークを介して接続される他の情報処理装置のプロセッサなどにより実現されてもよい。
【0031】
図5は、予測性能データ及び予測性能データの確度の一例を示す図である。図5に示す例では、IDが「1」で特定される入力データ210では予測値230が「15.0」であり、IDが「2」で特定される入力データ210では予測値230が「13.2」であることが示されている。このように個々のIDで識別される複数の入力データ210のそれぞれに対する予測値230が、予測性能データの一例に相当する。すなわち、予測部43は、個々の入力データ210に対する予測値230を演算する。なお、予測性能データは予測値230などの数値に限らず、製品の性質を識別できるものであればよい。予測性能データは、例えば数列で示されてもよいし、記号(まる、ばつなど)や文字(硬い、柔らかいなど)で示されてもよい。
【0032】
[2-4.次元圧縮部]
次元圧縮部50は、複数の学習用データ110(学習用製造条件ベクトルデータ)及び入力データ210(入力製造条件ベクトルデータ)のそれぞれを次元圧縮する。「次元圧縮」とは、あるデータを表現する方法を、そのデータの因子から新たに設定、算出し、因子数を削減することである。次元圧縮部50は、例えば、主成分分析(principal component analysis:PCA)、独立成分分析(Independent Component Analysis:ICA)、t分布型確率的近傍埋め込み(t-Distributed Stochastic Neighbor Embedding:t-SNE)などの所与の手法により、複数の学習用データ110及び入力データ210を次元圧縮してよい。なお、次元圧縮部50は、性能予測装置10のプロセッサ11を主として実現されてよいし、性能予測装置10にネットワークを介して接続される他の情報処理装置のプロセッサなどにより実現されてもよい。
【0033】
次元圧縮部50は、例えば図3に示すように、複数の学習用データ110のそれぞれに含まれる個々の因子X~Xから新たな因子A~Aを設定、算出することにより、次元圧縮された学習用製造条件ベクトルデータ120(以下では、学習時次元圧縮データ120とも称する)を生成する。これにより、学習時次元圧縮データ120に含まれる因子数mは、次元圧縮される前の学習用データ110の因子数Mよりも小さい値になる。
【0034】
また、次元圧縮部50は、例えば図4に示すように、入力データ210に含まれる個々の因子X~Xから新たな因子A~Aを設定、算出することにより、次元圧縮された入力製造条件ベクトルデータ220(以下では、入力時次元圧縮データ220とも称する)を生成する。これにより、入力時次元圧縮データ220に含まれる因子数mも、次元圧縮される前の入力データ210の因子数Mよりも小さい値になる。
【0035】
なお、図3及び図4に示す例では、複数の学習時次元圧縮データ120と入力時次元圧縮データ220とのそれぞれに含まれる因子の数はm個であり、同数としているが、それぞれに含まれる因子全体の数は、必ずしも一致しなくてよい。
【0036】
また、機械学習モデル40がDNN(Deep Neural Network)などの多層間のニューラルネットワークにより実現される場合、次元圧縮部50は、複数の学習用データ110のそれぞれを機械学習モデル40に入力することにより、機械学習モデル40の中間層の出力を複数の学習時次元圧縮データ120(次元圧縮された学習用製造条件ベクトルデータ)として取得してもよい。同様に、次元圧縮部50は、及び入力データ210を機械学習モデル40に入力することにより、機械学習モデル40の中間層の出力を入力時次元圧縮データ220(次元圧縮された入力製造条件ベクトルデータ)として取得してもよい。このように機械学習モデル40の中間層を利用することで、主成分分析(PCA)などの次元圧縮のための演算を行わずに、複数の学習時次元圧縮データ120と入力時次元圧縮データ220とを取得することが可能である。
【0037】
[2-5.次元圧縮データ記憶部]
次元圧縮データ記憶部60は、複数の学習時次元圧縮データ120を記憶する。次元圧縮データ記憶部60は、学習時次元圧縮データ120に含まれる予測性能データの種別(例えば、タイヤの転がり抵抗やゴムの硬さなどといった性質の種別)に関連付けて、学習時次元圧縮データ120を記憶してよい。なお、次元圧縮データ記憶部60は、性能予測装置10の記憶部12を主として実現されてよいし、性能予測装置10に有線又は無線で接続される外部記憶装置やNAS(Network Attached Storage)などの他の記憶装置により実現されてもよい。
【0038】
[2-6.類似性判定部、出力部]
類似性判定部70は、入力時次元圧縮データ220(次元圧縮された入力製造条件ベクトルデータ)が、複数の学習時次元圧縮データ120(次元圧縮された学習用製造条件ベクトルデータ)のいずれかと類似するか否かを判定する。そして、出力部80は、機械学習モデル40の予測部43によって演算された予測性能データを出力するとともに、この予測性能データの確度として、類似性判定部70の判定結果に応じた情報を出力する。類似性判定部70及び出力部80は、性能予測装置10のプロセッサ11を主として実現されてよいし、性能予測装置10にネットワークを介して接続される他の情報処理装置のプロセッサなどにより実現されてもよい。また、出力部80は、性能予測装置10の表示部14や他の表示装置に予測性能データと予測性能データの確度の情報を表示させることによって、予測性能データと確度の情報を出力してよい。
【0039】
類似性判定部70は、例えば、複数の学習時次元圧縮データ120の分布の密度推定を行い、この密度推定の結果に基づいて、複数の学習時次元圧縮データ120と入力時次元圧縮データ220との類似性を判定する。類似性判定部70は、複数の学習時次元圧縮データ120の分布範囲において入力時次元圧縮データ220により特定される点(位置)での密度推定を行い、推定された密度が高ければ類似度が高い(類似する)と判定し、密度が低ければ類似度が低い(類似しない)と判定してよい。このような密度推定には、例えば、カーネル密度推定(Kernel Density Estimation:KDE)を用いることができる。他にも例えば、類似性判定部70は、ガウス過程回帰(Gaussian Process:GP)などに基づく予測推定データのばらつきを利用することにより、複数の学習時次元圧縮データ120と入力時次元圧縮データ220との類似性を判定してもよい。
【0040】
この他にも、類似性判定部70は、次元圧縮データ記憶部60に記憶される複数の学習時次元圧縮データ120のそれぞれに対し、入力時次元圧縮データ220との距離を算出することで、複数の学習時次元圧縮データ120と入力時次元圧縮データ220との類似性を判定してもよい。類似性判定部70は、例えば、図3においてIDが「1」「2」・・・「N」で特定される複数の学習時次元圧縮データ120のそれぞれと、図4においてIDが「1」で特定される入力時次元圧縮データ220との距離から類似性を判定する。類似性判定部70は、算出された距離が近ければ、類似度が高い(類似する)と判定し、距離が長ければ類似度が低い(類似しない)と判定してよい。
【0041】
この場合、学習時次元圧縮データ120及び入力時次元圧縮データ220に共通して含まれる複数の因子A~Aのそれぞれの距離に基づいて、類否を判定してもよい。類似性判定部70は、ある因子(例えば、因子A)について学習時次元圧縮データ120と入力時次元圧縮データ220の距離が閾値以下である場合に、その因子では類似すると判定し、距離が閾値を超える場合に、その因子では類似しないと判定してよい。なお、類似性判定部70は、各因子の類否について、一致、類似、不一致などの3段階以上の基準で判定してもよいし、距離に応じた類似度のスコアを算出してもよい。
【0042】
出力部80は、例えば図5に示すように、予測性能データとして予測値230を出力するとともに、予測性能データの確度を示す値として確度値240を出力する。図5に示す例では、IDが「1」で特定される入力データ210では確度値240が「0.82」であり、IDが「2」で特定される入力データ210では確度値240が「0.77」であることが示されている。なお、予測性能データの確度を示す情報は確度値240などの数値に限らず、記号(まる、ばつなど)や文字(高い、低い)などで示されてもよい。
【0043】
なお、類似性判定部70が複数の学習時次元圧縮データ120のそれぞれに対し、入力時次元圧縮データ220との距離を算出することで類似性を判定する場合、出力部80は、入力時次元圧縮データ220との距離が最も近い学習時次元圧縮データ120(すなわち、最も類似すると判定された学習時次元圧縮データ120)との類似性に基づく情報を、予測性能データの確度として出力してもよい。
【0044】
[3.処理の流れ]
図6A図6B図7A、及び図7Bは、性能予測装置10で行われる予測処理の流れの一例を示す図である。図6A及び図6Bは機械学習モデル40の学習時に行われる処理の一例を示し、図7A及び図7Bは入力データ210に対する予測時に行われる処理の一例を示している。
【0045】
[3-1.学習時の処理]
機械学習モデル40の学習時に行われる処理について、図6A及び図6Bを参照しながら説明する。まず、学習用データ取得部20が、機械学習モデル40の学習に用いる製造条件ベクトルデータである学習用データ110を取得する(ステップS101)。次に、機械学習モデル40の学習部42が、ステップS101で取得した学習用データ110を機械学習モデル40に入力することにより、当該機械学習モデル40の学習を行う(ステップS102)。学習部42は、機械学習モデル40の予測部43が学習用データ110の入力に応じて、この学習用データ110に含まれる予測性能データ(例えば、図3に示した予測値230)を出力するように、パラメータ記憶部41に記憶されている機械学習モデル40のパラメータを更新することにより、機械学習モデル40の学習を行う。ステップS102では、機械学習モデル40には、これに対応する種別の予測性能データを含む学習用データ110が入力される。
【0046】
次に、次元圧縮部50が、ステップS101で取得した学習用データ110から次元圧縮された学習時次元圧縮データ120を取得し、次元圧縮データ記憶部60に記憶させ(ステップS103)、処理を終了する。ステップS103において、次元圧縮部50は、主成分分析(PCA)などの所与の手法により学習用データ110を次元圧縮することにより学習時次元圧縮データ120を取得してもよいし、ステップS102の処理により機械学習モデル40の中間層から出力されたデータを、学習時次元圧縮データ120として取得してもよい。
【0047】
また、ステップS103では、次元圧縮部50は、学習時次元圧縮データ120を、これに含まれる予測性能データの種別(例えば、タイヤの転がり抵抗やゴムの硬さなどといった性質の種別)と関連付けて、次元圧縮データ記憶部60に記憶させてよい。以上のステップS101~S103の処理により、次元圧縮データ記憶部60には、機械学習モデル40の学習が行われるたびに、予測性能データの種別と関連付けた状態の複数の学習時次元圧縮データ120が記憶される
【0048】
[3-2.予測時の処理]
機械学習モデル40を用いて入力データ210に対する予測を行うときの処理を、図7A及び図7Bを参照しながら説明する。まず、入力データ取得部30は、ユーザが予測を希望する製造条件ベクトルデータである入力データ210を取得する(ステップS201)。入力データ取得部30は、例えばユーザによって指定された入力データ210を取得する。なお、ステップS101において取得される入力データ210の数は、図4に示したように複数であってもよいし、1つであってもよい。
【0049】
次に、機械学習モデル40の予測部43は、機械学習モデル40に基づいて、ステップS201で取得した入力データ210の予測性能データとして、例えば図5に示した予測値230を演算する(ステップS202)。予測部43は、入力データ210を機械学習モデル40に入力することにより、入力データ210について予測性能データを演算する。性能予測装置10が、予測性能データの種別にそれぞれ対応する複数の機械学習モデル40を機能として備える場合、予測部43は、例えばユーザの指示に応じた機械学習モデル40(ユーザが予測を希望する種別の予測性能データを出力する機械学習モデル40)を選択し、これに入力データ210を入力してよい。
【0050】
次に、次元圧縮部50は、ステップS201で取得した入力データ210から次元圧縮された入力時次元圧縮データ220を取得する(ステップS203)。ステップS203において、次元圧縮部50は、主成分分析(PCA)などの所与の手法により入力データ210を次元圧縮して入力時次元圧縮データ220を取得してもよいし、ステップS202の処理により機械学習モデル40の中間層から出力されたデータを入力時次元圧縮データ220として取得してもよい。
【0051】
次に、類似性判定部70は、ステップS203において取得した入力時次元圧縮データ220と、ステップS103において次元圧縮データ記憶部60に記憶された複数の学習時次元圧縮データ120との類似性を判定する(ステップS204)。ステップS204において、類似性判定部70は、次元圧縮データ記憶部60に記憶されるうち、ステップS202で演算された予測性能データの種別(演算に用いた機械学習モデル40と対応する種別)が関連付けられた複数の学習時次元圧縮データ120について、入力時次元圧縮データ220との類似性を判定してよい。
【0052】
ステップS204において、類似性判定部70は、カーネル密度推定(KDE)などにより複数の学習時次元圧縮データ120の分布の密度推定を行うことで、この密度推定の結果に基づいて、複数の学習時次元圧縮データ120と入力時次元圧縮データ220との類似性を判定してよい。また、類似性判定部70は、ガウス過程回帰(Gaussian Process:GP)などに基づく予測推定データのばらつきを利用することにより、複数の学習時次元圧縮データ120と入力時次元圧縮データ220との類似性を判定してよい。この他にも、複数の学習時次元圧縮データ120のそれぞれに対し、入力時次元圧縮データ220との距離を算出することで、入力時次元圧縮データ220と複数の学習時次元圧縮データ120との類似性を判定してもよい。
【0053】
最後に、出力部80は、ステップS202で演算した予測値230(予測性能データ)と、ステップS204において判定した類似性の判定結果に応じた予測値230の確度として、例えば図5に示した確度値240を出力して処理を終了する。なお、ステップS204において、複数の学習時次元圧縮データ120のそれぞれと入力時次元圧縮データ220との距離を算出することで、入力時次元圧縮データ220と複数の学習時次元圧縮データ120との類似性を判定した場合、出力部80は、入力時次元圧縮データ220との距離が最も近い学習時次元圧縮データ120(すなわち、最も類似すると判定された学習時次元圧縮データ120)との類似性に基づく情報を、確度値240として出力してもよい。
【0054】
[4.まとめ]
入力データ210に含まれる複数の因子X~Xに基づく性質予測の確からしさは、入力データ210ごとに(すなわち、予測ごとに)異なる。この点、類似性判定部70及び出力部80によれば、次元圧縮された入力データ210である入力時次元圧縮データ220と、同じく次元圧縮された複数の学習用データ110である複数の学習時次元圧縮データ120との類似性を予測性能データの確度として出力するため、ユーザは、予測ごとの予測性能データの確からしさを知ることができる。
【0055】
さらに、本実施形態では、類似性判定部70が入力データ210から次元圧縮された入力時次元圧縮データ220と、複数の学習用データ110からそれぞれ次元圧縮された複数の学習時次元圧縮データ120との類否を判定するため、製造条件が多数の因子(因子X~X)の情報を含むベクトルデータである入力データ210と複数の学習用データ110との類否を判定する場合に比べて、短時間で類否判定を行うことができる。すなわち、入力データ210と複数の学習用データ110とを直接比較する場合に比べて、短時間で予測性能の確度を算出することができる。
【0056】
[5.変形例]
本発明は、以上の実施形態に限定されるものではない。
【0057】
実施形態では、次元圧縮部50が入力データ210から次元圧縮された入力時次元圧縮データ220と、複数の学習用データ110からそれぞれ次元圧縮された複数の学習時次元圧縮データ120とを取得し、類似性判定部70が複数の学習時次元圧縮データ120と入力時次元圧縮データ220との類似性について判定していたが、これに限らず、類似性判定部70は、複数の学習用データ110からそれぞれ所定の因子が削除されたデータと、入力データ210から所定の因子が削除されたデータの類似性を判定してもよく、出力部80は、このように判定された類似性に応じた情報を、機械学習モデル40(より詳細には予測部43)により予測される予測性能データの確度として出力してもよい。
【0058】
図8は、性能予測装置10で実装される機能の他の一例を示す機能ブロック図である。図8に示すように、性能予測装置10は、次元圧縮部50及び次元圧縮データ記憶部60を機能として備えず、その代わりに因子削除部90及び因子削除データ記憶部100を備えてもよい。
【0059】
因子削除部90は、複数の学習用データ110(学習用製造条件ベクトルデータ)及び入力データ210(入力製造条件ベクトルデータ)のそれぞれから所定の因子を削除する。因子削除部90は、性能予測装置10のプロセッサ11を主として実現されてよいし、性能予測装置10にネットワークを介して接続される他の情報処理装置のプロセッサなどにより実現されてもよい。
【0060】
因子削除部90は、学習用データ取得部20により取得された学習用データ110に含まれる複数の因子X~X図3を参照)のうち、所定の因子を削除することにより、学習用データ110に含まれる因子数を削減する。同様に、因子削除部90は、入力データ取得部30により取得された入力データ210に含まれる複数の因子X~Xのうち、所定の因子を削除することにより、学習用データ110に含まれる因子数を削減する。なお、因子削除部90は、機械学習モデル40の予測部43による予測性能データの算出に対し、影響度の小さい因子を削除することが望ましい。因子削除部90は、分散分析などを行うことで予測性能データの算出に対する影響度を算出し、この影響度に基づいて削除する因子を決定してもよい。
【0061】
因子削除データ記憶部100は、因子削除部90により所定の因子が削除された複数の学習用データ110を記憶する。次元圧縮データ記憶部60は、学習用データ110に含まれる予測性能データの種別(例えば、タイヤの転がり抵抗やゴムの硬さなどといった性質の種別)に関連付けて、所定の因子が削除された学習用データ110を記憶してよい。なお、次元圧縮データ記憶部60は、性能予測装置10の記憶部12を主として実現されてよいし、性能予測装置10に有線又は無線で接続される外部記憶装置やNAS(Network Attached Storage)などの他の記憶装置により実現されてもよい。
【0062】
類似性判定部70は、因子削除部90により所定の因子が削除され、因子削除データ記憶部100に記憶された複数の学習用データ110と、因子削除部90により所定の因子が削除された入力データ210との類似性を判定する。類似性判定部70は、因子削除データ記憶部100に記憶されるうち、予測性能データの予測(演算)に用いた機械学習モデル40と対応する種別が関連付けられた学習用データ110について、入力データ210との類似性を判定してよい。
【0063】
出力部80は、以上のように判定された類似性に応じた情報を、予測性能データの確度として出力する。このようにすることでも、多数の因子(因子X~X)の情報を含む入力データ210と複数の学習用データ110との類否を直接的に判定する場合に比べて、短時間で類否判定を行うことができる。すなわち、短時間で予測性能の確度を算出することができる。
【符号の説明】
【0064】
10 性能予測装置、11 プロセッサ、12 記憶部、13 通信部、14 表示部、15 操作部、20 学習用データ取得部、30 入力データ取得部、40 機械学習モデル、41 パラメータ記憶部、42 学習部、43 予測部、50 次元圧縮部、60 次元圧縮データ記憶部、70 類似性判定部、80 出力部、90 因子削除部、100 因子削除データ記憶部、110 学習用データ、120 学習時次元圧縮データ、210 入力データ、220 入力時次元圧縮データ、230 予測値、240 確度値。

図1
図2
図3
図4
図5
図6A
図6B
図7A
図7B
図8