IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ トヨタ自動車株式会社の特許一覧

特開2024-172967情報処理装置、情報処理方法及び情報処理プログラム
<>
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図1
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図2
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図3
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図4
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図5
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024172967
(43)【公開日】2024-12-12
(54)【発明の名称】情報処理装置、情報処理方法及び情報処理プログラム
(51)【国際特許分類】
   G06F 30/27 20200101AFI20241205BHJP
   G06N 3/0455 20230101ALI20241205BHJP
【FI】
G06F30/27
G06N3/0455
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2023091054
(22)【出願日】2023-06-01
(71)【出願人】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】新谷 浩平
(72)【発明者】
【氏名】森國 洋平
【テーマコード(参考)】
5B146
【Fターム(参考)】
5B146DC03
5B146DJ14
(57)【要約】
【課題】CAE計算に掛ける時間をより少なくすることが可能な情報処理装置を提供する。
【解決手段】入力された形状パラメータに基づいて、形状の特徴を表現するベクトルである潜在ベクトルを第1学習済みモデルから出力する潜在ベクトル推定部と、前記潜在ベクトルに対応する形状の座標の集合を第2学習済みモデルから生成するデコーダ部と、前記潜在ベクトルと、前記座標の集合とに基づいて、前記形状の特徴量の分布を前記第2学習済みモデルにより推定する分布推定部と、を備える、情報処理装置が提供される。
【選択図】図1
【特許請求の範囲】
【請求項1】
入力された形状パラメータに基づいて、形状の特徴を表現するベクトルである潜在ベクトルを第1学習済みモデルから出力する潜在ベクトル推定部と、
前記潜在ベクトルに対応する形状の座標の集合を第2学習済みモデルから生成するデコーダ部と、
前記潜在ベクトルと、前記座標の集合とに基づいて、前記形状の特徴量の分布を前記第2学習済みモデルにより推定する分布推定部と、
を備える、情報処理装置。
【請求項2】
前記潜在ベクトルに基づいて、前記形状の性能値を第2学習済みモデルにより推定する性能値推定部をさらに備える、請求項1に記載の情報処理装置。
【請求項3】
前記性能値推定部が推定した前記形状の性能値に関する情報を提示する提示部をさらに備える、請求項2に記載の情報処理装置。
【請求項4】
プロセッサが、
入力された形状パラメータに基づいて、形状の特徴を表現するベクトルである潜在ベクトルを第1学習済みモデルから出力させ、
前記潜在ベクトルに対応する形状の座標の集合を第2学習済みモデルから生成させ、
前記潜在ベクトルと、前記座標の集合とに基づいて、前記形状の特徴量の分布を前記第2学習済みモデルにより推定する
処理を実行する、情報処理方法。
【請求項5】
コンピュータに、
入力された形状パラメータに基づいて、形状の特徴を表現するベクトルである潜在ベクトルを第1学習済みモデルから出力させ、
前記潜在ベクトルに対応する形状の座標の集合を第2学習済みモデルから生成させ、
前記潜在ベクトルと、前記座標の集合とに基づいて、前記形状の特徴量の分布を前記第2学習済みモデルにより推定する
処理を実行させる、情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
【背景技術】
【0002】
機械分野の技術開発においては、ある三次元形状を有する物体における応力分布等といった性能値をシミュレーションするCAE(Computer Aided Engineering)計算が行われている。非特許文献1~3では、機械学習を用いて三次元構造の形状生成を行い、三次元構造の応力分布、剛性値、Cd(Constant Drag)値等の性能値の予測を行うシミュレーション方法が開示されている。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Haoqiang Fan, Hao Su, Leonidas J. Guibas. "A Point Set Generation Network for 3D Object Reconstruction from a Single Image", In Proceedings of the IEEE conference on computor vision and pattern recognition, pp. 605-613. 2017.
【非特許文献2】Wen Xiao, Zhenan Fan, Qiuyan Liu. "Point Cloud Generation via Variational Auto-encoder"
【非特許文献3】Nikita Durasov, Artem Lukoyanov, Jonathan Donier, Pascal Fua. " DEBOSH: Deep Bayesian Shape Optimization", arXiv preprint arXiv:2109.13337 (2021).
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、従来のCAE計算には非常に多くの計算時間及び計算資源が必要であり、CAE計算に掛ける時間をより少なくすることが求められる。
【0005】
本開示は、上記の点に鑑みてなされたものであり、従来技術と比較してCAE計算に掛ける時間をより少なくすることが可能な情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示の第1態様は、情報処理装置であって、入力された形状パラメータに基づいて、形状の特徴を表現するベクトルである潜在ベクトルを第1学習済みモデルから出力する潜在ベクトル推定部と、前記潜在ベクトルに対応する形状の座標の集合を第2学習済みモデルから生成するデコーダ部と、前記潜在ベクトルと、前記座標の集合とに基づいて、前記形状の特徴量の分布を前記第2学習済みモデルにより推定する分布推定部と、を備える。
【0007】
本開示の第1態様によれば、形状に対する特徴量の分布を、CAE計算を一からやり直さなくても求めることが出来る。
【0008】
本開示の第2態様は、第1態様に係る情報処理装置であって、前記潜在ベクトルに基づいて、前記形状の性能値を第2学習済みモデルにより推定する性能値推定部をさらに備える。
【0009】
本開示の第2態様によれば、形状に対する性能値を、CAE計算を一からやり直さなくても求めることが出来る。
【0010】
本開示の第3態様は、第2態様に係る情報処理装置であって、前記性能値推定部が推定した前記形状の性能値に関する情報を提示する提示部をさらに備える。
【0011】
本開示の第3態様によれば、形状に対する性能値を情報処理装置のユーザに確認させることが可能となる。
【0012】
本開示の第4態様は、情報処理方法であって、プロセッサが、入力された形状パラメータに基づいて、形状の特徴を表現するベクトルである潜在ベクトルを第1学習済みモデルから出力させ、前記潜在ベクトルに対応する形状の座標の集合を第2学習済みモデルから生成させ、前記潜在ベクトルと、前記座標の集合とに基づいて、前記形状の特徴量の分布を前記第2学習済みモデルにより推定する処理を実行する。
【0013】
本開示の第4態様によれば、形状に対する特徴量の分布を、CAE計算を一からやり直さなくても求めることが出来る。
【0014】
本開示の第5態様は、情報処理プログラムであって、コンピュータに、入力された形状パラメータに基づいて、形状の特徴を表現するベクトルである潜在ベクトルを第1学習済みモデルから出力させ、前記潜在ベクトルに対応する形状の座標の集合を第2学習済みモデルから生成させ、前記潜在ベクトルと、前記座標の集合とに基づいて、前記形状の特徴量の分布を前記第2学習済みモデルにより推定する処理を実行させる。
【0015】
本開示の第5態様によれば、形状に対する特徴量の分布を、CAE計算を一からやり直さなくても求めることが出来る。
【発明の効果】
【0016】
本開示によれば、従来技術と比較してCAE計算に掛ける時間をより少なくすることが可能な情報処理装置を提供することができる。
【図面の簡単な説明】
【0017】
図1】開示の技術の実施形態に係る情報処理装置の構成例を示す図である。
図2】学習フェーズにおける情報処理装置の具体的な構成例を示す図である。
図3】エンコーダ部の具体的な構成例を示す図である。
図4】デコーダ部の具体的な構成例を示す図である。
図5】分布推定部の具体的な構成例を示す図である。
図6】推論フェーズにおける情報処理装置の具体的な構成例を示す図である。
【発明を実施するための形態】
【0018】
以下、本開示の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一または等価な構成要素および部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
【0019】
図1は、本実施形態に係る情報処理装置の構成例を示す図である。図1に示した情報処理装置10は、深層学習を適用し、三次元形状に対する特徴量分布及び性能値を高速に計算する装置である。情報処理装置10は、CPU11がエンコーダ部101、デコーダ部102、分布推定部103、潜在ベクトル推定部104、性能値推定部105、及び提示部106として機能する。なお、特徴量とは、圧力、流力等の値である。
【0020】
CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12またはストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12またはストレージ14に記録されているプログラムにしたがって、上記各構成の制御および各種の演算処理を行う。本実施形態では、ROM12またはストレージ14には、深層学習を適用し、三次元形状に対する特徴量分布及び性能値を高速に計算する情報処理を実行する情報処理プログラムが格納されている。
【0021】
ROM12は、各種プログラムおよび各種データを格納する。RAM13は、作業領域として一時的にプログラムまたはデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)、SSD(Solid State Drive)またはフラッシュメモリ等の記憶装置により構成され、オペレーティングシステムを含む各種プログラム、および各種データを格納する。
【0022】
上記の情報処理プログラムを実行する際に、情報処理装置10は、上記のハードウェア資源を用いて、各種の機能を実現する。情報処理装置10が実現する機能構成について説明する。
【0023】
図1に示すように、情報処理装置10は、機能構成として、エンコーダ部101、デコーダ部102、分布推定部103、潜在ベクトル推定部104、性能値推定部105、及び提示部106を有する。各機能構成は、CPU11がROM12またはストレージ14に記憶された情報処理プログラムを読み出し、実行することにより実現される。
【0024】
エンコーダ部101は、対象とする三次元形状の特徴を表現する潜在ベクトルzを、学習済みモデルを用いて生成する。デコーダ部102は、エンコーダ部101が生成した潜在ベクトルzから、対象とする三次元形状を、学習済みモデルを用いて復元する。エンコーダ部101とデコーダ102とは、変分オートエンコーダを成し、変分オートエンコーダに特徴量分布の推定を行うニューラルネットワークを接続することで、情報処理装置10は三次元形状と特徴量分布とを同時に学習できる。
【0025】
分布推定部103は、三次元形状の特徴量分布を、学習済みモデルを用いて推定する。潜在ベクトル推定部104は、対象の三次元形状の形状パラメータから潜在ベクトルを、学習済みモデルを用いて推定する。性能値推定部105は、対象となる三次元形状の性能値を、学習済みモデルを用いて推定する。提示部106は、性能値推定部105が推定した三次元形状の性能値を提示する。提示部106は、例えばGUI(Graphical User Interface)の形式で、性能値推定部105が推定した三次元形状の性能値を提示する。
【0026】
情報処理装置10は、三次元形状の頂点の座標の集合を入力として、各頂点の特徴量の集合を出力とするモデルを学習し、学習結果を用いて、三次元形状の頂点の座標の集合をモデルに入力し、三次元形状の性能値をモデルから出力させることを特徴とする。以下、情報処理装置10の具体的な構成について説明する。
【0027】
(学習フェーズ)
まず、学習フェーズにおける情報処理装置10の具体的な構成について説明する。図2は、学習フェーズにおける情報処理装置10の具体的な構成例を示す図である。以下の説明では、数式において、記号(例えば、X)上に“~”が付された文字を、以下では、~X等として表す場合がある。
【0028】
エンコーダ部101は、任意の三次元形状の頂点座標の集合{xi=1,2,3,・・・,Nを入力とし、形状の特徴を表現する潜在ベクトルzを出力とするエンコーダNNqφ(z|x)である。なお、NNはNeural Networkである。
【0029】
デコーダ部102は、潜在ベクトルzを入力とし、三次元形状の頂点座標の集合{~xi=1,2,3,・・・,Nを出力とするデコーダNNpθ(x|z)である。
【0030】
分布推定部103は、任意の三次元形状の頂点座標の集合{xi=1,2,3,・・・,N及び、当該三次元形状の潜在ベクトルzの組を入力とし、各頂点xの特徴量{~yi=1,2,3,・・・,Nを出力とするニューラルネットワークfη(x,z)である。
【0031】
潜在ベクトル推定部104は、CADソフト等で形状を生成する際に使用される、三次元形状の形状パラメータvを入力とし、当該三次元形状の潜在ベクトルzを出力とする回帰モデルg(v)である。
【0032】
性能値推定部105は、三次元形状の潜在ベクトルzを入力とし、当該三次元形状の性能値eを出力とする回帰モデルh(z)である。
【0033】
これらの各部のうち、エンコーダ部101、デコーダ部102及び分布推定部103は、1つのニューラルネットワークで構成され、潜在ベクトル推定部104及び性能値推定部105は、それぞれ独立した回帰モデルである。
【0034】
図3は、エンコーダ部101の具体的な構成例を示す図である。エンコーダ部101は、任意の三次元形状の頂点座標の集合{xi=1,2,3,・・・,Nの各要素に対し、多層パーセプトロンMLP1を作用させて、各点ごとの特徴ベクトルx´=MLP1(x)を求める。各点ごとの特徴ベクトルの集合を{x´i=1,2,3,・・・,Nとする。多層パーセプトロンMLP1の構成は、入力層数3、出力層数64,隠れ層数64,128,128,256である。
【0035】
次にエンコーダ部101は、特徴ベクトルの集合を{x´i=1,2,3,・・・,Nの要素の平均値を求め、ベクトルz´とする。
【0036】
【数1】
【0037】
次にエンコーダ部101は、ベクトルz´に対して、2つの多層パーセプトロンMLP2、MLP3を作用させ、それぞれの出力をベクトルρ,μとする。多層パーセプトロンMLP2,MLP3の構成は、入力層数64、出力層数64,隠れ層数128である。
このベクトルσ,μと、各要素を標準正規分布N(0,1)に従って得られる乱数値とするベクトルεとを併せて、潜在ベクトルzを、
z=σ*ε+μ
として求める。なお演算子*は要素積を表す。
【0038】
各多層パーセプトロンは、隠れ層の数をMとした場合、以下のように与えられる。
【0039】
【数2】
【0040】
上記数式において、ξはi番目の層のベクトル、FCはi番目の層を入力とし、(i+1)番目の層へ出力する全結合層、LayerNormはレイヤー正規化層(Layer Normalization)、GELUはガウス誤差線形ユニット(Gaussian Error Linear Unit)である。
【0041】
図4は、デコーダ部102の具体的な構成例を示す図である。デコーダ部102は、潜在ベクトルzに対し、多層パーセプトロンMLP4を作用させて、3N個の要素を持つベクトル~Xを求める。多層パーセプトロンMLP4の構成は、入力層数64、出力層数3N,隠れ層数256,256である。多層パーセプトロンMLP4は、上記数式のように与えられる。
【0042】
続いてデコーダ部102は、ベクトル~XをN×3個の行列に並び替え(reshape)、行それぞれを形状の頂点座標~xとして、三次元形状の頂点座標の集合{~xi=1,2,3,・・・,Nを求める。
【0043】
図5は、分布推定部103の具体的な構成例を示す図である。分布推定部103は、任意の三次元形状の頂点座標の集合{xi=1,2,3,・・・,Nの各要素に対し、デコーダ部102で求めた潜在ベクトルzを結合し、集合{(x,z)}i=1,2,3,・・・,Nを作成する。続いて分布推定部103は、集合{(x,z)}i=1,2,3,・・・,Nの各要素に対し、多層パーセプトロンMLP5を作用させ、その出力を~yとし、座標xに対する特徴量とする。多層パーセプトロンMLP5の構成は、推定する特徴量の次元をdとすると、入力層数67、出力層数d,隠れ層数512,256,256である。
【0044】
学習フェーズでは、情報処理装置10は、これらの各部の関数のパラメータを、予め用意した教師データを用いて決定する。すなわち、頂点座標の集合{x}、CAE計算等によって得られた特徴量の集合{y}、形状パラメータv、CAE計算等によって得られた形状に対する性能値eの組を教師データとして、各部の関数のパラメータを決定する。
【0045】
学習フェーズでは、まず、損失関数Lossを最小とする深層学習を行って、エンコーダ部101の関数qφ、デコーダ部102の関数pθ、分布推定部103の関数fηを決定する。
【0046】
【数3】
【0047】
上記数式において、DKLはKullback-Leiblerダイバージェンス、pは標準正規分布、w,wは非負の実数である。
【0048】
続いて、形状パラメータvから、エンコーダ部101の関数qφから得られる潜在ベクトルzを求める関数g(v)を回帰モデルで求める。また、エンコーダ部101の関数qφから得られる潜在ベクトルzから性能値eを求める関数h(e)を回帰モデルで求める。
【0049】
情報処理装置10は、学習フェーズにおいて上述したように各部の関数を決定することで、形状パラメータvから性能値eを推論することが可能になる。
【0050】
(推論フェーズ)
次に、推論フェーズにおける情報処理装置10の具体的な構成について説明する。図6は、推論フェーズにおける情報処理装置10の具体的な構成例を示す図である。推論フェーズでは、情報処理装置10は、学習フェーズで得られたデコーダ部102,分布推定部103、潜在ベクトル推定部104及び性能値推定部105を用いて、形状パラメータvから三次元形状の頂点の座標の集合{~xi=1,2,3,・・・,N、各頂点に対応する特徴量の集合{~yi=1,2,3,・・・,N、及び性能値eを求める。
【0051】
情報処理装置10は、外部から形状パラメータvを取得し、潜在ベクトル推定部104に入力することで、潜在ベクトルzを求める。続いて情報処理装置10は、求めた潜在ベクトルzをデコーダ部102に入力し、三次元形状の頂点の座標の集合{~xi=1,2,3,・・・,Nを求める。
【0052】
続いて情報処理装置10は、求めた座標の集合{~xi=1,2,3,・・・,Nの各要素と潜在ベクトルzとを結合し、分布推定部103に入力することで、各頂点に対応する特徴量の集合{~yi=1,2,3,・・・,Nを求める。また情報処理装置10は、求めた潜在ベクトルzを性能値推定部105に入力し、性能値eを求める。
【0053】
情報処理装置10は、このように動作することで、物体の形状パラメータvを変えた場合に、その形状パラメータを有する物体の特性がどのように変化するのかを推測することができる。
【0054】
なお、本実施形態では、学習フェーズと推論フェーズとで同一の情報処理装置10を用いていたが、本開示は係る例に限定されない。学習フェーズと推論フェーズとで異なる装置が用いられてもよい。すなわち、学習フェーズにおいて学習されたモデルを別の装置で使用することで物体の特性を推論してもよい。また情報処理装置10の機能は、1以上のコンピュータによって実装されてよい。また情報処理装置10の少なくとも一部の機能は、仮想マシンによって実装されてよい。また情報処理装置10の機能の少なくとも一部は、クラウドコンピューティングで実装されてよい。
【0055】
CAE計算を用いた特徴量の分布や性能値を求める手法では、決められた形状パラメータの範囲の形状であっても、一からCAE計算をやり直す必要があった。本実施形態に係る情報処理装置10は、エンコーダ部101による潜在ベクトルの計算と、デコーダ部102による潜在ベクトルに基づいた形状生成により、類似の形状や、2つの形状の中間の形状を生成することが出来る。また本実施形態に係る情報処理装置10は、生成した新しい形状に対する特徴量の分布や性能値を、CAE計算を一からやり直さなくても、分布推定部103や性能値推定部105により求めることが出来る。また本実施形態に係る情報処理装置10は、形状パラメータと潜在ベクトルとを対応付けることによって、形状パラメータに対応した形状を生成せず済むので、性能値等を高速に求めることを可能とする。
【0056】
本実施形態に係る情報処理装置10は、エンコーダ部101、デコーダ部102及び分布推定部103を併せて1つのニューラルネットワークとして機械学習を行っている。このネットワーク構造は、エンコーダ部101とデコーダ部102とからなる形状に対する変分オートエンコーダモデルに分布推定部103を結合した構造である。変分オートエンコーダモデルだけの場合、形状の情報のみが潜在ベクトルに含まれる。これに対して本実施形態では、分布推定部103を加えることで、形状の情報に加えて特徴量の分布の情報も含まれる。従って、本実施形態に係る情報処理装置10は、特徴量の分布に関連した性能値などの量の推定精度を向上させることが出来る。
【0057】
本実施形態に係る情報処理装置10は、エンコーダ部101、デコーダ部102及び分布推定部103の各多層パーセプトロンの正規化層にレイヤー正規化層を採用している。正規化層としてはバッチ正規化層が一般的に用いられるが、バッチ正規化層は複数のデータを1つのデータとして正規化するため、学習には大きなメモリを持った計算環境が必要となる。これに対してレイヤー正規化層は、データ毎に正規化を行うため、計算資源が乏しい環境であっても、3Dデータのような大きなデータを使用した学習が可能となる。またバッチ正規化層に比べ、レイヤー正規化を採用することで、本実施形態に係る情報処理装置10は、精度の良い学習が可能となる。
【0058】
なお、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した情報処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、情報処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
【0059】
また、上記各実施形態では、情報処理のプログラムがROMまたはストレージに予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的(non-transitory)記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【符号の説明】
【0060】
10 情報処理装置
101 エンコーダ部
102 デコーダ部
103 分布推定部
104 潜在ベクトル推定部
105 性能値推定部
106 提示部
図1
図2
図3
図4
図5
図6