IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社デンソーの特許一覧 ▶ トヨタ自動車株式会社の特許一覧 ▶ 株式会社ミライズテクノロジーズの特許一覧

特開2024-153149情報処理装置、機械学習用システム、および機械学習用プログラム
<>
  • 特開-情報処理装置、機械学習用システム、および機械学習用プログラム 図1
  • 特開-情報処理装置、機械学習用システム、および機械学習用プログラム 図2
  • 特開-情報処理装置、機械学習用システム、および機械学習用プログラム 図3
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024153149
(43)【公開日】2024-10-29
(54)【発明の名称】情報処理装置、機械学習用システム、および機械学習用プログラム
(51)【国際特許分類】
   G06N 3/084 20230101AFI20241022BHJP
【FI】
G06N3/084
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023066863
(22)【出願日】2023-04-17
(71)【出願人】
【識別番号】000004260
【氏名又は名称】株式会社デンソー
(71)【出願人】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(71)【出願人】
【識別番号】520124752
【氏名又は名称】株式会社ミライズテクノロジーズ
(74)【代理人】
【識別番号】110000028
【氏名又は名称】弁理士法人明成国際特許事務所
(72)【発明者】
【氏名】佐々木 広器
(72)【発明者】
【氏名】大矢 晃示
(57)【要約】
【課題】比較的大きいノード数を処理する場合に、学習効率の低下と消費電力の増加とを抑制できる情報処理装置を提供する。
【解決手段】情報処理装置100,101は、畳み込み計算を実行するCPUとGPUとNPUとのうちのいずれか1つの第1プロセッサ10と、組み合わせ最適化を実行するイジングマシン30と、損失関数の計算を実行するCPUである第2プロセッサ20と、を備える。
【選択図】図1
【特許請求の範囲】
【請求項1】
情報処理装置(100,101)であって、
畳み込み計算を実行するCPUとGPUとNPUとのうちのいずれか1つの第1プロセッサ(10)と、
組み合わせ最適化を実行するイジングマシン(30)と、
損失関数の計算を実行するCPUである第2プロセッサ(20)と、
を備える、情報処理装置。
【請求項2】
請求項1に記載の情報処理装置において、
前記第1プロセッサと、前記イジングマシンと、前記第2プロセッサと、で共通に使用可能な共有メモリを更に備え、
前記イジングマシンは、古典イジングマシン(31)である、情報処理装置。
【請求項3】
請求項1に記載の情報処理装置において、
前記イジングマシンは、量子イジングマシンである、情報処理装置。
【請求項4】
請求項1から請求項3までのいずれか一項に記載の情報処理装置において、
前記情報処理装置は、Detection Transformerの演算に用いられ、
前記損失関数は、前記Detection TransformerにおけるHungarian Lossであり、
前記イジングマシンは、前記Hungarian LossにおけるLmatchの演算を実行する、
情報処理装置。
【請求項5】
請求項4に記載の情報処理装置において、
前記Hungarian Lossとして、前記Lmatchを用いる、
情報処理装置。
【請求項6】
請求項5に記載の情報処理装置を備える、機械学習用システム。
【請求項7】
機械学習用プログラムであって、
CPUとGPUとNPUとのうちのいずれか1つの第1プロセッサに畳み込み計算を実行させ、
古典イジングマシンに組み合わせ最適化を実行させ、
CPUである第2プロセッサに損失関数の計算を実行させる、
機械学習用プログラム。
【請求項8】
請求項7に記載の機械学習用プログラムであって、
前記機械学習用プログラムは、Detection Transformerの学習に用いられ、
前記古典イジングマシンは、前記Detection TransformerにおけるLmatchの演算を実行し、
前記Lmatchは、前記Detection TransformerにおけるHungarian Lossとして用いられる、
機械学習用プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、機械学習用システム、および機械学習用プログラムに関する。
【背景技術】
【0002】
画像中の物体検出において、例えば非特許文献1に開示されているように、Detection Transformer(DETR)が知られている。DETRでは、Hungarian Lossを用いて推論結果と正解ラベルとのマッチングを求めている。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Nicolas Carion et al, 'End-to-End Object Detection with Transformers' , Facebook AI.
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、ノード数が増加すると、Hungarian Lossの演算時間は、指数関数的に増加する。このため、比較的大きいノード数を処理する場合に、学習効率が低下し、消費電力が増加する。
【課題を解決するための手段】
【0005】
本開示は、以下の形態として実現することが可能である。
【0006】
本開示の一形態によれば、情報処理装置(100,101)が提供される。この情報処理装置は、畳み込み計算を実行するCPUとGPUとNPUとのうちのいずれか1つの第1プロセッサ(10)と、組み合わせ最適化を実行するイジングマシン(30)と、損失関数の計算を実行するCPUである第2プロセッサ(20)と、を備える。
【0007】
この形態の情報処理装置によれば、組み合わせ最適化を実行するイジングマシンを備えるので、イジングマシンを除いた任意のプロセッサにより組み合わせ最適化の演算を実行する構成と比較して、比較的多いノード数を処理する場合において演算時間を低減できる。これにより、比較的多いノード数を処理する場合において、学習効率を向上させることができ、消費電力を低減できる。
【図面の簡単な説明】
【0008】
図1】本開示の一実施形態としての情報処理装置の機能構成を示すブロック図である。
図2】正解ラベルyによる推論結果y^の選択の一例を示す表である。
図3】第3実施形態における情報処理装置の機能構成を示すブロック図である。
【発明を実施するための形態】
【0009】
A.第1実施形態:
図1に示す情報処理装置100は、Detection Transformer(DETR)による物体検出に用いられる。情報処理装置100は、第1プロセッサ10と、第2プロセッサ20と、イジングマシン30と、を備える。第1プロセッサ10と、第2プロセッサ20と、イジングマシン30とは、内部バス50により互いに通信可能に接続されている。
【0010】
第1プロセッサ10は、画像の特徴量を畳み込み処理により抽出する。抽出された特徴量を用いて特徴マップが生成され、生成された特徴マップはDETRにおけるEncoderに入力される。本実施形態における第1プロセッサ10は、畳み込み処理を実行可能なCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、またはNPU(Neural network Processing Unit)である。
【0011】
第2プロセッサ20は、DETRにおけるDecoderで実行される損失関数の計算を行う。損失関数は、Hungarian Lossとして定義される。Hungarian Lossは、Decoderによる出力と、正解(Ground Truth)のバウンディングボックスおよびクラスラベルと、の一致度合いを評価するために用いられる。Hungarian Lossは、次の手順によって求められる。最初に、以下の(式1)で定義されるLboxを求める。
【0012】
【数1】
【0013】
boxは、予測されたバウンディングボックスと、正解のバウンディングボックスの一致度合を評価するための関数である。上記(式1)で求められたLboxを用いて、以下の(式2)で表されるLmatchを求める。
【0014】
【数2】
【0015】
matchは、予測と正解とのマッチングをしたときに生じるロスを表す。Lmatchは、組み合わせ最適化問題である。Lmatchにおける第1項は、クラスラベルのロスを表し、第2項は、バウンディングボックスの位置のロスを示す。なお、本実施形態におけるLmatchは、後述するイジングマシン30により計算される。詳細については後述する。
【0016】
上記(式2)で示されるLmatchの総和が最小となるようなマッチングパターンσ^を以下の(式3)により求める。
【0017】
【数3】
【0018】
上記(式3)によって得た対応関係の一覧から、最適な予測と正解ラベルのマッチングを以下の(式4)によって表されるHungarian Loss(LHungarian)を計算することにより求める。
【0019】
【数4】
【0020】
得られたHungarian Lossの結果は、物体検出モデルの学習に用いられる。より具体的には、Hungarian Lossを最小化するように、物体検出モデルのパラメータが誤差逆伝播により更新されることで、予測精度の向上が実現される。
【0021】
イジングマシン30は、上記(式2)のLmatchの演算を行う。本実施形態におけるイジングマシン30は、古典イジングマシンである。古典イジングマシンは、古典ビットにより演算を行う情報処理装置である。古典イジングマシンは、例えば周知の古典イジングマシンである株式会社東芝製のSBM(Simulated Bifurcation Machine)や、日本電信電話株式会社製のCIM(Coherent Ising Machine)である。
【0022】
古典イジングマシンは、上記(式2)をそのまま演算することができない。ここで、(式2)をOne-hot制約付きのQUBO(Quadratic Unconstrained Binary Optimization)問題へと変換することで、古典イジングマシンでLmatchを求めることができる。より具体的には、まず、正解ラベルyが、推論結果y^を選択することをQbitにより表現する。正解ラベルyによる推論結果y^の選択は、y^毎にqi,jを用意し、結果を選択した場合にqi,j=1、結果を選択しなかった場合にqi,j=0と表すことができる。このことから、例えば図2に示す表のように、正解ラベルyによる推論結果y^の選択を表現できる。すなわち、正解ラベルyに対応する推論結果y^は、1つであることから、qi,jにはOne-hot制約を課すことができると言え、以下の(式5)が成立する。
【0023】
【数5】
【0024】
以上から、Lmatchを以下の(式6)として表すことができる。
【0025】
【数6】
【0026】
古典イジングマシンは、上記(式6)を演算し、第2プロセッサ20は、演算された(式6)の結果を用いて、Hungarian Lossの演算を実行する。このようにLmatchをQUBO問題として扱うことで、ノード数と演算時間とが線形関係となるので、イジングマシンを除いた任意のプロセッサによりLmatchの演算を実行する構成と比較して、比較的多いノード数を処理する場合において演算時間を低減できる。
【0027】
以上説明した第1実施形態の情報処理装置100によれば、Lmatchの演算を実行するイジングマシン30を備えるので、イジングマシン30を除いた任意のプロセッサによりLmatchの演算を実行する構成と比較して、比較的多いノード数を処理する場合において演算時間を低減できる。これにより、比較的多いノード数を処理する場合において、学習効率を向上させることができ、消費電力を低減できる。
【0028】
B.第2実施形態:
第2実施形態の情報処理装置は、イジングマシン30が量子イジングマシンである点において、第1実施形態の情報処理装置100と異なる。第2実施形態の情報処理装置におけるその他の構成は、第1実施形態の情報処理装置100と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。
【0029】
イジングマシン30は、量子イジングマシンであってもよい。量子イジングマシンは、量子ビットにより演算を行う情報処理装置である。量子イジングマシンは、例えば周知の量子イジングマシンであるD-Wave Systems, Inc.製のQPU(Quantum Processing Unit)である。かかる場合、量子イジングマシンは、上記(式2)で表されるLmatchの演算を実行できるため、第1実施形態で説明したLmatchのQUBO問題への変換は、行われない。すなわち、第2プロセッサ20は、量子イジングマシンが演算した上記(式2)の結果を用いて、Hungarian Lossを算出する。
【0030】
以上説明した第2実施形態の情報処理装置によっても、第1実施形態の情報処理装置100と同様の効果を奏する。
【0031】
C.第3実施形態:
図3に示す第3実施形態の情報処理装置101は、共有メモリ40を更に備える点で、第1実施形態の情報処理装置100と異なる。第3実施形態の情報処理装置101のその他の構成は、第1実施形態の情報処理装置100と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。なお、第3実施形態におけるイジングマシンは、古典イジングマシン31である。
【0032】
共有メモリ40は、第1プロセッサ10と、第2プロセッサ20と、古典イジングマシン31と、内部バス50により通信可能に接続されている。共有メモリ40は、ROM(Read Only Memory)またはRAM(Random Access Memory)である。共有メモリ40は、第1プロセッサ10と、第2プロセッサ20と、古典イジングマシン31と、が共有して使用するメモリである。共有メモリ40を備えることにより、第1プロセッサ10と、第2プロセッサ20
と、古典イジングマシン31と、のそれぞれが個別にメモリを備える構成と比較して、学習速度を向上でき、消費電力を低減できる。
【0033】
以上説明した第3実施形態の情報処理装置101によれば、第1プロセッサ10と、第2プロセッサ20と、古典イジングマシン31と、で共通に使用可能な共有メモリ40を更に備えるので、第1プロセッサ10と、第2プロセッサ20と、古典イジングマシン31と、のそれぞれが個別にメモリを備える構成と比較して、学習速度を向上でき、消費電力を低減できる。
【0034】
D.第4実施形態:
第4実施形態の情報処理装置は、Hungarian Lossの計算方法が第1実施形態の情報処理装置100と異なる。第4実施形態の情報処理装置のその他の構成は、第1実施形態の情報処理装置100と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。
【0035】
第1実施形態の情報処理装置100において、Hungarian Lossは、上記(式4)を第2プロセッサ20が演算することにより求められた。これに対して、第4実施形態の情報処理装置においては、Hungarian Lossとして上記(式6)で表されるLmatchをそのまま用いる。Hungarian LossをLmatchとすることで、第2プロセッサ20におけるHungarian Lossの演算を省略することができる。Lmatchの結果は、物体検出モデルの学習に用いられる。より具体的には、Lmatchを最小化するように、物体検出モデルのパラメータが誤差逆伝播により更新されることで、予測精度の向上が実現される。
【0036】
以上説明した第4実施形態の情報処理装置によれば、Hungarian Lossとして、Lmatchを用いるので、Hungarian Lossの演算を省略できる。これにより、演算時間を低減でき、情報処理装置の消費電力を低減できる。
【0037】
E.他の実施形態:
(E1)上記各実施形態において、情報処理装置100,101は、Detection Transformerによる物体検出に用いられていたが、本開示はこれに限定されない。情報処理装置100,101は、畳み込み計算と組み合わせ最適化問題とを含む任意の手法に用いられてもよい。このような構成においても、組み合わせ最適化問題をイジングマシン30が実行することにより、組み合わせ最適化問題をCPU、GPU、またはNPU等のプロセッサにより実行する構成と比較して、演算時間を低減でき、消費電力を低減できる。
【0038】
(E2)上記各実施形態における情報処理装置は、機械学習用システムのために用いられてもよい。このような機械学習用システムにおいて、イジングマシン30が実行する組み合わせ最適化問題のイジングエネルギーが最小となるように、パラメータが誤差逆伝播により更新される。
【0039】
(E3)本開示に記載の第1プロセッサ10と、第2プロセッサ20と、イジングマシン30と、により実行される機能は、コンピュータプログラムにより実現されてもよい。より具体的には、かかるコンピュータプログラムは機械学習に用いられ、第1プロセッサ10に畳み込み計算を実行させ、古典イジングマシン31に組み合わせ最適化を実行させ、CPUである第2プロセッサ20に損失関数の計算を実行させてもよい。
【0040】
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した形態中の技術的特徴に対応する各実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。本開示は、例えば、コンピュータプログラムを記録した一時的でない記録媒体などの形態で実現することができる。
【符号の説明】
【0041】
10…第1プロセッサ、20…第2プロセッサ、30…イジングマシン、31…古典イジングマシン、40…共有メモリ、50…内部バス、100,101…情報処理装置
図1
図2
図3