(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022160741
(43)【公開日】2022-10-20
(54)【発明の名称】データ処理装置、データ処理システム及びデータ処理方法
(51)【国際特許分類】
G06T 7/00 20170101AFI20221013BHJP
【FI】
G06T7/00 350C
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2021065113
(22)【出願日】2021-04-07
(71)【出願人】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】110001933
【氏名又は名称】特許業務法人 佐野特許事務所
(72)【発明者】
【氏名】片山 雄喜
(72)【発明者】
【氏名】岡田 康貴
(72)【発明者】
【氏名】関 竜介
(72)【発明者】
【氏名】広見 怜
(72)【発明者】
【氏名】荻島 葵
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096FA60
5L096HA11
5L096JA03
5L096JA11
5L096KA04
5L096MA07
(57)【要約】
【課題】ハイパーパラメータ最適化の計算コストを低減する。
【解決手段】複数の入力画像を含む画像データセットを用いてニューラルネットワークの機械学習を実行することにより推論モデルを作成し、推論モデルを用いた推論により各入力画像の特徴量を導出する(S12及びS13)。特徴量の導出結果に基づき複数の入力画像のクラスタリングを行い、得られたクラスタごとに当該クラスタに属する特徴量の中から代表特徴量を抽出する(S14及びS15)。画像データセットに対するニューラルネットワークのハイパーパラメータを調整するための調整処理を実行する(S16)。代表特徴量と調整処理後のハイパーパラメータに関する調整結果情報とを含む組データをデータベースに格納する(S17)。
【選択図】
図7
【特許請求の範囲】
【請求項1】
複数の入力画像を含む画像データセットの供給を受け、前記画像データセットを用いてニューラルネットワークの機械学習を実行することで所定の推論を行う推論モデルを作成する機械学習処理、前記推論モデルを用いた前記推論により各入力画像の特徴量を導出する特徴量導出処理、前記特徴量導出処理の導出結果に基づき前記複数の入力画像のクラスタリングを行うクラスタリング処理、及び、前記クラスタリングにより得られたクラスタごとに当該クラスタに属する特徴量の中から代表特徴量を抽出する代表特徴量抽出処理を実行する処理部と、
前記画像データセットに対する前記ニューラルネットワークのハイパーパラメータを調整するための調整処理を実行するハイパーパラメータ調整部と、
前記代表特徴量抽出処理にて抽出された前記代表特徴量と前記調整処理後のハイパーパラメータに関する調整結果情報とを含む組データを、所定のデータベースに格納する記録制御部と、を備えた
、データ処理装置。
【請求項2】
前記ハイパーパラメータ調整部は、前記調整処理において、前記画像データセットに対する前記推論の精度を最適化するための前記ニューラルネットワークのハイパーパラメータを探索し、
前記ハイパーパラメータは複数種類のハイパーパラメータから成り、
前記調整結果情報は、前記複数種類のハイパーパラメータの内、前記推論の精度向上に寄与したハイパーパラメータの種類を特定するとともに、前記推論の精度の最適化のために、特定された種類のハイパーパラメータがとるべき状態を特定する
、請求項1に記載のデータ処理装置。
【請求項3】
複数の第1画像データセットの夫々に対して、前記機械学習処理、前記特徴量導出処理、前記クラスタリング処理、前記代表特徴量抽出処理及び前記調整処理が実行されることで、前記複数の第1画像データセットに対応する複数の組データが前記データベースに格納されているデータ格納状態において、前記処理部に対して他の複数の入力画像を含む第2画像データセットが供給されたとき、
前記処理部は、前記第2画像データセットに対して前記機械学習処理、前記特徴量導出処理、前記クラスタリング処理、及び、前記代表特徴量抽出処理を実行し、
前記ハイパーパラメータ調整部は、前記第2画像データセットについて抽出された前記代表特徴量と、前記データベースにおける各組データ中の前記代表特徴量とに基づき、前記複数の組データの何れかの調整結果情報を前記第2画像データセットに対する事前情報として選択し、前記事前情報に基づき前記第2画像データセットに対する前記調整処理を実行する
、請求項1又は2に記載のデータ処理装置。
【請求項4】
前記処理部は、前記代表特徴量抽出処理において、前記クラスタリングにより得られたクラスタごとに、当該クラスタに属する全特徴量の重心を導出して当該クラスタに属する全特徴量の中から前記重心に最も近い特徴量を前記代表特徴量として抽出し、
前記ハイパーパラメータ調整部は、前記データ格納状態において、前記第2画像データセットについて抽出された前記代表特徴量と、前記データベースにおける各組データ中の前記代表特徴量との類似度に基づき、前記複数の組データの何れかの調整結果情報を前記事前情報として選択する
、請求項3に記載のデータ処理装置。
【請求項5】
前記ハイパーパラメータ調整部は、前記データ格納状態において、前記複数の組データの内、前記類似度が最大となる組データ中の調整結果情報を前記事前情報として選択する
、請求項4に記載のデータ処理装置。
【請求項6】
請求項3~5の何れかに記載のデータ処理装置と、
前記データ処理装置における前記ニューラルネットワークとは別のニューラルネットワークを有する電子機器と、を備え、
前記電子機器は、前記第2画像データセットに対する前記調整処理後のハイパーパラメータを前記別のニューラルネットワークに適用し、前記別のニューラルネットワークに対して車両に設置されたカメラの撮影画像を入力する
、データ処理システム
【請求項7】
複数の入力画像を含む画像データセットの供給を受け、前記画像データセットを用いてニューラルネットワークの機械学習を実行することで所定の推論を行う推論モデルを作成する機械学習処理、前記推論モデルを用いた前記推論により各入力画像の特徴量を導出する特徴量導出処理、前記特徴量導出処理の導出結果に基づき前記複数の入力画像のクラスタリングを行うクラスタリング処理、及び、前記クラスタリングにより得られたクラスタごとに当該クラスタに属する特徴量の中から代表特徴量を抽出する代表特徴量抽出処理を実行する処理ステップと、
前記画像データセットに対する前記ニューラルネットワークのハイパーパラメータを調整するための調整処理を実行するハイパーパラメータ調整ステップと、
前記代表特徴量抽出処理にて抽出された前記代表特徴量と前記調整処理後のハイパーパラメータに関する調整結果情報とを含む組データを、所定のデータベースに格納する記録制御ステップと、を備えた
、データ処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、データ処理装置、データ処理システム及びデータ処理方法に関する。
【背景技術】
【0002】
機械学習を用いた画像認識(物体分類、物体検出等)では、良いモデルを構築するために学習時にハイパーパラメータの調整が必要となる。ハイパーパラメータは、データセットやモデル構造に依存して、効果的(モデル精度向上にとっての効果的)な値や種類が変化することが知られているが、その関係性は不明点が多い。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ハイパーパラメータの最適化方法として、グリッドサーチ、ランダムサーチ、ベイズサーチ(ベイズ推定を用いた最適値探索)などが知られているが、ハイパーパラメータの最適化には一般的に多くの計算コスト(計算に必要な時間及び電力等)が必要である。
【0005】
本発明は、ハイパーパラメータの計算コストの低減に寄与するデータ処理装置、データ処理システム及びデータ処理方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明に係るデータ処理装置は、複数の入力画像を含む画像データセットの供給を受け、前記画像データセットを用いてニューラルネットワークの機械学習を実行することで所定の推論を行う推論モデルを作成する機械学習処理、前記推論モデルを用いた前記推論により各入力画像の特徴量を導出する特徴量導出処理、前記特徴量導出処理の導出結果に基づき前記複数の入力画像のクラスタリングを行うクラスタリング処理、及び、前記クラスタリングにより得られたクラスタごとに当該クラスタに属する特徴量の中から代表特徴量を抽出する代表特徴量抽出処理を実行する処理部と、前記画像データセットに対する前記ニューラルネットワークのハイパーパラメータを調整するための調整処理を実行するハイパーパラメータ調整部と、前記代表特徴量抽出処理にて抽出された前記代表特徴量と前記調整処理後のハイパーパラメータに関する調整結果情報とを含む組データを、所定のデータベースに格納する記録制御部と、を備えた構成(第1の構成)である。
【0007】
上記第1の構成に係るデータ処理装置において、 前記ハイパーパラメータ調整部は、前記調整処理において、前記画像データセットに対する前記推論の精度を最適化するための前記ニューラルネットワークのハイパーパラメータを探索し、前記ハイパーパラメータは複数種類のハイパーパラメータから成り、前記調整結果情報は、前記複数種類のハイパーパラメータの内、前記推論の精度向上に寄与したハイパーパラメータの種類を特定するとともに、前記推論の精度の最適化のために、特定された種類のハイパーパラメータがとるべき状態を特定する構成(第2の構成)であっても良い。
【0008】
上記第1又は第2の構成に係るデータ処理装置において、複数の第1画像データセットの夫々に対して、前記機械学習処理、前記特徴量導出処理、前記クラスタリング処理、前記代表特徴量抽出処理及び前記調整処理が実行されることで、前記複数の第1画像データセットに対応する複数の組データが前記データベースに格納されているデータ格納状態において、前記処理部に対して他の複数の入力画像を含む第2画像データセットが供給されたとき、前記処理部は、前記第2画像データセットに対して前記機械学習処理、前記特徴量導出処理、前記クラスタリング処理、及び、前記代表特徴量抽出処理を実行し、前記ハイパーパラメータ調整部は、前記第2画像データセットについて抽出された前記代表特徴量と、前記データベースにおける各組データ中の前記代表特徴量とに基づき、前記複数の組データの何れかの調整結果情報を前記第2画像データセットに対する事前情報として選択し、前記事前情報に基づき前記第2画像データセットに対する前記調整処理を実行する構成(第3の構成)であっても良い。
【0009】
上記第3の構成に係るデータ処理装置において、前記処理部は、前記代表特徴量抽出処理において、前記クラスタリングにより得られたクラスタごとに、当該クラスタに属する全特徴量の重心を導出して当該クラスタに属する全特徴量の中から前記重心に最も近い特徴量を前記代表特徴量として抽出し、前記ハイパーパラメータ調整部は、前記データ格納状態において、前記第2画像データセットについて抽出された前記代表特徴量と、前記データベースにおける各組データ中の前記代表特徴量との類似度に基づき、前記複数の組データの何れかの調整結果情報を前記事前情報として選択する構成(第4の構成)であっても良い。
【0010】
上記第4の構成に係るデータ処理装置において、前記ハイパーパラメータ調整部は、前記データ格納状態において、前記複数の組データの内、前記類似度が最大となる組データ中の調整結果情報を前記事前情報として選択する構成(第5の構成)であっても良い。
【0011】
本発明に係るデータ処理システムは、上記第3~第5の構成の何れかに係るデータ処理装置と、前記データ処理装置における前記ニューラルネットワークとは別のニューラルネットワークを有する電子機器と、を備え、前記電子機器は、前記第2画像データセットに対する前記調整処理後のハイパーパラメータを前記別のニューラルネットワークに適用し、前記別のニューラルネットワークに対して車両に設置されたカメラの撮影画像を入力する構成(第6の構成)である。
【0012】
本発明に係るデータ処理方法は、複数の入力画像を含む画像データセットの供給を受け、前記画像データセットを用いてニューラルネットワークの機械学習を実行することで所定の推論を行う推論モデルを作成する機械学習処理、前記推論モデルを用いた前記推論により各入力画像の特徴量を導出する特徴量導出処理、前記特徴量導出処理の導出結果に基づき前記複数の入力画像のクラスタリングを行うクラスタリング処理、及び、前記クラスタリングにより得られたクラスタごとに当該クラスタに属する特徴量の中から代表特徴量を抽出する代表特徴量抽出処理を実行する処理ステップと、前記画像データセットに対する前記ニューラルネットワークのハイパーパラメータを調整するための調整処理を実行するハイパーパラメータ調整ステップと、前記代表特徴量抽出処理にて抽出された前記代表特徴量と前記調整処理後のハイパーパラメータに関する調整結果情報とを含む組データを、所定のデータベースに格納する記録制御ステップと、を備えた構成(第7の構成)である。
【発明の効果】
【0013】
本発明によれば、ハイパーパラメータの計算コストの低減に寄与するデータ処理装置、データ処理システム及びデータ処理方法を提供することが可能となる。
【図面の簡単な説明】
【0014】
【
図1】本発明の実施形態に係るデータ処理装置の構成図である。
【
図2】本発明の実施形態に係り、元画像と入力画像との関係図である。
【
図3】本発明の実施形態に係り、画像データセットの構成図である。
【
図4】本発明の実施形態に係り、複数の特徴量が2つのクラスタにグループ分けされる様子を示す図である。
【
図5】本発明の実施形態に係り、組データの構成図である。
【
図6】本発明の実施形態に係り、データ処理装置の動作フローチャートである。
【
図7】本発明の実施形態に属する第1実施例に係り、蓄積工程のフローチャートである。
【
図8】本発明の実施形態に属する第1実施例に係り、蓄積工程を経た後のデータべースの状態を示す図である。
【
図9】本発明の実施形態に属する第1実施例に係り、蓄積結果参照工程のフローチャートである。
【
図10】本発明の実施形態に属する第1実施例に係り、異なる2つの画像データセット間における代表特徴量の関係を示す図である。
【
図11】本発明の実施形態に属する第1実施例に係り、ハイパーパラメータとモデル精度との関係を示す図である。
【
図12】本発明の実施形態に属する第2実施例に係り、データ処理システムの構成図である。
【
図13】本発明の実施形態に属する第2実施例に係り、電子機器が車両に搭載される様子を示す図である。
【発明を実施するための形態】
【0015】
以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。尚、本明細書では、記述の簡略化上、情報、信号、物理量又は部材等を参照する記号又は符号を記すことによって、該記号又は符号に対応する情報、信号、物理量又は部材等の名称を省略又は略記することがある。例えば、後述の“60”によって参照されるハイパーパラメータ調整部は(
図1参照)、ハイパーパラメータ調整部60と表記されることもあるし、調整部60と略記されることもあり得るが、それらは全て同じものを指す。
【0016】
図1に本実施形態に係るデータ処理装置1の構成図を示す。データ処理装置1は、画像データセット取得部10、機械学習処理部20、推論部30、クラスタリング処理部40、代表特徴量抽出部50、ハイパーパラメータ調整部60、記録制御部70及びデータベース80を備える。尚、データ処理装置1は単一のコンピュータ装置にて構成されても良いし、物理的に分離した複数のコンピュータ装置にて構成されても良い。所謂クラウドコンピューティングを利用してデータ処理装置1が構成されても良い。
【0017】
画像データセット取得部10は、ラベル付けされた複数の入力画像を含む画像データセットを取得する。画像データセット取得部10は、1以上の物体を含む元画像内に1つの物体を含む物体領域を設定し、各物体領域内の画像を切り出すことで入力画像を生成する。
図2の画像610は入力画像の元となる元画像の例である。元画像は、例えば、自動車等の車両に搭載されたドライブレコーダによって撮影された画像や、ドライブレコーダによって撮影された画像の中から選ばれた多数の静止画像である。静止画像には、動画像のフレームが含まれる。入力画像の画像データに対し当該入力画像に含まれる物体のクラスを表すクラス情報を付加したデータが、複数、画像データセットに含まれる。或る物体の物体領域は、当該物体の像を取り囲む矩形領域(望ましくは最小の矩形領域)であって、バウンディングボックスとも称される。また、クラス情報はラベルとも称される。
【0018】
尚、本実施形態では、或る画像内に物体の画像データが含まれることを、当該画像に当該物体が含まれる又は存在すると表現することがある。同様に、或る画像中の注目した画像領域(例えば後述の物体領域)内に物体の画像データが含まれることを、注目した画像領域に物体が含まれる又は存在すると表現することがある。本実施形態において物体とは、データ処理装置1による画像認識の対象となる認識対象物体を指す。
【0019】
元画像610には3つの物体611~613が含まれている。物体611、612、613は、夫々、車両、人間、交通標識である。取得部10は、元画像610に、物体611を含む物体領域611B、物体612を含む物体領域612B及び物体613を含む物体領域613Bを設定し、元画像610から物体領域611B~613Bを切り出すことで入力画像621~623を生成する。このような元画像が多数用意されることで多数の入力画像が取得される。
【0020】
物体のクラスは物体の種別と同義であり、データ処理装置1で扱われる物体のクラスとして第1~第mクラスがあるものとする。mは2以上の任意の整数である。例えば、第1クラスが車両であって第2クラスが人間である場合、物体領域611Bに対応する入力画像621に対して付加されるクラス情報は第1クラスを表し、物体領域612Bに対応する入力画像622に対して付加されるクラス情報は第2クラスを表す。他の入力画像についても同様である。
【0021】
図3に示す如く、任意の画像データセットである画像データセットDSは、第1入力画像の画像データD
1と第1入力画像に含まれる物体のクラスを表すクラス情報C
1との組と、第2入力画像の画像データD
2と第2入力画像に含まれる物体のクラスを表すクラス情報C
2との組と、第3入力画像の画像データD
3と第3入力画像に含まれる物体のクラスを表すクラス情報C
3との組と、・・・、第n入力画像の画像データD
nと第n入力画像に含まれる物体のクラスを表すクラス情報C
nとの組と、を含む。nは2以上の任意の整数であり、例えば数100以上の値を持つ。
【0022】
データ処理装置1の管理者により所定のマンマシンインターフェース(不図示)を通じて与えられた操作情報に基づき、各元画像に対し物体領域が設定され且つ各物体領域のクラス情報の指定が行われて良い。或いは、取得部10が物体検出処理を実行することで取得部10自体が各物体領域の設定及び各物体領域のクラス情報の取得を行っても良い。また、取得部10は、単に、データ処理装置1と異なる外部装置(不図示)から有線又は無線通信を通じ、予め作成された画像データセットDSの入力を受けるものであっても良い。取得部10にて取得された画像データセットDSはデータ処理装置1内の各構成部位にて自由に参照可能とされる。
【0023】
機械学習処理部20は、ニューラルネットワーク21(以下、NN21と称する)を有し、機械学習処理を実行する。機械学習処理部20は、機械学習処理において、画像データセットDSを用いてNN21の機械学習を実行することにより所定の推論を行う推論モデルを作成する。ここにおける機械学習は深層学習に分類されるものであって良く、従って、NN21はディープニューラルネットワークであって良い。機械学習が行われる前のNN21は有益な推論を行う機能を有さないが、機械学習の中でNN21のパラメータ(重み及びバイアス)が適正に設定される。パラメータ(重み及びバイアス)が適正に設定された後のNN21が推論モデルに相当する。尚、機械学習の中で機械学習処理部20により設定されるパラメータ(重み及びバイアス)を、後述のハイパーパラメータと明確に区別するべく、以下、学習パラメータと称することがある。
【0024】
推論部30は推論モデルを用いて所定の推論を行う。NN21は画像分類用のニューラルネットワークであり、故に推論モデルにおける推論は画像分類用の推論である。即ち、推論部30は、物体を含む入力画像が与えられたとき、推論において、当該入力画像に含まれる物体のクラスを特定(判別)するクラス識別を行う。この際、推論部30は、クラス識別の実現に有益な特徴量を当該入力画像から導出する特徴量導出処理を実行し、特徴量に基づき当該入力画像に含まれる物体のクラスを特定(判別)する。特徴量は多次元のベクトル量であって、特徴量ベクトルと読み替えても良い。特徴量導出処理及び推論を入力画像ごとに行うことができる。
【0025】
クラスタリング処理部40は特徴量導出処理の結果に基づくクラスタリング処理を実行する。即ち、クラスタリング処理において、クラスタリング処理部40は、画像データセットDS内の各入力画像に対して導出された特徴量に基づき、当該画像データセットDSにおける複数の入力画像(即ち第1~第n入力画像)のクラスタリングを行う。クラスタリングは、画像データセットDS内の複数の入力画像について導出された複数の特徴量間の距離に基づき実行される。特徴量間の距離は、特徴量が定義される特徴空間上の距離であって、例えば、ユークリッド距離又はコサイン類似度である。クラスタリング処理により、画像データセットDS内において、類似した特徴量を持つ入力画像同士が共通のクラスタに分類される。
【0026】
クラスタリングの方法として階層型クラスタリングを用いて良い。但し、非階層型クラスタリング(k平均法など)によりクラスタリングを行っても良い。ここでは、データ処理装置1で扱われる物体のクラスとして第1~第mクラスを想定しているため、画像データセットDSに対するクラスタリングにより当該画像データセットDSにおける複数の入力画像(即ち第1~第n入力画像)がm個のクラスタにグループ分けされるものとする。
【0027】
代表特徴量抽出部50は、クラスタリング処理により得られたクラスタごとに当該クラスタに属する特徴量の中から代表特徴量を抽出する代表特徴量抽出処理を実行する。この際、抽出部50は、クラスタリング(クラスタリング処理)により得られたクラスタごとに、当該クラスタ内に属する全特徴量の重心を導出し、当該クラスタ内の全特徴量の内、重心に最も近い特徴量を代表特徴量として抽出する。
【0028】
図4を参照して代表特徴量抽出処理の具体例を説明する。
図4の例では、“m=2”且つ“n=9”であることが想定されている。画像データセットDSを構成する第1~第9入力画像の夫々に対し特徴量導出処理が実行されることで第1~第9入力画像に対する第1~第9特徴量として特徴量671~679が導出される。
図4は、特徴量671~679を特徴空間上にプロットした様子を示す概念図である。実際には、各特徴量は多次元ベクトル量であるが、
図4では各特徴量が二次元ベクトル量であるかのように示している。特徴量が特徴空間にプロットされる様子を示す後述の他の図においても同様である。
【0029】
尚、以下では、任意の自然数u及びvについて、第u入力画像が第vクラスタに分類される又は属することを、第u特徴量が第vクラスタに分類される又は属すると表現することもある。即ち、第u入力画像が第vクラスタに分類される又は属することを、第u特徴量が第vクラスタに分類される又は属することは等価である。
【0030】
図4において、破線楕円650は第1クラスタに対応する境界線を示し、破線楕円660は第2クラスタに対応する境界線を示す。特徴空間において、破線楕円650内に位置する特徴量671~675は第1クラスタに属し、故に特徴量671~675に対応する第1~第5入力画像は第1クラスタに分類される。特徴空間において、破線楕円660内に位置する特徴量676~679は第2クラスタに属し、故に特徴量676~679に対応する第6~第9入力画像は第2クラスタに分類される。
【0031】
図4において、点G1は第1クラスタに属する全特徴量671~675の重心を表し、点G2は第2クラスタに属する全特徴量676~679の重心を表す。
図4の例において、第1クラスタの全特徴量671~675の内、重心G1に最も近い特徴量は特徴量673であり、第2クラスタの全特徴量676~679の内、重心G2に最も近い特徴量は特徴量677である。このため、第1クラスタにおける代表特徴量として特徴量673が抽出され、第2クラスタにおける代表特徴量として特徴量677が抽出される。
【0032】
図1を再度参照し、パイパーパラメータ調整部60は、画像データセットDSに対してNN21のパイパーパラメータを調整するための調整処理を実行する。調整処理における調整は、推論モデルとしてのNN21のモデル精度を向上させるための、パイパーパラメータの調整である。調整処理では、画像データセットDSに対するモデル精度を最適化(換言すれば最大化)するためのパイパーパラメータを探索して調整する。このため、ここにおける調整処理はハイパーパラメータ最適化処理とも称される。モデル精度とは推論モデルとしてのNN21が行う推論の精度を指す。ここでは、推論モデルにより画像分類用の推論が行われるので、モデル精度(即ち推論の精度)は正解率(accuracy)にて表される。
【0033】
ハイパーパラメータとして複数種類のハイパーパラメータがある。複数種類のハイパーパラメータは、NN21の層数、ドロップアウト率、バッチサイズ及びエポック数などである。ここでは、説明の具体化のため、調整処理での調整の対象となるハイパーパラメータの種類として第1~第20種類があるものとする。
【0034】
パイパーパラメータ調整部60は、ベイズ推定(ベイズ最適化)を用いて調整処理を実行することにより、モデル精度を最適化(換言すれば最大化)するために第1~第20種類のハイパーパラメータがとるべき状態(以下、最適状態と称する)を探索し且つ特定する。幾つかの種類のハイパーパラメータ(以下、ハイパーパラメータHP_TYPEAと称する)は連続値又は離散値などの値を持ち、モデル精度を最適化するときのハイパーパラメータHP_TYPEAはモデル精度を最適化させる値(以下、最適値と称する)を持つ。ハイパーパラメータHP_TYPEAに関しては、最適値が上記の最適状態に相当する。値によって定義されないハイパーパラメータ(以下、ハイパーパラメータHP_TYPEBと称する)もある。例えば、ハイパーパラメータHP_TYPEBの一種は、複数の選択肢の何れかを取り得るパラメータである。この場合、モデル精度を最適化するときのハイパーパラメータHP_TYPEBは、上記複数の選択肢の内、モデル精度を最適化させる選択肢(以下、最適選択肢と称する)をとり、このハイパーパラメータHP_TYPEBに関しては、最適選択肢が上記の最適状態に相当する。この他、値又は選択肢にて表現できない状態をとるハイパーパラメータもあり得る。
【0035】
但し、以下では、説明の具体化のため、第1~第20種類のハイパーパラメータが、ハイパーパラメータHP_TYPEAの如く、値によって表現されるハイパーパラメータであると考える。そうすると、調整処理(ハイパーパラメータ最適化処理)において、モデル精度を最適化するための、第1~第20種類のハイパーパラメータの各最適値が探索及び特定されることになる。即ち、調整処理におけるパイパーパラメータの探索とは、各種類のハイパーパラメータの最適値(最適状態)を探索及び特定することを意味する。
【0036】
NN21に限らず、ニューラルネットワークに対するハイパーパラメータは、データセットやモデル構造に依存して、効果的(モデル精度向上にとっての効果的)な値や種類が変化することが知られているが、その関係性は不明点が多い。調整の対象となるハイパーパラメータの種類として第1~第20種類があったとしても、実際にモデル精度向上に寄与するものは、その一部の種類のみであることが多い。
【0037】
パイパーパラメータ調整部60は、画像データセットDSに対する調整処理の完了後、調整処理後のハイパーパラメータに関する調整結果情報を作成する。調整結果情報は、第1~第20種類のハイパーパラメータの内、モデル精度の向上に寄与したハイパーパラメータの種類を特定するHP種類情報と、特定された種類のハイパーパラメータの最適値を表すHP最適値情報と、を含む(
図5参照)。
【0038】
例えば、調整処理において、第1~第20種類のハイパーパラメータの内、第1~第5種類のハイパーパラメータのみがモデル精度の向上に寄与したのであれば、調整結果情報は、第1~第5種類のハイパーパラメータを特定するHP種類情報と、第1~第5種類のハイパーパラメータの最適値を表すHP最適値情報と、を含む。
【0039】
或る種類のハイパーパラメータがモデル精度の向上に寄与するとは、当該種類のハイパーパラメータの値を変化させることでモデル精度が変化し、故に、当該種類のハイパーパラメータに最適値を持たせることで当該種類のハイパーパラメータに最適値以外の値を持たせる場合よりもモデル精度が向上することを意味する。或る種類のハイパーパラメータがモデル精度の向上に寄与したか否かの判別方法は公知であるので詳細な説明は割愛するが、例えば当該判別方法としてファンクショナルアノーバによる方法を利用することができる。
【0040】
記録制御部70は、代表特徴量抽出処理の結果及び調整処理の結果に基づく組データを作成し、作成した組データをデータベース80に格納する(換言すればデータベース80に記録する)。
【0041】
図5に組データの構造を示す。組データは、画像データセットDSに対する代表特徴量データと調整結果情報とを含む。調整結果情報については上述した通りである。代表特徴量データは、画像データセットDSに対して設定されたクラスタごとの代表特徴量を含む。従って、
図4の例の如く、画像データセットDSに対して第1及び第2クラスタが設定されたのであれば、第1クラスタの代表特徴量(
図4の例において特徴量673)と第2クラスタの代表特徴量(
図4の例において特徴量677)とを表すデータが代表特徴量データとして組データに含められる。
【0042】
データベース80は、不揮発性の記録媒体から成り、記録制御部70の制御の下で任意の情報及びデータを記録できる。また、データ処理装置1における各構成要素は、データベース80の記録内容を任意に読み出すことができる。磁気ディスク、光ディスク若しくは半導体メモリ、又は、それらの組み合わせにてデータベース80を構成することができる。尚、データベース80はデータ処理装置1の外部に設けられた外部記録装置であっても良い。
【0043】
多くの機械学習装置では、事前情報を持たずにベイズ推定によりハイパーパラメータの最適化が図られる。ハイパーパラメータの最適化には一般的に多くの計算コスト(計算に必要な時間及び電力等)が必要である。これに鑑み、本実施形態では、端的に述べれば以下のような方法を採用する。即ち、画像データセットごとにクラスタの特徴量と、それに対応する最適なパイパーパラメータを記録しておく(組データの記録に相当)。そして、記録された特徴量に似た特徴量を持つ別の画像データセットが与えられたときには、ハイパーパラメータの最適化時に、過去に記録されたパイパーパラメータの情報を参照して事前情報を得ることで、ハイパーパラメータの最適化のための計算コストを低減させる。
【0044】
このような方法を実現するにあたり、
図6に示す如く、データ処理装置1は、まずステップS1の蓄積工程を実施し、その後にステップS3の蓄積結果参照工程を実施する。各各工程の詳細は後述される。
【0045】
以下、複数の実施例の中で、データ処理装置1に関わる具体的な動作例、応用技術、変形技術等を説明する。本実施形態にて上述した事項は、特に記述無き限り且つ矛盾無き限り、以下の各実施例に適用される。各実施例において、上述の事項と矛盾する事項がある場合には、各実施例での記載が優先されて良い。また矛盾無き限り、以下に示す複数の実施例の内、任意の実施例に記載した事項を、他の任意の実施例に適用することもできる(即ち複数の実施例の内の任意の2以上の実施例を組み合わせることも可能である)。
【0046】
<<第1実施例>>
第1実施例を説明する。
図7に第1実施例に係る蓄積工程のフローチャートを示す。
図7の蓄積工程を
図6のステップS1にて行うことができる。
図7の蓄積工程はステップS10~S18の処理から成る。
図7の蓄積工程では、まずステップS10にてデータ処理装置1により管理される変数iに“1”が代入される。その後、ステップS11に進み、画像データセットDSに対してステップS11~S17の処理を順次実行する一連の動作を、P回分、繰り返し行う。これにより、互いに異なる第1~第Pの画像データセットDSの夫々に対してステップS11~S17の処理が実行される。Pは2以上の任意の整数である。第iの画像データセットDSは特に画像データセットDS[i]と称される。尚、画像データセットDSを構成する入力画像の枚数は、互いに異なる任意の画像データセットDS間で、互いに異なり得る。以下、ステップS11~S17の処理について説明する。
【0047】
ステップS11において、画像データセット取得部10により画像データセットDS[i]が取得される。
【0048】
続くステップS12において、機械学習処理部20は、画像データセットDS[i]を用いてNN21の機械学習を行う機械学習処理が実行し、これによって所定の推論を行う推論モデルを作成する。画像データセットDS[i]を用いて作成された推論モデルを特に推論モデルMDL[i]と称する。ステップS12における機械学習処理では、各種類のハイパーパラメータは予め定められた初期値を持つものとする。ステップS12の機械学習処理は、例えば、画像データセットDS[i]に対する推論モデルMDL[i]の推論の正解率が所定閾値以上となるまで継続される。
【0049】
その後、ステップS13において、推論部30は、画像データセットDS[i]に対して、推論モデルMDL[i]による推論を実行する。即ち、推論部30は、画像データセットDS[i]を構成する入力画像ごとに当該入力画像に含まれる物体のクラスを特定(判別)するクラス識別を行う。この推論の過程で、推論部30は、画像データセットDS[i]を構成する入力画像ごとに、特徴量導出処理により特徴量を導出する。
【0050】
続くステップS14において、クラスタリング処理部40は画像データセットDS[i]に対してクラスタリング処理を実行する。クラスタリング処理において、クラスタリング処理部40は、画像データセットDS[i]内の各入力画像に対して導出された特徴量に基づき当該画像データセットDS[i]における複数の入力画像のクラスタリングを行う。
【0051】
続くステップS15において、代表特徴量抽出部50は画像データセットDS[i]に対して代表特徴量抽出処理を実行する。代表特徴量抽出処理において、代表特徴量抽出部50は、ステップS14のクラスタリング処理により得られたクラスタごとに当該クラスタに属する特徴量の中から代表特徴量を抽出する。クラスタリング処理により、画像データセットDS[i]を構成する複数の入力画像がM個のクラスタにてグループ分けされることで画像データセットDS[i]に対し第1~第Mクラスタが設定されたものとする(Mは2以上の任意の整数)。画像データセットDS[i]に関する第1~第Mクラスタの代表特徴量を、夫々、代表特徴量RFT1[i]~RFTM[i]と称する。
【0052】
続くステップS16において、ハイパーパラメータ調整部60は画像データセットDS[i]に対して調整処理(ハイパーパラメータ最適化処理)を実行する。調整処理において、ハイパーパラメータ調整部60は、ベイズ推定を用い、画像データセットDS[i]に対する推論モデルMDL[i]のモデル精度を最適化(換言すれば最大化)するためのパイパーパラメータを探索する。即ち、画像データセットDS[i]に対する各種類のハイパーパラメータの最適値(最適状態)を探索する。この探索により上述の調整結果情報(
図5参照)が得られる。画像データセットDS[i]に対する調整結果情報を特に調整結果情報AR[i]と称する。
【0053】
続くステップS17において、記録制御部70は画像データセットDS[i]に対する組データGD[i]を作成してデータベース80に格納する。組データGD[i]は、ステップS15にて得られた代表特徴量RFT1[i]~RFTM[i]と、ステップS16にて得られた調整結果情報AR[i]と、を含む。
【0054】
ステップS17の処理の後、ステップS18にて変数iに“1”が加算されてからステップS11に戻り、ステップS11以降の各処理が繰り返される。従って、1回目のステップS11~S17の処理により画像データセットDS[1]に対する組データGD[1]が生成されてデータベース80に格納され、2回目のステップS11~S17の処理により画像データセットDS[2]に対する組データGD[2]が生成されてデータベース80に格納される。3回目以降のステップS11~S17の処理についても同様である。
【0055】
図8に示す如く、ステップS11~S17の処理がP回繰り返された後には(即ち画像データセットDS[1]~DS[P]の夫々に対しステップS11~S17の処理が実行された後には)、データベース80に組データGD[1]~GD[P]が格納されている。
【0056】
図9に蓄積結果参照工程のフローチャートを示す。
図9の蓄積結果参照工程を
図6のステップS3にて行うことができる。データベース80に組データGD[1]~GD[P]が格納されている状態で
図9に蓄積結果参照工程が実施される。上述したようにPは2以上の任意の整数である。
図9に蓄積結果参照工程では、ステップS31~S39の処理が順次実行される。
【0057】
ステップS31において、画像データセット取得部10により画像データセットDS[P+1]が取得される。画像データセットDS[P+1]は、蓄積工程で取り扱われた画像データセットDS[1]~DS[P](複数の第1画像データセット)の何れとも異なる新たな画像データセットDS(第2画像データセット)である。画像データセットDS[1]~DS[P+1]の内の任意の2つの画像データセットについて、画像データセットを構成する複数の入力画像は、当該2つの画像データセット間で異なる(但し部分的に共通する入力画像が存在している場合もあり得る)。
【0058】
続くステップS32において、機械学習処理部20は、画像データセットDS[P+1]を用いてNN21の機械学習を行う機械学習処理が実行し、これによって所定の推論を行う推論モデルを作成する。画像データセットDS[P+1]を用いて作成された推論モデルを特に推論モデルMDL[P+1]と称する。ステップS32における機械学習処理では、各種類のハイパーパラメータは予め定められた初期値を持つものとする。ステップS32の機械学習処理は、例えば、画像データセットDS[P+1]に対する推論モデルMDL[P+1]の推論の正解率が所定閾値以上となるまで継続される。
【0059】
その後、ステップS33において、推論部30は、画像データセットDS[P+1]に対して、推論モデルMDL[P+1]による推論を実行する。即ち、推論部30は、画像データセットDS[P+1]を構成する入力画像ごとに当該入力画像に含まれる物体のクラスを特定(判別)するクラス識別を行う。この推論の過程で、推論部30は、画像データセットDS[P+1]を構成する入力画像ごとに、特徴量導出処理により特徴量を導出する。
【0060】
続くステップS34において、クラスタリング処理部40は画像データセットDS[P+1]に対してクラスタリング処理を実行する。クラスタリング処理において、クラスタリング処理部40は、画像データセットDS[P+1]内の各入力画像に対して導出された特徴量に基づき当該画像データセットDS[P+1]における複数の入力画像のクラスタリングを行う。
【0061】
続くステップS35において、代表特徴量抽出部50は画像データセットDS[P+1]に対して代表特徴量抽出処理を実行する。代表特徴量抽出処理において、代表特徴量抽出部50は、ステップS34のクラスタリング処理により得られたクラスタごとに当該クラスタに属する特徴量の中から代表特徴量を抽出する。クラスタリング処理により、画像データセットDS[P+1]を構成する複数の入力画像がM個のクラスタにてグループ分けされることで画像データセットDS[P+1]に対し第1~第Mクラスタが設定されたものとする(Mは2以上の任意の整数)。画像データセットDS[P+1]に関する第1~第Mクラスタの代表特徴量を、夫々、代表特徴量RFT1[P+1]~RFTM[P+1]と称する。
【0062】
続くステップS36において、ハイパーパラメータ調整部60は、データベース80の記憶内容を参照して、画像データセットDS[P+1]に対する各代表特徴量と画像データセットDS[1]~DS[P]に対する各代表特徴量との類似度を導出する。画像データセットDS[P+1]に対する各代表特徴量と画像データセットDS[i]に対する各代表特徴量(即ち組データGD[i]中の各代表特徴量)との類似度を特に類似度SD[i]と称する(iは整数)。そうすると、ステップS36において類似度SD[1]~SD[P]が導出される。
【0063】
特徴空間において、代表特徴量RFT1[P+1]~RFTM[P+1]の分布と代表特徴量RFT1[i]~RFTM[i]の分布とが類似しているほど類似度SD[i]が高くなる。
【0064】
類似度SD[i]の具体的な導出方法例を説明する。説明の具体化及び簡略化のため、全ての画像データセットについて“m=M=2”であるとする。
図10は、画像データセットDS[i]に対する代表特徴量RFT
1[i]及びRFT
2[i]と、画像データセットDS[P+1]に対する代表特徴量RFT
1[P+1]及びRFT
2[P+1]と、を共通の特徴空間にプロットしたものである。
【0065】
調整部60は、特徴空間において、代表特徴量RFT
1[i]及びRFT
2[i]の内、代表特徴量RFT
1[P+1]に近い方を第1対比特徴量(
図10ではRFT
1[i])として特定し、第1対比特徴量と代表特徴量RFT
1[P+1]との距離d1を求める。加えて、調整部60は、特徴空間において、代表特徴量RFT
1[i]及びRFT
2[i]の内、第1対比特徴量と異なる特徴量を第2対比特徴量(
図10ではRFT
2[i])として特定し、第2対比特徴量と代表特徴量RFT
2[P+1]との距離d2を求める。距離d1が減少するほど類似度SD[i]が大きくなり、且つ、距離d2が減少するほど類似度SD[i]が大きくなる。例えば、“SD[i]=1-RMS”に従って類似度SD[i]を求めて良い。RMSは距離d1及びd2の二乗平均平方根を表す。
【0066】
そして、ステップS36において、調整部60は、類似度SD[1]~SD[P]に基づき、データベース80内の組データGD[1]~GD[P]の何れかの調整結果情報を画像データセットDS[P+1]に対する事前情報として選択する。具体的には、類似度SD[1]~SD[P]の内の最大の類似度に対応する組データ中の調査結果情報を画像データセットDS[P+1]に対する事前情報として選択する。故に例えば、類似度SD[1]~SD[P]の内、類似度SD[1]が最大であれば調査結果情報AR[1]が事前情報として選択され、類似度SD[2]が最大であれば調査結果情報AR[2]が事前情報として選択される。他の類似度が最大である場合も同様である。
【0067】
ステップS36の後、ステップS37において、調整部60は、事前情報を基準に画像データセットDS[P+1]に対して調整処理(ハイパーパラメータ最適化処理)を実行する。ステップS37の調整処理において、調整部60は、画像データセットDS[P+1]に対する推論モデルMDL[P+1]のモデル精度を最適化(換言すれば最大化)するためのパイパーパラメータを探索する。即ち、画像データセットDS[P+1]に対する各種類のハイパーパラメータの最適値(最適状態)を探索する。この際、事前情報を基準にベイズ推定による調整処理を行うことで調整処理を短時間で完了できることが期待される。
【0068】
具体化のため、事前情報が調査結果情報AR[2]であると仮定してステップS37の処理方法につき説明を加える。調査結果情報AR[2]には、画像データセットDS[2]に対するHP種類情報及びHP最適値情報が含まれる(
図5参照)。調査結果情報AR[2]において、HP種類情報は、画像データセットDS[2]に基づく推論モデルMDL[2]のモデル精度の向上に寄与したハイパーパラメータの種類を特定する。調査結果情報AR[2]において、HP最適値情報は、HP種類情報により特定された種類のハイパーパラメータの最適値を表す。
【0069】
今、調査結果情報AR[2]において、HP種類情報が第1~第5種類のハイパーパラメータのみを特定しているケース(以下、ケースαと称する)を考える。また、ケースαにおいて、調査結果情報AR[2]のHP最適値情報により示される、第1~第5種類のハイパーパラメータの最適値を、夫々、最適値V[2,1]~V[2,5]と称する。ケースαに係るステップS37では、事前情報として以下の第1及び第2事前情報を有した状態で、ベイズ推定を利用した調整処理(ハイパーパラメータ最適化処理)が実行される。第1事前情報は、第1~第5種類のハイパーパラメータが推論モデルMDL[P+1]のモデル精度の向上に寄与するハイパーパラメータであること又は第1~第5種類のハイパーパラメータが推論モデルMDL[P+1]のモデル精度の向上に寄与するハイパーパラメータである可能性が高いことを示す。第2事前情報は、推論モデルMDL[P+1]にとっての第1~第5種類のハイパーパラメータの最適値は夫々最適値V[2,1]~V[2,5]と一致するか或いは最適値V[2,1]~V[2,5]に近いことを示す。
【0070】
第1及び第2事前情報を有した状態でのベイズ推定による調整処理では、例えば、まず第1~第5種類のハイパーパラメータに夫々最適値V[2,1]~V[2,5]を持たせた状態で推論モデルMDL[P+1]のモデル精度(正解率等)を観測する。その後、第1~第5種類のハイパーパラメータを夫々最適値V[2,1]~V[2,5]の近辺で変化させることで、推論モデルMDL[P+1]のモデル精度を最大化させる第1~第5種類のハイパーパラメータの値を探索する。そして、探索された値、即ち、推論モデルMDL[P+1]のモデル精度を最大化させる第1~第5種類のハイパーパラメータの値(5つの値)を、画像データセットDS[P+1]に対する第1~第5種類のハイパーパラメータの最適値として取得する。
【0071】
ケースαに係るステップS37の調整処理において、第6~第20種類のハイパーパラメータの値を初期値で固定しておく方法MTD1を採用して良い。方法MTD1の採用時には、当該初期値が画像データセットDS[P+1]に対する第6~第20種類のハイパーパラメータの最適値として取り扱われる。或いは、第6~第20種類のハイパーパラメータの夫々も変化させて推論モデルMDL[P+1]のモデル精度(正解率等)を観測することで、推論モデルMDL[P+1]のモデル精度を最大化させる第6~第20種類のハイパーパラメータの値(15個の値)を探索する方法MTD2が採用されても構わない。方法MTD2の採用時には、方法MTD2で探索された値(15個の値)が推論モデルMDL[P+1]のモデル精度を最大化させる第6~第20種類のハイパーパラメータの最適値として取り扱われる。調整処理の計算コスト低減の観点からすれば方法MTD1の方が方法MTD2よりも優れる。
【0072】
図11に、ケースαにおける第1種類のハイパーパラメータと推論モデルMDL[P+1]のモデル精度(正解率等)との関係を概略的に示す。
図11において実線曲線710は上記関係を示す関数を表す。当該関数の全体像を得るためには、第1種類のハイパーパラメータがとり得る値の全範囲711で第1種類のハイパーパラメータを変化させながら、逐次、推論モデルMDL[P+1]のモデル精度を観測しなければならない。ケースαに係るステップS37では、事前情報を元に第1種類のハイパーパラメータの探索範囲を、画像データセットDS[2]に対する最適値V[2,1]を基準とする範囲712に制限し、探索範囲712内で画像データセットDS[P+1]に対する第1種類のハイパーパラメータの最適値を探索する。探索範囲712は、ケースαに係るステップ37の調整処理において第1種類のハイパーパラメータの値を変化させる範囲に相当し、例えば、最適値V[2,1]を中心とし且つ一定の数値幅を持つ範囲であって良い。探索範囲712は上記の全範囲711よりも小さい。
図11では、説明及び図示の簡略化上、第1種類のハイパーパラメータのみが注目されているが、第2~第5種類のハイパーパラメータも同様であり、実際には多次元の探索が行われる。
【0073】
調整がモデル精度向上にとって効果的に働くハイパラメータの種類及び値はデータセット等に依存する。このため例えば、画像データセットDS[2]から抽出される代表特徴量と画像データセットDS[P+1]から抽出される代表特徴量との類似度が高いのであれば、画像データセットDS[2]にとって効果的なハイパラメータの種類及び値が、画像データセットDS[P+1]にも当てはまると予想される。故に、画像データセットDS[2]の調整結果情報AR[2]を事前情報として用いて事前情報を基準に画像データセットDS[P+1]に対する調整処理(ハイパーパラメータ最適化処理)を実行すれば、当該調整処理を短時間で完了できると期待される。調整結果情報AR[2]以外の調査結果情報が事前情報として選択される場合も同様である。
【0074】
図9を再度参照する。ステップS37における調整処理においても調整結果情報(
図5参照)が得られる。画像データセットDS[P+1]に対する調整結果情報を特に調整結果情報AR[P+1]と称する。ステップS37に続くステップS38において、記録制御部70は、画像データセットDS[P+1]に対する組データGD[P+1]を作成してデータベース80に格納する。組データGD[P+1]は、ステップS35にて得られた代表特徴量RFT
1[P+1]~RFT
M[P+1]と、ステップS37にて得られた調整結果情報AR[P+1]と、を含む。その後、ステップS39にて変数Pに“1”が加算されてからステップS31に戻る。
【0075】
従って例えば、“P=10”の状態で1回目のステップS31~S38の各処理が実行されたとしたならば、2回目のステップS31~S38では“P=11”の状態で各処理が実行されることになる。故に、1回目のステップS31~S38と比べて、2回目のステップS31~S38の方が、事前情報の候補が1つ分増加する。結果、ステップS31~S38から成る一連の処理が繰り返されるごとに事前情報の候補が増えてゆき、上記計算コストの低下の程度及び可能性が高まってゆくことが期待される。
【0076】
上述の蓄積工程の如く、画像データセットに対する代表特徴量と、当該画像データセットに対するハイパーパラメータの最適化情報ともいうべき調整結果情報と、を組データとしてデータベース80に格納しておく。これにより、新たな画像データセット(DS[P+1])に対してハイパーパラメータの調整処理(最適化処理)が必要となったときに、当該調整処理の計算コストを、データベース80内の情報を参照して低減することが可能となる。
【0077】
蓄積工程を経た上述の蓄積結果参照工程によれば、新たな画像データセット(DS[P+1])に対するハイパーパラメータの調整処理(最適化処理)の計算コストを、実際に、データベース80内の情報を参照して低減することができる。
【0078】
尚、データ処理装置1は、ハードウェアとして、演算処理装置であるCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ROM(Read only memory)及びRAM(Random access memory)等を備える。データ処理装置1は、ROMに格納されたプログラム又は他の装置から通信を通じて取得されたプログラムをCPUにて実行することにより、データ処理装置1の各機能を実現して良く、故に上述の蓄積工程及び蓄積結果参照工程を実施できて良い。
【0079】
データ処理装置1により実行される処理の一部または全部は、ソフトウェアおよびハードウェアの混在処理により実現しても良い。前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本実施形態の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体は、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、大容量DVD、次世代DVD、半導体メモリである。
【0080】
<<第2実施例>>
第2実施例を説明する。第2実施例は第1実施例と組み合わせて実施される。
図12は、第2実施例に係るデータ処理システム(推論システム)SYSの全体構成図である。データ処理システムSYSは、上述のデータ処理装置1と電子機器2を構成される。電子機器2は、カメラ210、制御部220及び通信部230を備える。
【0081】
図13に示す如く、ここでは、電子機器2が車両CRに搭載されることを想定する。車両CRは任意の車両であって良いが、主として、路上を走行可能な自動車が車両CRとして想定される。この場合、電子機器2は車両CRに搭載されたドライブレコーダ又はカーナビゲーションシステムの構成要素であって良い。カメラ210はドライブレコーダのカメラであっても良いし、カーナビゲーションシステムに組み込まれるカメラであっても良い。カメラ210は車両CRに設置され、車両CRの外部の風景(例えば車両CRの前方又は後方)の撮影を行う。カメラ210は所定のフレームレートで順次撮影を行い、カメラ210の撮影画像の画像データは制御部220に送られる。
【0082】
通信部230は、所定の通信網に接続され、電子機器2と異なり且つ所定の通信網に接続された他の任意の相手側装置と、双方向通信を行う。相手側装置にデータ処理装置1が含まれていて良い。通信網は移動体通信網及びインターネットを含む。
【0083】
電子機器2は車両CRに固定的に搭載された車載装置であっても良いし、車両CRに対して着脱任意に搭載された車載装置であっても良い。電子機器2はスマートホン又はタブレット等に分類される携帯型情報端末であっても良い。但し、何れにせよ、ここでは、カメラ210が車両の外部の風景の撮影を行い得るよう、電子機器2(従ってカメラ210)が車両CRに設置されるものとする。
【0084】
制御部220は、
図1の機械学習処理部20及び推論部30と同等の機械学習処理部及び推論部を備える。制御部220における機械学習処理部は、データ処理装置1におけるNN21(
図1参照)と同様のニューラルネットワーク221(以下、NN221と称する)を有し、第1実施例で述べた機械学習処理と同様の機械学習処理をNN221に対して実行することができる。故に、制御部220は、任意の画像データセットを用いてNN21の機械学習を実行することにより所定の推論を行う推論モデルを作成できて良く、作成した推論モデルを用いて所定の推論を行ってよい。
【0085】
ここにおける機械学習は深層学習に分類されるものであって良く、従って、NN221はディープニューラルネットワークであって良い。機械学習前のNN221は有益な推論を行う機能を有さないが、機械学習の中でNN221のパラメータ(重み及びバイアス)が適正に設定される。パラメータ(重み及びバイアス)が適正に設定された後のNN221が推論モデルに相当する。
【0086】
推論モデルとして機能するNN221のハイパーパラメータとして、データ処理装置1にて調整処理が成された後のハイパーパラメータを用いることができる。即ち例えば、
図9のステップS37の調整処理により探索された、画像データセットDS[P+1]に対する各種類のハイパーパラメータの最適値を、NN221の各種類のハイパーパラメータの値として用いることができる。換言すれば、NN221を、ステップS37の調整処理後のNN21と同等のものにして良い。制御部220は、画像データセットDS[P+1]に対する各種類のハイパーパラメータの最適値を、通信部230を用いてデータ処理装置1から受信して良い。
【0087】
推論モデルとして機能するNN221に対してカメラ210の撮影画像が入力され、NN221はカメラ210の撮影画像に対して所定の推論を行って推論結果を出力する。制御部220にて行われる推論は、当該撮影画像に含まれる物体のクラスを特定(判別)するクラス識別を含む。カメラ210の撮影画像には1以上の物体が含まれることが多い。制御部220は、カメラ210の撮影画像に含まれる物体ごとに物体を含む物体領域(バウンディングボックス)を当該撮影画像内に設定する機能を有して良く、各物体領域の画像に対してクラス識別を行うことができる。制御部220は、物体領域の設定内容及びクラス識別の結果を用いて車両CRの運転支援又は自動運転等を実現して良い。
【0088】
データ処理システムSYSによれば、車両CRで用いられるニューラルネットワークのハイパーパラメータの調整(最適化)を、低い計算コストで実現することが可能となる。
【0089】
尚、制御部220は、ハードウェアとして、演算処理装置であるCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ROM(Read only memory)及びRAM(Random access memory)等を備える。制御部220は、ROMに格納されたプログラム又は他の装置から通信を通じて取得されたプログラムをCPUにて実行することにより、制御部220の各機能を実現して良い。
【0090】
<<第3実施例>>
第3実施例を説明する。第3実施例では、上述した事項に対する応用技術、変形技術又は補足事項等を説明する。
【0091】
データ処理装置1で実行されると上述した処理及び動作を、データ処理装置1及び電子機器2の協働により実現するようにしても良い。この場合、例えば、第1実施例における蓄積工程及び蓄積結果参照工程の内、一部がデータ処理装置1にて行われ、残部が電子機器2にて行われる。
【0092】
尚、データ処理装置1自体が車載装置(車両CRに搭載される装置)であっても構わない。車両(例えば放送中継車)によっては、豊富な計算資源を有する車載装置が設置されることもあり、この場合においては特にデータ処理装置1自体を車載装置とすることも可能である。
【0093】
パイパーパラメータ調整部60は、ベイズ推定以外のアルゴリズムを用いて調整処理を実行しても良い。例えば、進化計算又は強化学習を用いて調整処理(ハイパーパラメータ最適化処理)を実行しても良い。
【0094】
図1のデータ処理装置1には処理部が内包される。当該処理部は、機械学習処理部20、推論部30、クラスタリング処理部40及び代表特徴量抽出部50を内包する機能ブロックであって、画像データセットDSの供給を受けて、機械学習処理、特徴量導出処理、クラスタリング処理及び代表特徴量抽出処理を実行できる。
【0095】
本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
【符号の説明】
【0096】
1 データ処理装置
10 画像データセット取得部
20 機械学習処理部
30 推論部
40 クラスタリング処理部
50 代表特徴量抽出部
60 ハイパーパラメータ調整部
70 記録制御部
80 データベース