IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

特許7586079情報処理方法、情報処理装置、およびプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-11
(45)【発行日】2024-11-19
(54)【発明の名称】情報処理方法、情報処理装置、およびプログラム
(51)【国際特許分類】
   G06N 3/10 20060101AFI20241112BHJP
   G06N 3/0985 20230101ALI20241112BHJP
【FI】
G06N3/10
G06N3/0985
【請求項の数】 19
(21)【出願番号】P 2021533930
(86)(22)【出願日】2020-07-09
(86)【国際出願番号】 JP2020026866
(87)【国際公開番号】W WO2021014986
(87)【国際公開日】2021-01-28
【審査請求日】2023-05-12
(31)【優先権主張番号】P 2019134599
(32)【優先日】2019-07-22
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】100121131
【弁理士】
【氏名又は名称】西川 孝
(74)【代理人】
【氏名又は名称】稲本 義雄
(74)【代理人】
【識別番号】100168686
【弁理士】
【氏名又は名称】三浦 勇介
(72)【発明者】
【氏名】八島 拓也
【審査官】多賀 実
(56)【参考文献】
【文献】国際公開第2019/035364(WO,A1)
【文献】国際公開第2017/154284(WO,A1)
【文献】米国特許第10229356(US,B1)
【文献】GARG, Utsav et al.,"Fabrik: An Online Collaborative Neural Network Editor",arXiv.org [online],arXiv:1810.11649v1,米国,Cornell University,2018年,pp.1-12,[検索日 2020.10.05], インターネット:<https://arxiv.org/pdf/1810.11649v1>
【文献】WISTUBA, Martin et al.,"A Survey on Neural Architecture Search",arXiv.org [online],arXiv:1905.01392v2,米国,Cornell University,2019年06月,pp.1-53,[検索日 2020.10.05], インターネット:<https://arxiv.org/pdf/1905.01392v2>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
(57)【特許請求の範囲】
【請求項1】
情報処理装置が、
ユーザによるタスクの選択を受け付け、
前記タスクの学習に用いられる入力データを取得し、
選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークをデフォルトモデルとして表示し、
前記ニューラルネットワークの構造探索手法の選択肢として、前記タスクと前記入力データに応じた前記構造探索手法を優先的に表示する
情報処理方法。
【請求項2】
前記タスクと前記入力データに加えて、前記情報処理装置のハードウェア情報に応じた構造の前記ニューラルネットワークを前記デフォルトモデルとして表示する
請求項1に記載の情報処理方法。
【請求項3】
前記ハードウェア情報は、プロセッサの処理能力に関する情報である
請求項2に記載の情報処理方法。
【請求項4】
前記ハードウェア情報は、プロセッサの数に関する情報である
請求項2に記載の情報処理方法。
【請求項5】
前記デフォルトモデルとともに、前記デフォルトモデルの探索空間のサイズおよび計算量の少なくともいずれかを表示する
請求項1に記載の情報処理方法。
【請求項6】
前記ユーザによる前記デフォルトモデルの変更を受け付ける
請求項1に記載の情報処理方法。
【請求項7】
前記デフォルトモデルへの演算層の追加を受け付ける
請求項6に記載の情報処理方法。
【請求項8】
前記タスクと前記入力データに加えて、前記情報処理装置のハードウェア情報に応じた前記構造探索手法を優先的に表示する
請求項1から7のいずれかに記載の情報処理方法。
【請求項9】
前記選択肢の中から前記ユーザにより選択された前記構造探索手法の設定の入力を受け付ける
請求項1から7のいずれかに記載の情報処理方法。
【請求項10】
前記選択肢の中から前記ユーザにより選択された前記構造探索手法に応じて、構造探索に要する予測時間を表示する
請求項1から7のいずれかに記載の情報処理方法。
【請求項11】
前記選択肢の中から前記ユーザにより選択された前記構造探索手法に基づいた構造探索を実行し、
探索された構造の前記ニューラルネットワークを表示する
請求項1から7のいずれかに記載の情報処理方法。
【請求項12】
前記ニューラルネットワークにおいて前記ユーザにより選択された演算層を構造探索の対象とする
請求項11に記載の情報処理方法。
【請求項13】
前記ニューラルネットワークに含まれるセルを構造探索の対象とする
請求項11に記載の情報処理方法。
【請求項14】
前記ニューラルネットワークの圧縮手法の選択をさらに受け付ける
請求項1に記載の情報処理方法。
【請求項15】
前記ニューラルネットワークの演算層について、前記ユーザに選択された指標毎に圧縮条件の設定を受け付ける
請求項14に記載の情報処理方法。
【請求項16】
選択された前記圧縮手法での前記ニューラルネットワークの圧縮を実行し、
前記演算層の圧縮結果を表示する
請求項15に記載の情報処理方法。
【請求項17】
前記ユーザに選択された指標について、前記演算層の圧縮率を表示する
請求項16に記載の情報処理方法。
【請求項18】
ユーザによるタスクの選択を受け付ける受付部と、
前記タスクの学習に用いられる入力データを取得する取得部と、
選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークをデフォルトモデルとして表示する表示制御部と
を備え
前記表示制御部は、前記ニューラルネットワークの構造探索手法の選択肢として、前記タスクと前記入力データに応じた前記構造探索手法を優先的に表示する
情報処理装置。
【請求項19】
コンピュータに、
ユーザによるタスクの選択を受け付け、
前記タスクの学習に用いられる入力データを取得し、
選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークをデフォルトモデルとして表示し、
前記ニューラルネットワークの構造探索手法の選択肢として、前記タスクと前記入力データに応じた前記構造探索手法を優先的に表示する
処理を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理方法、情報処理装置、およびプログラムに関し、特に、所望のタスクに対応したニューラルネットワークの設計を容易に行うことができるようにした情報処理方法、情報処理装置、およびプログラムに関する。
【背景技術】
【0002】
従来、深層学習に用いられるニューラルネットワークが知られている。その中で、複数の候補の中から最適解を探索するための種々の手法が提案されている。
【0003】
例えば、特許文献1には、評価済のニューラルネットワークから生成した、ネットワーク構造の異なる別のニューラルネットワークの評価結果に基づいて、評価済のニューラルネットワークの最適解を更新する情報処理装置が開示されている。特許文献1に記載の情報処理方法によれば、環境に応じたネットワーク構造をより効率的に探索することができる。
【0004】
また近年、深層学習に用いられるニューラルネットワーク(深層学習モデル)を設計することなく、入力データとラベルを与えるだけで、画像認識向けの深層学習モデルを自動的に設計してくれるサービスも提供されている。
【先行技術文献】
【特許文献】
【0005】
【文献】国際公開第2017/154284号
【発明の概要】
【発明が解決しようとする課題】
【0006】
深層学習が適用可能なタスクは、画像認識の他、生成モデル、超解像、音声/言語処理など多数存在する。
【0007】
しかしながら、現在提供されているニューラルネットワークの設計手法は、画像認識を目的としたものが主流で、他のタスクに対応したニューラルネットワークの設計を行うことは考えられていなかった。
【0008】
本開示は、このような状況に鑑みてなされたものであり、所望のタスクに対応したニューラルネットワークの設計を容易に行うことができるようにするものである。
【課題を解決するための手段】
【0009】
本開示の情報処理方法は、情報処理装置が、ユーザによるタスクの選択を受け付け、前記タスクの学習に用いられる入力データを取得し、選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークをデフォルトモデルとして表示し、前記ニューラルネットワークの構造探索手法の選択肢として、前記タスクと前記入力データに応じた前記構造探索手法を優先的に表示する情報処理方法である。
【0010】
本開示の情報処理装置は、ユーザによるタスクの選択を受け付ける受付部と、前記タスクの学習に用いられる入力データを取得する取得部と、選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークをデフォルトモデルとして表示する表示制御部とを備え、前記表示制御部が、前記ニューラルネットワークの構造探索手法の選択肢として、前記タスクと前記入力データに応じた前記構造探索手法を優先的に表示する情報処理装置である。
【0011】
本開示のプログラムは、コンピュータに、ユーザによるタスクの選択を受け付け、前記タスクの学習に用いられる入力データを取得し、選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークをデフォルトモデルとして表示し、前記ニューラルネットワークの構造探索手法の選択肢として、前記タスクと前記入力データに応じた前記構造探索手法を優先的に表示する処理を実行させるためのプログラムである。
【0012】
本開示においては、ユーザによるタスクの選択が受け付けられ、前記タスクの学習に用いられる入力データが取得され、選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークがデフォルトモデルとして表示され、前記ニューラルネットワークの構造探索手法の選択肢として、前記タスクと前記入力データに応じた前記構造探索手法が優先的に表示される
【図面の簡単な説明】
【0013】
図1】本開示の実施の形態に係る情報処理システムの構成例を示す図である。
図2】情報処理装置の構成例を示すブロック図である。
図3】制御部の機能構成例を示すブロック図である。
図4】GUIの例を示す図である。
図5】モデルの構造自動探索処理について説明するフローチャートである。
図6】モデルの構造自動探索処理について説明するフローチャートである。
図7】モデルの構造自動探索処理について説明するフローチャートである。
図8】GUIの例を示す図である。
図9】GUIの例を示す図である。
図10】GUIの例を示す図である。
図11】GUIの例を示す図である。
図12】構造探索について設定可能なパラメータの例を示す図である。
図13】構造探索について設定可能なパラメータの例を示す図である。
図14】構造探索について設定可能なパラメータの例を示す図である。
図15】GUIの例を示す図である。
図16】GUIの例を示す図である。
図17】構造探索について設定可能なパラメータの例を示す図である。
図18】GUIの例を示す図である。
図19】GUIの例を示す図である。
図20】GUIの例を示す図である。
図21】モデルの圧縮処理について説明するフローチャートである。
図22】モデルの圧縮処理について説明するフローチャートである。
図23】GUIの例を示す図である。
図24】GUIの例を示す図である。
図25】GUIの例を示す図である。
図26】GUIの例を示す図である。
図27】コンピュータのハードウェア構成例を示すブロック図である。
【発明を実施するための形態】
【0014】
以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
【0015】
1.システムと装置の構成
2.モデルの構造自動探索
3.モデルの圧縮
4.コンピュータの構成例
【0016】
<1.システムと装置の構成>
(情報処理システムの構成例)
図1は、本開示の実施の形態に係る情報処理システムの構成例を示す図である。
【0017】
図1の情報処理システムは、情報処理端末10と情報処理サーバ30から構成される。情報処理端末10と情報処理サーバ30は、互いに通信が行えるように、ネットワーク20を介して接続される。
【0018】
情報処理端末10は、ニューラルネットワークの設計に関するGUI(Graphic User Interface)をユーザに提示するための情報処理装置である。情報処理端末10は、PC(Personal Computer)、スマートフォン、タブレット端末などで構成される。
【0019】
情報処理サーバ30は、情報処理端末10からの要求に応じて、ニューラルネットワークの設計に関する処理を実行したり、ニューラルネットワークの設計に必要なデータを情報処理端末10に供給したりする情報処理装置である。
【0020】
ネットワーク20は、情報処理端末10と情報処理サーバ30とを接続する機能を有する。ネットワーク20は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などで構成される。また、ネットワーク20は、IP-VPN(Internet Protocol - Virtual Private Network)などの専用回線網を含んで構成されてもよい。
【0021】
(情報処理装置の構成例)
図2は、上述した情報処理端末10を構成する情報処理装置の構成例を示す図である。
【0022】
図2の情報処理装置100は、制御部110、入力部120、表示部130、通信部140、および記憶部150を備えている。
【0023】
制御部110は、例えば、GPU(Graphics Processing Unit)やCPU(Central Processing Unit)などのプロセッサにより構成され、情報処理装置100の各部を制御する。
【0024】
入力部120は、ユーザの操作入力に応じた入力信号を制御部110に供給する。入力部120は、例えばキーボードやマウスの他、タッチパネルとして構成される。
【0025】
表示部130は、制御部110の制御に基づいて、ニューラルネットワークの設計に関するGUIや各種の情報を表示する。
【0026】
通信部140は、制御部110の制御に基づいて、ネットワーク20を介して、情報処理サーバ30との通信を行うことで、情報処理サーバ30から供給される各種のデータを制御部110に供給する。
【0027】
記憶部150は、制御部110において実行される処理に用いられる各種のデータの他、制御部110が実行するプログラムなどを記憶する。
【0028】
(制御部の機能構成例)
図3は、図2の制御部110の機能構成例を示すブロック図である。
【0029】
図3の制御部110は、受付部211、取得部212、決定部213、実行部214、および表示制御部215から構成される。制御部110の各部は、制御部110を構成するプロセッサが、記憶部150に記憶されている所定のプログラムを実行することで実現される。
【0030】
受付部211は、入力部120からの入力信号に基づいて、ユーザによる操作入力を受け付ける。受け付けられたユーザの操作入力の内容を示す受付情報は、制御部110の各部に供給される。例えば、受付部211は、ユーザによるニューラルネットワークの設計に係る入力を受け付ける。
【0031】
取得部212は、受付部211からの受付情報に応じて、通信部140を介して情報処理サーバ30から供給されるデータを取得したり、記憶部150に記憶されているデータを取得する。取得部212により取得されたデータは、適宜、決定部213や実行部214に供給される。
【0032】
決定部213は、受付部211からの受付情報に応じて、ユーザに提示されるニューラルネットワークの候補となるモデルを決定する。
【0033】
実行部214は、受付部211からの受付情報や、取得部212からのデータに基づいて、決定部213により決定されたモデルの構造探索や圧縮、そのモデルを用いた学習などを実行する。
【0034】
表示制御部215は、ニューラルネットワークの設計に関するGUIや各種の情報の表示部130への表示を制御する。例えば、表示制御部215は、決定部213により決定されたモデルや、そのモデルの構造探索や圧縮に関する情報、そのモデルを用いた学習の結果などの表示を制御する。
【0035】
ところで、近年、深層学習に用いられるニューラルネットワークをユーザが直感的に設計できるようにしたGUIが知られている。
【0036】
一方で、深層学習が適用可能なタスクは、画像認識の他、生成モデル、超解像、音声/言語処理など多数存在する。
【0037】
しかしながら、現在提供されているGUIは、画像認識を目的としたものが主流で、他のタスクに対応したニューラルネットワークの設計を行うことは考えられていなかった。
【0038】
そこで、以下においては、広範にわたるタスクに対応したニューラルネットワークの設計が可能なGUIを提供する例について説明する。
【0039】
<2.モデルの構造自動探索>
まず、モデルの構造自動探索について説明する。構造自動探索は、深層学習に用いられるニューラルネットワークの構造を自動で探索する手法であり、所定のアルゴリズムにより、多くの組み合わせから最適なネットワーク構造を見つけ出す技術である。
【0040】
モデルの構造自動探索は、情報処理装置100によって提供されるGUIにおいて、ユーザにより、例えばモデルの構造自動探索を実行するためのメニューが選択されることで開始される。
【0041】
図4は、モデルの構造自動探索を実行するためのメニューが選択された場合に、表示部130に表示されるGUIの例を示している。以下においては、図4に示されるような画面を、構造自動探索実行画面という。
【0042】
構造自動探索実行画面には、各種のGUIパーツとして、ドロップダウンリスト311、テキストボックス312、チェックボックス313、チェックボックス314、テキストボックス315、チェックボックス316、ドロップダウンリスト317が設けられる。また、ドロップダウンリスト317の下方には、モデル表示ボックス318が設けられる。
【0043】
ドロップダウンリスト311は、タスクを選択するためのGUIパーツである。ここでいうタスクは、画像認識、生成モデル、超解像、音声/言語処理など、深層学習の目的となる問題を示す。
【0044】
テキストボックス312は、構造探索の対象となるニューラルネットワークの演算層の数を入力するためのGUIパーツである。
【0045】
チェックボックス313は、スキップコネクションを用いるか否かを選択するためのGUIパーツである。
【0046】
チェックボックス314は、セルベースの構造探索を行うか否かを選択するためのGUIパーツである。チェックボックス314が操作され、セルベースの構造探索を行うことが選択された場合、テキストボックス312に入力された演算層の数は、セルの数を表すようになる。セル内には、複数の演算層が含まれる。
【0047】
テキストボックス315は、セル内のノード(演算層)の数を入力するためのGUIパーツである。
【0048】
チェックボックス316は、セル内でスキップコネクションを用いるか否かを選択するためのGUIパーツである。
【0049】
なお、テキストボックス315とチェックボックス316は、チェックボックス314において、セルベースの構造探索を行うことが選択された場合にのみアクティブとなる。
【0050】
ドロップダウンリスト317は、構造探索手法を選択するためのGUIパーツである。
【0051】
モデル表示ボックス318は、構造探索の対象となるニューラルネットワークのモデルなどが表示される領域である。
【0052】
以下においては、図5乃至図7のフローチャートを参照しながら、構造自動探索実行画面に表示される各種のGUIパーツの詳細について説明する。
【0053】
ステップS11において、受付部211は、ドロップダウンリスト311に対するユーザの操作により、タスクの選択を受け付ける。
【0054】
具体的には、図8に示されるように、ドロップダウンリスト311には、「画像認識」、「生成モデル」、「超解像」、「音声/言語処理」の4つのタスクが表示され、ユーザは、その4つのタスクのいずれかを選択することができる。図8の例では、「画像認識」が選択されている。
【0055】
ステップS12においては、デフォルトモデルを利用するか否かが判定される。デフォルトモデルは、ドロップダウンリスト311において選択可能なタスクに対応してあらかじめ用意されたネットワーク構造のモデルである。
【0056】
ステップS12においてデフォルトモデルを利用すると判定された場合、ステップS13に進む。
【0057】
ステップS13において、決定部213は、ドロップダウンリスト311において選択されたタスクと、取得部212により所定のタイミングで取得された入力データに応じた構造のニューラルネットワークをデフォルトモデルとして決定する。そして、表示制御部215は、決定されたデフォルトモデルをモデル表示ボックス318に表示する。
【0058】
入力データは、ユーザにより用意されたものでもよいし、情報処理サーバ30から供給されたものでもよい。
【0059】
このとき、選択されたタスクと取得された入力データに加えて、情報処理装置100のハードウェア情報に応じた構造のニューラルネットワークがデフォルトモデルとして決定され、表示されてもよい。ここでいうハードウェア情報は、情報処理装置100の制御部110を構成するプロセッサの処理能力に関する情報や、プロセッサの数に関する情報を含むものとする。
【0060】
図8の例では、ドロップダウンリスト311において「画像認識」が選択されていることから、モデル表示ボックス318には、「画像認識」に応じたデフォルトモデルとして、画像の特徴量を抽出する特徴抽出器(エンコーダ)が表示されている。
【0061】
また、図9に示されるように、ドロップダウンリスト311において「超解像」が選択されている場合、モデル表示ボックス318には、「超解像」に応じたデフォルトモデルとして、オートエンコーダを構成するエンコーダとデコーダが表示される。
【0062】
なお、モデル表示ボックス318に表示されるデフォルトモデルの一部の演算層のみを、後述する構造探索の対象とすることもできる。例えば、モデル表示ボックス318において、ユーザのドラッグ操作により所定の範囲が指定されると、図10に示されるように、モデル表示ボックス318にバウンディングボックス321が表示されるようにする。この場合、バウンディングボックス321に囲まれているデフォルトモデルの演算層のみが、構造探索の対象となる。
【0063】
さらに、図示はしないが、ドロップダウンリスト311において「生成モデル」が選択された場合、モデル表示ボックス318には、「生成モデル」に応じたデフォルトモデルとして、デコーダが表示される。また、ドロップダウンリスト311において「音声/言語処理」が選択された場合、モデル表示ボックス318には、「音声/言語処理」に応じたデフォルトモデルとして、再帰型ニューラルネットワーク(RNN)構造のモデルが表示される。
【0064】
ここで、モデル表示ボックス318に表示されるデフォルトモデルは1つに限らず、ユーザの操作に応じて、受付部211が、表示されるデフォルトモデルの、他のデフォルトモデルへの変更を受け付ける。これにより、モデル表示ボックス318には、構造探索の対象となるモデルの候補が切り替わって表示されるようになる。
【0065】
ステップS14において、受付部211は、ユーザによるデフォルトモデルの選択を受け付ける。これにより、構造探索の対象となるデフォルトモデルが確定される。
【0066】
一方、ステップS12においてデフォルトモデルを利用しないと判定された場合、処理はステップS15に進み、受付部211は、ユーザによるモデルの設計を受け付ける。ユーザにより設計されたモデルは、デフォルトモデルと同様、モデル表示ボックス318に表示される。
【0067】
ステップS14においてデフォルトモデルが確定されるか、または、ステップS15においてモデルが設計された後、処理はステップS16に進む。
【0068】
ステップS16において、表示制御部215は、モデル表示ボックス318に表示されているモデルとともに、そのモデルのネットワーク構造の概略を表示する。具体的には、表示制御部215は、ネットワーク構造の概略として、モデル表示ボックス318に表示されているモデルの探索空間のサイズや、概算計算量を表示する。
【0069】
その後、ステップS17において、ユーザの操作に応じて、モデル表示ボックス318に表示されているモデルに演算層を追加するか否かが判定される。すなわち、受付部211は、デフォルトモデルへの演算層の追加を受け付けるか否かを判定する。
【0070】
ステップS17において演算層を追加すると判定された場合、処理は図6のステップS18に進み、プリセットの演算層を利用するか否かが判定される。
【0071】
ステップS18においてプリセットの演算層を利用すると判定された場合、ステップS19において、受付部211は、ユーザによるプリセットの演算層の選択を受け付け、処理はステップS17に戻る。
【0072】
一方、ステップS18においてプリセットの演算層を利用しないと判定された場合、ステップS20において、受付部211は、ユーザによる演算層の設計を受け付け、処理はステップS17に戻る。
【0073】
さて、ステップS17において演算層を追加しないと判定されると、処理は図7のステップS21に進む。
【0074】
ステップS21において、表示制御部215は、モデル表示ボックス318に表示されているモデルに応じて、ドロップダウンリスト317に構造探索手法の選択肢を表示する。具体的には、表示制御部215は、ドロップダウンリスト317に、ドロップダウンリスト311において選択されたタスクと、取得部212により所定のタイミングで取得された入力データに応じた構造探索手法を優先的に表示する。
【0075】
例えば、図11に示されるように、ドロップダウンリスト317には、「強化学習」、「遺伝的アルゴリズム」、「勾配法」など、代表的な構造探索手法が表示され、ユーザは、それらの構造探索手法のいずれかを選択することができる。
【0076】
強化学習による構造探索には、例えば“B. Zoph, V. Vasudevan, J. Shlens, and Q. V. Le. Learning transferable architectures for scalable image recognition. In CVPR, 2018.”で提案されているNASNetや、“H. Pham, M. Y. Guan, B. Zoph, Q. V. Le, and J. Dean. Efficient neural architecture search via parameter sharing. In ICML, 2018.”で提案されているENASなどの手法が用いられる。遺伝的アルゴリズムによる構造探索には、例えば“E. Real, A. Aggarwal, Y. Huang, and Q. V. Le. Regularized evolution for image classifier architecture search. In AAAI, 2019.”で提案されているAmoebaNetなどの手法が用いられる。また、勾配法による構造探索には、例えば“H. Liu, K. Simonyan, and Y. Yang. DARTS: Differentiable architecture search. In ICLR, 2019.”で提案されているDARTSや、“S. Xie, H. Zheng, C. Liu, and L. Lin. SNAS: Stochastic neural architecture search. In ICLR, 2019.”で提案されているSNASなどの手法が用いられる。
【0077】
このとき、ドロップダウンリスト317には、選択されたタスクと取得された入力データに加えて、情報処理装置100のハードウェア情報に応じた構造探索手法が優先的に表示されてもよい。
【0078】
ステップS22において、受付部211は、ドロップダウンリスト317に対するユーザの操作により、構造探索手法の選択を受け付ける。図11の例では、「強化学習」が選択されている。
【0079】
その後、ステップS23において、受付部211は、ドロップダウンリスト317において選択された構造探索手法の設定の入力を受け付ける。このとき、例えば図11に示されるように、モデル表示ボックス318の右方に、構造探索手法の設定を入力するための設定入力部331が表示されるようにする。設定入力部331には、ドロップダウンリスト317において選択された構造探索手法について設定可能なパラメータが、ユーザにより入力される。
【0080】
ここで、図12乃至図14を参照して、構造探索手法について設定可能なパラメータの例について説明する。
【0081】
図12は、強化学習による構造探索について設定可能なパラメータの例を示している。
【0082】
強化学習による構造探索について設定可能なパラメータには、RNN/LSTMレイヤ数、Child Network数、コントローラの学習率、アーキテクチャパラメータ オプティマイザ、サーチ回数、子ネットワークの学習回数が含まれる。
【0083】
RNN/LSTMレイヤ数は、強化学習に用いられるRNNや、その一種であるLSTM(Long-short Term Memory)の演算層の数であり、int型の数値入力により設定される。
【0084】
Child Network数は、メインとなるネットワーク構造を予測する親ネットワークとなるコントローラが一度に出力する子ネットワーク(候補ネットワーク)の数であり、int型の数値入力により設定される。
【0085】
コントローラの学習率は、上述したコントローラによる学習に関するパラメータであり、float型の数値入力により設定される。
【0086】
アーキテクチャパラメータ オプティマイザは、学習率の調整手法であり、プルダウン(ドロップダウンリスト)による選択により設定される。選択肢としては、「Adam」、「SGD」、「Momentum」などが用意される。
【0087】
サーチ回数は、サーチを行う回数であり、int型の数値入力により設定される。
【0088】
子ネットワークの学習回数は、1回のサーチにおける子ネットワークのエポック数(一つの訓練データを繰り返し学習させる回数)であり、int型の数値入力により設定される。
【0089】
図13は、遺伝的アルゴリズムを含む進化的計算による構造探索について設定可能なパラメータの例を示している。
【0090】
候補ネットワークを複数使って学習させる進化的計算による構造探索について設定可能なパラメータには、保存するモデル数、学習回数、Population数、サンプル数、突然変異パターンが含まれる。
【0091】
保存するモデル数は、生成された候補ネットワーク(モデル)を保存する数であり、int型の数値入力により設定される。保存するモデル数は、サーチ回数とほぼ同じ数となる。
【0092】
学習回数は、生成されたモデルのエポック数であり、int型の数値入力により設定される。
【0093】
Population数は、Populationのサイズであり、int型の数値入力により設定される。
【0094】
サンプル数は、変異するモデルを選択する際に、現在のPopulationからサンプリングするモデルの数であり、int型の数値入力により設定される。
【0095】
突然変異パターンは、突然変異のパターンであり、プルダウン(ドロップダウンリスト)による選択により設定される。選択肢としては、「演算と入力ノード」、「演算のみ」、「入力ノードのみ」などが用意される。
【0096】
図14は、勾配法による構造探索について設定可能なパラメータの例を示している。
【0097】
勾配法による構造探索について設定可能なパラメータには、サーチ回数、アーキテクチャパラメータ学習率、アーキテクチャパラメータ オプティマイザが含まれる。
【0098】
サーチ回数は、学習回数と同様、生成されたモデルのエポック数であり、int型の数値入力により設定される。
【0099】
アーキテクチャパラメータ 学習率は、生成されたモデルによる学習に関するパラメータであり、float型の数値入力により設定される。
【0100】
アーキテクチャパラメータ オプティマイザは、学習率の調整手法であり、プルダウン(ドロップダウンリスト)による選択により設定される。選択肢としては、「Adam」、「SGD」、「Momentum」などが用意される。
【0101】
以上のようなパラメータが、選択された構造探索手法に応じて、設定入力部331において設定可能となる。
【0102】
図7のフローチャートに戻り、構造探索手法の設定が入力されると、ステップS24において、表示制御部215は、選択された構造探索手法に応じて、設定されたパラメータでの構造探索に要する予測時間を、例えばモデル表示ボックス318の所定位置に表示する。
【0103】
その後、ステップS25において、構造探索手法の設定を変更するか否かが判定される。
【0104】
ステップS25において構造探索手法の設定を変更すると判定された場合、処理はステップS23に戻り、ステップS23,S24の処理が繰り返される。
【0105】
一方、ステップS25において構造探索手法の設定を変更しないと判定された場合、処理はステップS26に進む。
【0106】
ステップS26において、実行部214は、設定されたパラメータでの構造探索を開始する。
【0107】
構造探索の実行が終了すると、ステップS27において、表示制御部215は、探索された構造のモデルをモデル表示ボックス318に表示する。
【0108】
その後、ステップS28において、さらに構造探索を行うか否かが判定される。
【0109】
ステップS28においてさらに構造探索を行うと判定された場合、処理はステップS26に戻り、ステップS26,S27の処理が繰り返される。
【0110】
一方、ステップS28においてさらに構造探索を行わないと判定された場合、処理は終了する。
【0111】
以上の処理によれば、画像認識の他、生成モデル、超解像、音声/言語処理などのタスクの選択が可能となり、選択されたタスクと入力データに応じた構造のニューラルネットワークがデフォルトモデルとして表示される。さらに、近年提案されている様々な構造探索手法の選択が可能となり、選択された構造探索手法での構造探索が実行される。
【0112】
これにより、所望のタスクに対応したニューラルネットワークの設計を容易に行うことが可能となり、ひいては、広範にわたるタスクに対応したニューラルネットワークの構造の最適化を図ることが可能となる。
【0113】
(セルベースの構造探索の例)
以上においては、セルベースの構造探索を行わない場合のGUIの例について説明してきたが、以下においては、セルベースの構造探索を行う場合のGUIの例について説明する。
【0114】
図15は、セルベースの構造探索を行う場合のGUIの例を示している。
【0115】
図15の構造自動探索実行画面においては、チェックボックス314が操作されることで、セルベースの構造探索を行うことが選択されている。
【0116】
また、図15の構造自動探索実行画面においては、上述した構造自動探索実行画面におけるモデル表示ボックス318に代えて、モデル表示ボックス341とセル表示ボックス342が設けられる。
【0117】
モデル表示ボックス341は、構造探索の対象となるニューラルネットワークのモデル全体が表示される領域である。モデル表示ボックス341に表示されるモデルは、複数のセル(セルブロック)を含むように構成されるセル蓄積型のモデルとなる。
【0118】
また、モデル表示ボックス341には、複数のセルから構成されるモデルとともに、ネットワーク構造の概略として、モデル表示ボックス341に表示されているモデルの探索空間のサイズや、概算計算量が表示される。
【0119】
セル表示ボックス342は、モデル表示ボックス341に表示されるモデルを構成し、構造探索の対象となるセルが表示される領域である。セル表示ボックス342に表示されるセルは、複数の演算層から構成される。
【0120】
図15の構造自動探索実行画面においては、最悪計算量などの概算が表示され、ユーザに許容計算量の範囲を指定させるようにしてもよい。これにより、計算量の制約を考慮した構造探索が可能となる。
【0121】
図16は、モデル表示ボックス341に表示されるモデルの構造と、セル表示ボックス342に表示されるセルの構造の設定に用いられる設定画面の例を示している。図16の設定画面350は、例えばモデル表示ボックス341やセル表示ボックス342における所定の領域がクリック操作されるなどすることで、構造自動探索実行画面上にポップアップ表示される。
【0122】
設定画面350には、テキストボックス351,352,353,354と、ドロップダウンリスト355が設けられる。
【0123】
テキストボックス351は、モデル表示ボックス341に表示されるモデルを構成するセルの数を入力するためのGUIパーツである。
【0124】
テキストボックス352は、モデル表示ボックス341に表示されるモデルを構成するセルの種類の数を入力するためのGUIパーツである。
【0125】
テキストボックス353は、セル表示ボックス342に表示されるセル内のノード(演算層)の数を入力するためのGUIパーツである。
【0126】
テキストボックス354は、セル表示ボックス342に表示されるセル内の1つのノードに対する入力数を入力するためのGUIパーツである。
【0127】
ドロップダウンリスト355は、出力ノードでのリダクション演算手法を選択するためのGUIパーツである。ドロップダウンリスト355には、例えば、「element-wise add」、「concatenate」、「average」の3つのリダクション演算手法が表示され、ユーザは、その3つのリダクション演算手法のいずれかを選択することができる。
【0128】
このようにして設定された内容は、モデル表示ボックス341に表示されるモデルや、セル表示ボックス342に表示されるセルに、リアルタイムに反映されるようになる。
【0129】
なお、設定画面350における設定によっては、セル蓄積型のモデルに限らず、多層積層フィードフォワード型ニューラルネットワークの構築も可能となる。図示はしないが、例えば、セル数が1、セル内のノードの数が8、セル内の1つのノードに対する入力数が1のモデルを構築することもできる。
【0130】
また、上述した説明では、選択された構造探索手法に応じて、構造探索についてのパラメータが設定されるものとしたが、構造探索手法によらないパラメータも設定可能とされる。
【0131】
図17は、選択された構造探索手法によらない、一般的な構造探索について設定可能なパラメータの例を示している。
【0132】
一般的な構造探索について設定可能なパラメータには、モデル学習率、モデルパラメータ オプティマイザ、特徴マップ数が含まれる。
【0133】
モデル学習率は、構造探索の対象となるモデルによる学習に関するパラメータであり、float型の数値入力により設定される。
【0134】
モデルパラメータ オプティマイザは、モデル学習率の調整手法であり、プルダウン(ドロップダウンリスト)による選択により設定される。選択肢としては、「Adam」、「SGD」、「Momentum」などが用意される。
【0135】
特徴マップ数は、構築したモデルの最初のセルにおける隠れ層のフィルタ数であり、int型の数値入力により設定される。
【0136】
このようなパラメータが、選択された構造探索手法によらずに設定可能となる。
【0137】
(探索空間の定義)
ユーザは、構造探索において用いられる演算層を、プリセットされた演算層の中から選択することができる。
【0138】
図18は、ユーザが、プリセットの演算層から構造探索において用いられる演算層を選択する際に表示される画面の例を示している。
【0139】
図18の画面の領域360の上端には、選択部361が設けられる。選択部361には、演算層の種類が選択肢として表示されている。図18の例では、「Affine」、「Convolution」、「DepthwiseConvolution」、「Deconvolution」が選択肢として表示され、「Convolution」が選択されている。
【0140】
選択部361の下方には、選択部362が設けられる。選択部362には、選択部361において選択された種類でプリセットされている演算層が選択肢として表示されている。図18の例では、「Convolution_3x3」、「Convolution_5x5」、「Convolution_7x7」、「MaxPooling_3x3」、「AveragePooling_3x3」が選択肢として表示されている。
【0141】
図18の画面の領域370には、プリセットの演算層から選択された演算層によって構成されるモデルが表示される。図18の例では、入力層とConvolution層から構成されるモデルが表示されている。
【0142】
さらに、ユーザは、構造探索において用いられる演算層を独自に定義することもできる。
【0143】
図19は、ユーザが、構造探索において用いられる演算層を独自に定義する際に表示される画面の例を示している。
【0144】
図19の画面の領域360の下部には、設定部363が設けられる。設定部363は、例えば、図示せぬ演算追加ボタンを押下することで表示される。設定部363には、ユーザにより選択された演算層の各種のパラメータが表示される。
【0145】
ユーザは、設定部363において演算層のパラメータに所望の値を設定することで、構造探索において用いられる演算層を、独自に定義することができる。
【0146】
なお、セル蓄積型のモデルの構造探索においては、セル内の演算によって入力サイズと出力サイズが変わらないようにする必要がある。そのため、設定部363においてユーザが設定できるパラメータをその一部に制限し、それらのパラメータの設定に応じて、他のパラメータが自動で設定されるようしてもよい。例えば、Convolution層のパラメータにおいては、フィルタサイズが設定されることで、他のパラメータが自動で設定されるようにする。
【0147】
(構造探索の実行結果)
上述したように、構造探索の実行が終了すると、探索された構造のネットワークが表示される。
【0148】
図20は、上述したセル蓄積型のモデルの構造探索の実行結果が表示された画面の例を示している。
【0149】
図20の例では、探索された構造のモデルとセルが、モデル表示ボックス341とセル表示ボックス342に表示されている。
【0150】
さらに、探索された構造のモデルとセルに加えて、精度や計算量などが表示されるようにしてもよい。図20の例では、セル表示ボックス342の上方に、精度・計算量表示部381が設けられている。精度・計算量表示部381には、精度、パラメータ数(サイズ)、FLOPS(Floating-point Operations per Second)、消費電力、中間バッファ(サイズ)が表示されている。
【0151】
ユーザは、精度・計算量表示部381に表示された精度や計算量などを確認することで、再度、構造探索を実行するか否かを判断することができる。
【0152】
特に、従来のニューラルネットワークの設計に関するGUIにおいては、構造探索を実行するハードウェアの計算量の制約が考慮されていなかった。
【0153】
これに対して、上述した構成によれば、計算量の制約を考慮に入れた構造探索が簡単な操作で実現可能となる。
【0154】
<3.モデルの圧縮>
次に、モデルの圧縮について説明する。モデルの圧縮は、ニューラルネットワーク内の構造を簡易化し、計算コストを削減する手法であり、1つの例として、大規模で複雑なネットワークの性能を小規模なネットワークで実現する蒸留などが知られている。
【0155】
モデルの圧縮は、情報処理装置100によって提供されるGUIにおいて、ユーザにより、例えばモデルの圧縮を実行するためのメニューが選択されことで開始される。また、モデルの圧縮は、図20に示されるような、構造探索の実行結果が表示された画面において、モデルの圧縮を実行するためのボタンなどが選択されることで開始されてもよい。
【0156】
図21および図22は、モデルの圧縮処理について説明するフローチャートである。
【0157】
ステップS51において、取得部212は、圧縮対象となるモデルであるベースモデルを読み込む。ベースモデルは、あらかじめ設計されたモデルであってもよいし、上述した構造探索が実行された後のモデルであってもよい。
【0158】
ステップS52においては、読み込まれたベースモデルに演算層を追加するか否かが判定される。
【0159】
ベースモデルに演算層を追加すると判定された場合、処理はステップS53に進み、受付部211は、ベースモデルへの演算層の追加を受け付ける。
【0160】
ステップS52,S53は、ベースモデルに演算層を追加しないと判定されるまで繰り返され、ベースモデルに演算層を追加しないと判定されると、処理はステップS54に進む。
【0161】
ステップS54において、表示制御部215は、現時点での圧縮の設定を表示する。
【0162】
その後、ステップS55においては、ユーザの操作に応じて、圧縮の設定を変更するか否かが判定される。
【0163】
ステップS55において圧縮の設定を変更すると判定された場合、処理はステップS56に進み、受付部211は、演算層の選択を受け付ける。このとき、受付部211は、ベースモデルの圧縮手法の選択も受け付ける。
【0164】
次いで、ステップS57において、受付部211は、選択された演算層について、圧縮の設定の入力を受け付ける。このとき、選択された演算層についての圧縮の条件が、圧縮の設定として入力されるようにする。ステップS57の後、処理はステップS55に戻る。
【0165】
このようにして、選択された演算層についての圧縮の設定が決定される。
【0166】
一方、ステップS55において、圧縮の設定を変更しないと判定された場合、処理は図22のステップS58に進む。
【0167】
ステップS58において、実行部214は、演算層それぞれについて設定されている圧縮の設定に基づいて、モデルの圧縮を実行する。
【0168】
ステップS59において、実行部214は、演算層それぞれの圧縮率を算出する。このとき、表示制御部215は、演算層それぞれの圧縮率を、圧縮結果として表示する。
【0169】
ステップS60において、実行部214は、算出された演算層それぞれの圧縮率が、演算層それぞれについて設定された圧縮の条件を満たすか否かを判定する。
【0170】
圧縮率が条件を満たさないと判定された場合、処理はステップS58に戻り、モデルの圧縮の実行と圧縮率の算出が繰り返される。
【0171】
一方、圧縮率が条件を満たすと判定された場合、処理はステップS61に進む。
【0172】
ステップS61においては、ユーザの操作に応じて、ベースモデルについてさらに圧縮を実行するか否かが判定される。
【0173】
さらに圧縮を実行すると判定された場合、処理は図21のステップS55に戻り、それ以降の処理が繰り返される。
【0174】
一方、ステップS61においてさらに圧縮を実行しないと判定された場合、処理はステップS62に進み、実行部214は、圧縮後のモデルを保存し、処理は終了する。
【0175】
(GUIの例)
以下、モデルの圧縮処理において、表示部130に表示されるGUIの例について説明する。
【0176】
図23は、モデルの圧縮に関する設定を行う画面の例を示している。
【0177】
図23の画面の領域410の下部には、ドロップダウンリスト411とボタン412が設けられる。ドロップダウンリスト411は、圧縮手法を選択するためのGUIパーツである。
【0178】
ドロップダウンリスト411には、「枝刈り」、「量子化」、「蒸留」の3つの圧縮手法が表示され、ユーザは、その3つの圧縮手法のいずれかを選択することができる。
【0179】
ボタン412は、ドロップダウンリスト411で選択された圧縮手法での圧縮を実行するためのGUIパーツである。
【0180】
図23の画面の領域420には、圧縮の対象となるベースモデル421が表示される。ベースモデル421の右側には、ベースモデル421を構成する演算層毎の計算量が示されている。演算層それぞれの計算量は、メモリ全体の使用量を100%としたときの各演算層のメモリの使用量の割合として示されている。
【0181】
ユーザは、ベースモデル421を構成する演算層毎の計算量を確認することで、ベースモデル421において、どの演算層がボトルネックになり得るかを把握することができる。
【0182】
また、ドロップダウンリスト411で選択された圧縮手法での圧縮について、精度の劣化をどの程度許容するかの指標となる精度劣化許容値と、目標圧縮率をユーザに設定させるようにしてもよい。
【0183】
図23の例では、ベースモデル421を構成する演算層全体を圧縮の対象とすることもできるし、一部の演算層のみを圧縮の対象とすることもできる。
【0184】
図24は、ベースモデル421を構成する演算層毎の圧縮の設定を行う例を示している。
【0185】
図24においては、ベースモデル421を構成する演算層のうち、「Affine_3」層が選択され、子画面431が表示されている。子画面431は、選択された演算層について、レイテンシ、メモリ、中間バッファ、消費電力の各指標についての許容範囲(圧縮条件)を設定するための画面である。
【0186】
子画面431には、各指標について、許容範囲の設定を有効にするためのラジオボタンと、許容範囲の最小値、最大値を入力するためのテキストボックスが設けられる。許容範囲の設定が有効にされ、許容範囲の最小値、最大値が入力されることで、選択されている演算層に関する圧縮条件が設定される。
【0187】
図25および図26は、圧縮結果が表示される画面の例を示している。
【0188】
図25および図26の画面の領域410の下部には、どの指標についての圧縮結果を表示するかを選択するための指標選択部441と、圧縮による精度の変化率が表示される精度変化率表示部442が設けられる。
【0189】
図25および図26の画面の領域420には、圧縮の対象となったベースモデル421と、その右側には、ベースモデル421を構成する演算層毎の圧縮結果が示される。演算層それぞれの圧縮結果として、指標選択部441において選択されている指標についての圧縮率が示される。
【0190】
具体的には、図25の例では、指標選択部441においてメモリが選択されており、ベースモデル421を構成する演算層毎の圧縮結果として、メモリについての圧縮率が示されている。
【0191】
また、図26の例では、指標選択部441において消費電力が選択されており、ベースモデル421を構成する演算層毎の圧縮結果として、消費電力についての圧縮率が示されている。
【0192】
これにより、ユーザは、どの演算層をさらなる圧縮対象とするかを判断することができる。
【0193】
以上の処理によれば、構造探索が実行されたモデルに加え、既存のモデルについても、その圧縮を実行することができ、計算コストを削減することが可能となる。
【0194】
以上においては、モデルの構造自動探索や圧縮に係る処理やGUIの表示は、情報処理装置100として構成される情報処理端末10上で行われるものとした。これに限らず、情報処理サーバ30を情報処理装置100で構成されるようにし、モデルの構造自動探索や圧縮に係る処理は、情報処理サーバ30上で行われ、GUIの表示のみが情報処理端末10上で行われるようにしてもよい。さらに、上述した情報処理装置100により実行された各処理は、図1の情報処理システムの情報処理端末10と情報処理サーバ30のいずれかにおいて行われればよい。
【0195】
<4.コンピュータの構成>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
【0196】
図27は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
【0197】
上述した情報処理装置100は、図27に示す構成を有するコンピュータ1000により実現される。
【0198】
CPU1001、ROM1002、RAM1003は、バス1004により相互に接続されている。
【0199】
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
【0200】
以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005およびバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
【0201】
CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
【0202】
なお、コンピュータ1000が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたときなどの必要なタイミングで処理が行われるプログラムであっても良い。
【0203】
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
【0204】
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
【0205】
さらに、本開示は以下のような構成をとることができる。
(1)
情報処理装置が、
ユーザによるタスクの選択を受け付け、
前記タスクの学習に用いられる入力データを取得し、
選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークをデフォルトモデルとして表示する
情報処理方法。
(2)
前記タスクと前記入力データに加えて、前記情報処理装置のハードウェア情報に応じた構造の前記ニューラルネットワークを前記デフォルトモデルとして表示する
(1)に記載の情報処理方法。
(3)
前記ハードウェア情報は、プロセッサの処理能力に関する情報である
(2)に記載の情報処理方法。
(4)
前記ハードウェア情報は、プロセッサの数に関する情報である
(2)に記載の情報処理方法。
(5)
前記デフォルトモデルとともに、前記デフォルトモデルの探索空間のサイズおよび計算量の少なくともいずれかを表示する
(1)乃至(4)のいずれかに記載の情報処理方法。
(6)
前記ユーザによる前記デフォルトモデルの変更を受け付ける
(1)乃至(5)のいずれかに記載の情報処理方法。
(7)
前記デフォルトモデルへの演算層の追加を受け付ける
(6)に記載の情報処理方法。
(8)
前記ニューラルネットワークの構造探索手法の選択肢として、前記タスクと前記入力データに応じた前記構造探索手法を優先的に表示する
(1)乃至(7)のいずれかに記載の情報処理方法。
(9)
前記タスクと前記入力データに加えて、前記情報処理装置のハードウェア情報に応じた前記構造探索手法を優先的に表示する
(8)に記載の情報処理方法。
(10)
前記選択肢の中から前記ユーザにより選択された前記構造探索手法の設定の入力を受け付ける
(8)または(9)に記載の情報処理方法。
(11)
前記選択肢の中から前記ユーザにより選択された前記構造探索手法に応じて、構造探索に要する予測時間を表示する
(8)乃至(10)のいずれかに記載の情報処理方法。
(12)
前記選択肢の中から前記ユーザにより選択された前記構造探索手法に基づいた構造探索を実行し、
探索された構造の前記ニューラルネットワークを表示する
(8)乃至(11)のいずれかに記載の情報処理方法。
(13)
前記ニューラルネットワークにおいて前記ユーザにより選択された演算層を構造探索の対象とする
(12)に記載の情報処理方法。
(14)
前記ニューラルネットワークに含まれるセルを構造探索の対象とする
(12)に記載の情報処理方法。
(15)
前記ニューラルネットワークの圧縮手法の選択をさらに受け付ける
(1)乃至(14)のいずれかに記載の情報処理方法。
(16)
前記ニューラルネットワークの演算層について、前記ユーザに選択された指標毎に圧縮条件の設定を受け付ける
(15)に記載の情報処理方法。
(17)
選択された前記圧縮手法での前記ニューラルネットワークの圧縮を実行し、
前記演算層の圧縮結果を表示する
(16)に記載の情報処理方法。
(18)
前記ユーザに選択された指標について、前記演算層の圧縮率を表示する
(17)に記載の情報処理方法。
(19)
ユーザによるタスクの選択を受け付ける受付部と、
前記タスクの学習に用いられる入力データを取得する取得部と、
選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークをデフォルトモデルとして表示する表示制御部と
を備える情報処理装置。
(20)
コンピュータに、
ユーザによるタスクの選択を受け付け、
前記タスクの学習に用いられる入力データを取得し、
選択された前記タスクと、取得された前記入力データに応じた構造のニューラルネットワークをデフォルトモデルとして表示する
処理を実行させるためのプログラム。
【符号の説明】
【0206】
10 情報処理端末, 30 情報処理サーバ, 100 情報処理装置, 110 制御部, 120 入力部, 130 表示部, 140 通信部, 150 記憶部, 211 受付部, 212 取得部, 213 決定部, 214 実行部, 215 表示制御部, 1000 コンピュータ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27