IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤフー株式会社の特許一覧

特許7244468情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム
<>
  • 特許-情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム 図1
  • 特許-情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム 図2
  • 特許-情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム 図3
  • 特許-情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム 図4
  • 特許-情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム 図5
  • 特許-情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム 図6
  • 特許-情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-03-13
(45)【発行日】2023-03-22
(54)【発明の名称】情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム
(51)【国際特許分類】
   G06N 3/0985 20230101AFI20230314BHJP
   G06N 3/0464 20230101ALI20230314BHJP
   G10L 15/16 20060101ALI20230314BHJP
【FI】
G06N3/0985
G06N3/0464
G10L15/16
【請求項の数】 13
(21)【出願番号】P 2020155829
(22)【出願日】2020-09-16
(65)【公開番号】P2022049569
(43)【公開日】2022-03-29
【審査請求日】2021-08-19
(73)【特許権者】
【識別番号】319013263
【氏名又は名称】ヤフー株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】藤田 悠哉
【審査官】多賀 実
(56)【参考文献】
【文献】米国特許出願公開第2017/0364799(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
G06T 7/00
G06V 10/82
G10L 15/00-17/26
(57)【特許請求の範囲】
【請求項1】
機械学習のモデルの学習に用いるデータを取得する取得部と、
前記データに基づいて、前記モデルの第1ノードに接続する第2ノードを決定する決定部と、
前記決定部により決定された接続関係を有する前記モデルを対象として、前記データを用いた学習処理を行う学習部と、
を備え
前記取得部は、
前記モデルに入力する入力データと、当該入力データに対応する正解データとの組合せを含む前記データを取得し、
前記決定部は、
前記データを用いた学習処理であってカーネルのサイズを決定する学習手法を用いた学習処理により決定された前記カーネルのサイズに基づいて、前記第1ノードに接続する前記第2ノードを決定し、
前記学習部は、
前記決定部により決定された接続関係を有する前記モデルを対象として、前記データを用いた学習処理により、パラメータを学習する
ことを特徴とする情報処理装置。
【請求項2】
前記決定部は、
第1層の前記第1ノードに接続する前記第2ノードとして、前記第1層よりも入力側の第2層のノードを決定する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記決定部は、
前記第2層のノードのうち、一部のノードを前記第1ノードに接続する前記第2ノードに決定する
ことを特徴とする請求項2に記載の情報処理装置。
【請求項4】
前記決定部は、
Adaptive Spanによる学習処理により、前記モデルの第1ノードに接続する第2ノードを決定する
ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。
【請求項5】
前記取得部は、
音声認識に関する前記モデルの学習に用いる音声データを含む前記データを取得し、
前記学習部は、
前記データを用いた学習処理により、前記音声認識に関する前記モデルを学習する
ことを特徴とする請求項1~のいずれか1項に記載の情報処理装置。
【請求項6】
前記取得部は、
前記音声データと当該音声データに対応する文字データである正解データとを含む前記データを取得し、
前記学習部は、
前記データを用いた学習処理により、音声文字変換に用いる前記モデルを学習する
ことを特徴とする請求項に記載の情報処理装置。
【請求項7】
コンピュータが実行する情報処理方法であって、
機械学習のモデルの学習に用いるデータを取得する取得工程と、
前記データに基づいて、前記モデルの第1ノードに接続する第2ノードを決定する決定工程と、
前記決定工程により決定された接続関係を有する前記モデルを対象として、前記データを用いた学習処理を行う学習工程と、
を含み、
前記取得工程は、
前記モデルに入力する入力データと、当該入力データに対応する正解データとの組合せを含む前記データを取得し、
前記決定工程は、
前記データを用いた学習処理であってカーネルのサイズを決定する学習手法を用いた学習処理により決定された前記カーネルのサイズに基づいて、前記第1ノードに接続する前記第2ノードを決定し、
前記学習工程は、
前記決定工程により決定された接続関係を有する前記モデルを対象として、前記データを用いた学習処理により、パラメータを学習する
ことを特徴とする情報処理方法。
【請求項8】
機械学習のモデルの学習に用いるデータを取得する取得手順と、
前記データに基づいて、前記モデルの第1ノードに接続する第2ノードを決定する決定手順と、
前記決定手順により決定された接続関係を有する前記モデルを対象として、前記データを用いた学習処理を行う学習手順と、
をコンピュータに実行させ
前記取得手順は、
前記モデルに入力する入力データと、当該入力データに対応する正解データとの組合せを含む前記データを取得し、
前記決定手順は、
前記データを用いた学習処理であってカーネルのサイズを決定する学習手法を用いた学習処理により決定された前記カーネルのサイズに基づいて、前記第1ノードに接続する前記第2ノードを決定し、
前記学習手順は、
前記決定手順により決定された接続関係を有する前記モデルを対象として、前記データを用いた学習処理により、パラメータを学習す
ことを特徴とする情報処理プログラム。
【請求項9】
機械学習のモデルの学習に用いるデータを用いた学習処理であってカーネルのサイズを決定する学習手法を用いた学習処理により決定された前記カーネルのサイズに基づいて、前記モデルの第1ノードに接続する第2ノードが情報処理装置により決定された接続関係を有し、前記データを用いて前記情報処理装置が学習した前記モデルを前記情報処理装置から受信する受信部と、
前記受信部により受信された前記モデルを用いて推論を行う推論部と、
を備えたことを特徴とする端末装置。
【請求項10】
前記受信部は、
音声認識に関する前記モデルを受信し、
前記推論部は、
前記モデルに音声データを入力することにより、当該音声データに対応する推論処理を行う
ことを特徴とする請求項に記載の端末装置。
【請求項11】
前記受信部は、
音声データの入力に応じて、当該音声データに対応する文字データを出力する前記モデルを受信し、
前記推論部は、
前記モデルに音声データを入力することにより、当該音声データに対応する文字データを生成する推論処理を行う
ことを特徴とする請求項10に記載の端末装置。
【請求項12】
機械学習のモデルの学習に用いるデータを用いた学習処理であってカーネルのサイズを決定する学習手法を用いた学習処理により決定された前記カーネルのサイズに基づいて、前記モデルの第1ノードに接続する第2ノードが情報処理装置により決定された接続関係を有し、前記データを用いて前記情報処理装置が学習した前記モデルを前記情報処理装置から受信する受信工程と、
前記受信工程により受信された前記モデルを用いて推論を行う推論工程と、
を含んだことを特徴とする推論方法。
【請求項13】
機械学習のモデルの学習に用いるデータを用いた学習処理であってカーネルのサイズを決定する学習手法を用いた学習処理により決定された前記カーネルのサイズに基づいて、前記モデルの第1ノードに接続する第2ノードが情報処理装置により決定された接続関係を有し、前記データを用いて前記情報処理装置が学習した前記モデルを前記情報処理装置から受信する受信手順と、
前記受信手順により受信された前記モデルを用いて推論を行う推論手順と、
を端末装置に実行させることを特徴とする推論プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラムに関する。
【背景技術】
【0002】
機械学習の技術により、様々な用途に用いられる学習モデル(以下「モデル」ともいう)を学習する技術が提供されている。例えば、モデルを音声認識に用いる音声認識システムが提供されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2019-159058号公報
【非特許文献】
【0004】
【文献】“Adaptive Attention Span in Transformers”, Sainbayar Sukhbaatar, Edouard Grave, Piotr Bojanowski, and Armand Joulin<インターネット>https://arxiv.org/pdf/1905.07799.pdf(令和2年9月2日検索)日検索)
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、上記の従来技術では適切に学習されたモデルを利用可能にすることが難しい。例えば、従来技術では積層された複数の全結合層等を含む構成が定められており、対象とするデータに応じた柔軟なモデルのネットワーク構成にすることが難しい。そのため、適切に学習されたモデルを利用可能にすることができるとは限らない。
【0006】
本願は、上記に鑑みてなされたものであって、適切に学習されたモデルを利用可能にする情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本願に係る情報処理装置は、機械学習のモデルの学習に用いるデータを取得する取得部と、前記データに基づいて、前記モデルの第1ノードに接続する第2ノードを決定する決定部と、前記決定部により決定された接続関係を有する前記モデルを対象として、前記データを用いた学習処理を行う学習部と、を備えたことを特徴とする。
【発明の効果】
【0008】
実施形態の一態様によれば、適切に学習されたモデルを利用可能にすることができるという効果を奏する。
【図面の簡単な説明】
【0009】
図1図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。
図2図2は、実施形態に係る情報処理装置の構成例を示す図である。
図3図3は、実施形態に係るモデル情報記憶部の一例を示す図である。
図4図4は、実施形態に係る端末装置の構成例を示す図である。
図5図5は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。
図6図6は、実施形態に係る端末装置による処理の一例を示すフローチャートである。
図7図7は、ハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0010】
以下に、本願に係る情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
【0011】
〔1.はじめに〕
近年、音声認識等に利用されるモデルに、End-to-Endモデル(「E2Eモデル」ともいう)が用いられている。E2Eモデルは、例えば1つのニューラルネットワークで構成されるモデルである。E2Eモデルは、ユーザが利用するデバイス(端末装置10等)で完結する音声認識の処理に適している。E2Eモデルとしては、Attentionの一種であるSelf-Attentionを用いたTransformerが知られている。Transformerのネットワーク構成が公知であるため詳細な説明は省略するが、Self-Attentionの入力の長さをT(すなわち入力側がT個のノード)とした場合、出力側の各ノードの値(出力)を得るために入力側のT個のノード全てを用いるため、Tの2乗に比例する計算が発生するという課題がある。
【0012】
そこで、以下では、Self-Attentionを、ある層のノード(出力)の計算に、その前の層のノードの一部を入力として用いる畳み込み処理を行う構成を変更したネットワーク構成のモデルを学習し、利用する場合を説明する。
【0013】
(実施形態)
〔2.情報処理〕
ここから、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。まず、情報処理システム1の構成について説明する。
【0014】
図1に示すように、情報処理システム1は、端末装置10と、情報処理装置100とが含まれる。端末装置10と、情報処理装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。なお、図1に示した情報処理システム1には、複数台の端末装置10や、複数台の情報処理装置100が含まれてもよい。
【0015】
情報処理装置100は、機械学習のモデルの学習に用いるデータに基づいて、モデルの第1ノードに接続する第2ノードを決定し、決定した接続関係を有するモデルを対象として、記データを用いた学習処理を行う情報処理装置である。
【0016】
情報処理装置100は、音声文字変換に用いるモデルM1を学習し、端末装置10に提供する。モデルM1は、E2Eモデルであり、入力された音声データを文字起こしした文字データを出力するモデルである。例えば、モデルM1は、エンコーダデコーダ構造を有する。例えば、モデルM1は、Transformerと同様のネットワーク構成を有し、Self-Attentionの部分が畳み込み処理を行う構成に変更されたものである。以下、モデルM1のネットワーク構成のうち畳み込み処理が適用される部分を「畳込み部分」と記載する場合がある。
【0017】
端末装置10は、ユーザによって利用されるデバイス(コンピュータ)である。端末装置10は、ユーザによる音声入力を受け付ける。端末装置10は、ユーザによる操作を受け付ける。端末装置10は、情報処理装置100から提供されたモデルを用いて推論を行う。
【0018】
また、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。なお、端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1の例では、端末装置10がタッチパネル機能を有するスマートフォンである場合を示す。
【0019】
以下、図1を用いて、情報処理の一例を説明する。図1では、ユーザがユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)である場合を示す。
【0020】
まず、情報処理装置100は、学習用データDTを用いて、モデルM1の畳込み部分のネットワーク構成を決定する(ステップS11)。学習用データDTには、音声データと、その音声データに対応する文字データである正解データとのペアが複数含まれる。情報処理装置100は、モデルM1の畳込み部分について、ある層(第1層)のノード(出力)の計算に、その前の層(第2層)のノードのうち、いずれを用いるかを決定する。すなわち、情報処理装置100は、第2層のノードが出力する情報のうち、畳み込みを行う範囲を決定する。図1では、情報処理装置100は、モデルM1の畳込み部分について、第2層のノードのうち、第1層の第1ノードの値の計算に用いる第2ノードを決定する。これにより、情報処理装置100は、第2層のノードのうち、第1層の第1ノードに接続する第2ノードを決定する。
【0021】
図1では、情報処理装置100は、非特許文献1に開示される手法(以下「Adaptive Span」ともいう)により、第1層の第1ノードに接続する第2ノードを決定する。Adaptive Spanでは、出力の計算に用いる入力を示すカーネル長(窓幅)をモデルと共に学習する。したがって、情報処理装置100は、Adaptive Spanにより、第2層のノードのうち、第1層の第1ノードの値の計算に用いる第2ノードを示すカーネル長を学習する。そして、情報処理装置100は、Adaptive Spanにより学習したカーネル長を用いて、第1層の第1ノードに接続する第2ノードを決定する。
【0022】
図1では、モデルM1’に示すように、情報処理装置100は、第1ノードに接続する第2ノードの数が「4つ」であり、位置関係が「前1つから後ろ2つまで」であると決定する。これにより、情報処理装置100は、第2層のノードのうち、連続して配置される複数のノードと第1層のノードとを接続する。すなわち、情報処理装置100は、所定の関連性を有すると推定される出力のうち、畳み込みを行う範囲を決定する。モデルM1’は、第1層の第1ノードに接続する第2ノードが決定された後のモデルM1であり、接続係数(「重み」ともいう)等のパラメータを学習前のモデルM1を示す。図1では、説明のために、畳込み部分について2つの階層のノードのみを図示するが、畳込み部分は3以上の階層で構成されてもよい。ある階層はその階層より前の階層との関係では第1階層となり、その階層より後の階層との関係では第2階層となる。このように、第1階層及び第2階層は相対的な概念である。入力層側において連続して配置される複数のノードと、隣接する中間層のノードとを接続し、さらにその中間層のノードのうち連続して配置される複数のノードと、出力層側の中間層のノードとを接続し、と段階的に接続を行った場合、各層の隣接するノードは、入力データにおいて時系列的、あるいはデータ的に重複・隣接する情報を処理することとなる。このような重複・隣接する情報のうち、1つのノードが処理対象とする範囲を順次決定することに対応するとも考えられる。
【0023】
モデルM1’は、下側が入力層に近く、上に行くほど出力層に近い態様でモデルM1を概念的に示す。図1のモデルM1’は、畳込み部分の一部を示し、第1層の第1ノードOT1~OT3等の各々と、第1層の前の層である第2層の第2ノードIN1~IN5等との接続関係を矢印線群CNで概念的に示す。なお、矢印線群CNの各矢印については、識別性のために接続先となる出力側のノード(第1ノードOT1~OT3)ごとに異なる種別で図示する。図1では、矢印線の始点(矢元)側の「○」で示す第2ノードが、終点(矢先)側の「○」で示す第1ノードの計算に用いられることを示す。例えば、第1ノードOT1には、第2ノードIN1~IN4の4つのノードが接続されることを示し、第1ノードOT1の計算には、第2ノードIN1~IN4が用いられることを示す。
【0024】
なお、図1では、Adaptive Spanでのカーネル長を決定する処理を利用し、決定したカーネル長を用いて接続関係が規定されたモデルを学習する処理を説明するが、カーネル長を決定する処理はAdaptive Spanに限らず、カーネル長が決定できればどのような処理であってもよい。例えば、情報処理装置100は、カーネルのサイズを決定する他の学習手法等の様々な方法によりモデルの第1ノードに接続する第2ノードを決定してもよいが、この点についての詳細は後述する。
【0025】
そして、情報処理装置100は、決定したカーネル長を用いて接続関係が規定されたモデルのパラメータを学習する(ステップS12)。情報処理装置100は、学習用データDTを用いて、モデルM1’に示すような接続関係が決定されたモデルM1の重み等のパラメータを学習する。これにより、情報処理装置100は、音声文字変換モデルであるモデルM1を生成する。モデルM1の学習処理には、任意の手法が採用可能である。
【0026】
例えば、情報処理装置100は、モデルM1が出力した文字データが、モデルM1に入力した音声データに対応する正解データに近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100は、学習処理により、モデルM1’において矢印線で接続されるノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を調整する。このように、情報処理装置100は、モデルM1における出力と、入力に対応する正解データとの誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理によりモデルM1を学習する。例えば、情報処理装置100は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM1を生成する。これにより、情報処理装置100は、モデルM1のパラメータを学習する学習処理を行うことができる。
【0027】
そして、情報処理装置100は、学習した音声文字変換モデルであるモデルM1をユーザU1が利用する端末装置10に提供する(ステップS13)。モデルM1を受信した端末装置10は、モデルM1を利用してユーザU1の発話も文字に書き起こす音声文字変換処理(推論)を実行する。この点について以下説明する。
【0028】
まず、ユーザU1が「XXXX」と発話する。なお、「XXXX」は具体的な内容を含む発話であるものとする。端末装置10は、ユーザU1の発話PAを検知し、ユーザU1の発話PAである「XXXX」の音声データを入力として受け付ける(ステップS14)。
【0029】
そして、端末装置10は、入力として受け付けた「XXXX」の音声データと、モデルM1とを利用して推論処理を行う(ステップS15)。端末装置10は、「XXXX」の音声データをモデルM1に入力し、モデルM1に文字データを出力させることにより、音声を文字に変換する処理(推論処理)を行う。図1では、「XXXX」の音声データが入力されたモデルM1は、「XXXX」の文字データを出力する。
【0030】
そして、端末装置10は、推論結果である「XXXX」の文字データを表示してもよい(ステップS16)。例えば、端末装置10は、文字列「XXXX」を画面に表示する。
【0031】
また、端末装置10は、音声データやその音声データに対応する文字データである正解データを学習用データとして情報処理装置100に送信してもよい(ステップS17)。この場合、情報処理装置100は、端末装置10から受信した学習用データを用いて、モデルM1のパラメータを更新してもよい。
【0032】
上述したように、情報処理装置100は、データを基に第1ノードに接続する第2ノードを決定する処理を行った後、決定した接続関係を有するモデルの重み等のパラメータを学習する処理を行うことにより、適切にモデルを学習することができる。また、端末装置10は、データを基に第1ノードに接続する第2ノードを決定されたモデルを用いて推論処理を行うことができるため、適切なモデルを利用した処理を行うことができる。
【0033】
〔2-1.決定処理〕
なお、上記の例におけるノード間の接続の決定処理については一例に過ぎず、ノード間の接続が決定可能であれば、どのような処理によりノード間の接続を決定してもよい。
【0034】
例えば、情報処理装置100は、処理の対象となるデータの特徴に基づいて、ノード間の接続を決定してもよい。この場合、情報処理装置100は、データの種別に応じて、ノード間の接続を決定してもよい。例えば、情報処理装置100は、学習用データ記憶部121に記憶された各データの種別と、その種別の場合に第1ノードに接続する第2ノードの数や位置関係を示す情報(「カーネル情報」ともいう)とが対応付けられた一覧リストを用いて、ノード間の接続を決定してもよい。例えば、情報処理装置100は、各データの種別が「音声」である場合、一覧リストのうち、種別「音声」に対応付けられた情報(「該当情報」とする)を用いて、第1ノードに接続する第2ノードを決定する。各データの種別が「音声」である場合、情報処理装置100は、第1ノードに接続する第2ノードの数が「4つ」であり、位置関係が「前3つから後ろ1つまで」であることを示す該当情報を用いて、ノード間の接続を決定してもよい。
【0035】
例えば、情報処理装置100は、情報処理装置100は、データの種別及びモデルの用途に応じて、ノード間の接続を決定してもよい。例えば、情報処理装置100は、モデル情報記憶部122に記憶されたモデルの用途と、学習用データの種別との組合せにカーネル情報が対応付けられた一覧リストを用いて、ノード間の接続を決定してもよい。例えば、情報処理装置100は、モデルの用途が「音声文字変換」であり、各データの種別が「音声」である場合、一覧リストのうち、種別「音声」に対応付けられた該当情報を用いて、第1ノードに接続する第2ノードを決定する。モデルの用途が「音声文字変換」であり、各データの種別が「音声」である場合、情報処理装置100は、第1ノードに接続する第2ノードの数が「4つ」であり、位置関係が「前1つから後ろ2つまで」であることを示す該当情報を用いて、ノード間の接続を決定してもよい。
【0036】
なお、上記は一例に過ぎず、情報処理装置100は、種々の情報を適宜用いて、ノード間の接続を決定してもよい。
【0037】
〔2-2.学習処理〕
情報処理装置100は、上記に限らず、種々の情報を用いてモデルの重みを学習してもよい。例えば、情報処理装置100は、Adaptive Spanで学習されたモデルの接続係数(重み)を用いて、モデルの重みを学習してもよい。例えば、情報処理装置100は、Adaptive Spanで学習データごとに学習されたモデルの接続係数(重み)の平均を、初期値として用いて、モデルの重みを学習してもよい。この場合、情報処理装置100は、Adaptive Spanでのモデルの接続係数(重み)の学習をプレトレーニングとして利用することができる。
【0038】
〔2-3.推論対象〕
なお、学習するモデルの用途は、音声文字変換に限らず、他の音声認識に関する様々な用途であってもよい。また、モデルの入力は、音声データに限らず、画像データ等様々な種別のデータが対象であってもよい。例えば、モデルの入力が画像データである場合、学習されるモデルの用途は、一般物体認識等の各種の画像認識に関する用途であってもよい。
【0039】
〔3.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
【0040】
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、所定の通信網(ネットワーク)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
【0041】
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、学習用データ記憶部121と、モデル情報記憶部122とを有する。
【0042】
学習用データ記憶部121は、学習に用いるデータに関する各種情報(学習用データ)を記憶する。学習用データ記憶部121は、モデルの生成に用いる教師データを記憶する。学習用データ記憶部121は、入力に用いるデータやそのデータに対応する正解情報(正解ラベル)や出力(予測ラベル)といった情報を含む学習用データ情報を記憶する。
【0043】
学習用データ記憶部121は、入力に用いる音声データと、その音声データに対応する文字データ(正解データ)とが対応付けられた学習用データを記憶する。学習用データ記憶部121は、過去にユーザにより音声入力されたる音声データと、音声データを書き起こした文字データとの組合せを、学習データ(教師データ)として記憶する。
【0044】
なお、学習用データ記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、学習用データ記憶部121は、音声や画像等の教師データの種別を示す情報を各データに対応付けて記憶する。例えば、学習用データ記憶部121は、入力データの種別を示す情報を各入力データに対応付けて記憶する。
【0045】
(モデル情報記憶部122)
実施形態に係るモデル情報記憶部122は、モデルに関する情報を記憶する。例えば、モデル情報記憶部122は、学習処理により学習(生成)された学習済みモデル(モデル)の情報(モデルデータ)を記憶する。図3は、本開示の第1の実施形態に係るモデル情報記憶部の一例を示す図である。図3に、第1の実施形態に係るモデル情報記憶部122の一例を示す。図3に示した例では、モデル情報記憶部122は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
【0046】
「モデルID」は、モデルを識別するための識別情報を示す。「用途」は、対応するモデルの用途を示す。「モデルデータ」は、モデルのデータを示す。図3等では「モデルデータ」に「MDT1」といった概念的な情報が格納される例を示したが、実際には、モデルの構成(ネットワーク構成)の情報やパラメータに関する情報等、そのモデルを構成する種々の情報が含まれる。例えば、「モデルデータ」には、ネットワークの各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。
【0047】
図3に示す例では、モデルID「M1」により識別されるモデル(モデルM1)は、用途が「音声文字変換」であり、いわゆる文字起こしに用いられるモデルであることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。
【0048】
なお、モデル情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
【0049】
(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
【0050】
図2に示すように、制御部130は、取得部131と、決定部132と、学習部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
【0051】
(取得部131)
取得部131は、記憶部120から各種の情報を取得する。取得部131は、学習用データ記憶部121から学習に用いるデータを取得する。取得部131は、モデル情報記憶部122からモデルの情報を取得する。
【0052】
取得部131は、機械学習のモデルの学習に用いるデータを取得する。取得部131は、モデルに入力する入力データと、当該入力データに対応する正解データとの組合せを含むデータを取得する。取得部131は、音声認識に関するモデルの学習に用いる音声データを含むデータを取得する。取得部131は、音声データと当該音声データに対応する文字データである正解データとを含むデータを取得する。
【0053】
取得部131は、通信部110を介して、端末装置10から情報を受信する。取得部131は、端末装置10から学習用データを取得する。取得部131は、端末装置10において、音声文字変換処理の対象となった音声データ、及びその音声データの変換結果またユーザが修正した変換結果を正解データとするペアを学習用データとして端末装置10から収集する。
【0054】
(決定部132)
決定部132は、種々の情報を決定する。決定部132は、モデルのネットワーク構成を決定する。決定部132は、学習に用いるデータの特徴に基づいて、モデルのネットワーク構成を決定する。
【0055】
決定部132は、データに基づいて、モデルの第1ノードに接続する第2ノードを決定する。決定部132は、第1層の第1ノードに接続する第2ノードとして、第1層よりも入力側の第2層のノードを決定する。決定部132は、第2層のノードのうち、一部のノードを第1ノードに接続する第2ノードに決定する。
【0056】
決定部132は、データを用いた学習処理により、第1ノードに接続する第2ノードを決定する。決定部132は、カーネルのサイズを決定する学習手法を用いた学習処理により決定されたカーネルのサイズに基づいて、モデルの第1ノードに接続する第2ノードを決定する。決定部132は、Adaptive Spanによる学習処理により、モデルの第1ノードに接続する第2ノードを決定する。
【0057】
(学習部133)
学習部133は、モデルを学習する。学習部133は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を学習する。学習部133は、学習用データ記憶部121に記憶された情報に基づいて、各種情報を学習する。学習部133は、学習により生成したモデルをモデル情報記憶部122に格納する。
【0058】
学習部133は、決定部132により決定された接続関係を有するモデルを対象として、データを用いた学習処理を行う。学習部133は、決定部132により決定された接続関係を有するモデルを対象として、データを用いた学習処理により、パラメータを学習する。学習部133は、データを用いた学習処理により、音声認識に関するモデルを学習する。学習部133は、データを用いた学習処理により、音声文字変換に用いるモデルを学習する。
【0059】
学習部133は、モデル(ネットワーク)のパラメータを学習する。学習部133は、接続されたノード間の接続係数(重み)等のパラメータを学習する。学習部133は、種々の機械学習に関する技術を用いて、モデルを学習する。学習部133は、モデルに入力するデータと、そのデータが入力された場合の出力を示す正解データとのペア(組合せ)を用いて行う学習処理、すなわち教師有り学習の手法によりモデルのパラメータを学習する。なお、上記は一例であり、学習部133は、モデルのパラメータを学習可能であれば、どのような学習処理により、モデルのパラメータを学習してもよい。
【0060】
(提供部134)
提供部134は、通信部110を介して、端末装置10へ情報を送信する。提供部134は、端末装置10へモデルを提供する。例えば、提供部134は、端末装置10へ音声文字変換に用いるモデルM1を送信する。
【0061】
〔4.端末装置の構成〕
次に、図4を用いて、実施形態に係る端末装置10の構成について説明する。図4は、実施形態に係る端末装置10の構成例を示す図である。図4に示すように、端末装置10は、通信部11と、記憶部12と、入力部13と、表示部14と、制御部15とを有する。なお、端末装置10は、各種情報を音声出力するための音声出力部(例えばスピーカ等)を有してもよい。
【0062】
(通信部11)
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
【0063】
(記憶部12)
記憶部12は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、例えば、端末装置10にインストールされているアプリケーション(例えば音声文字変換アプリ等)に関する情報、例えばプログラム等を記憶する。また、記憶部12は、情報処理装置100から提供されたモデルを記憶する。例えば、記憶部12は、モデルM1を記憶する。
【0064】
(入力部13)
入力部13は、ユーザからの各種操作を受け付ける。入力部13は、音声を検知する機能を有し、ユーザの発話による音声入力を受け付ける。入力部13は、音声を検知するマイクにより検知されたユーザによる発話を入力として受け付ける。
【0065】
また、入力部13は、タッチパネル機能により表示面を介してユーザからの各種操作を受け付けてもよい。また、入力部13は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
【0066】
例えば、入力部13は、端末装置10の表示部14を介してユーザの指定操作等の操作を受け付ける。例えば、入力部13は、タッチパネルの機能によりユーザの操作を受け付ける受付部として機能する。この場合、入力部13と受付部152とは一体であってもよい。なお、入力部13によるユーザの操作の検知方式には、タブレット端末では主に静電容量方式が採用されるが、他の検知方式である抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式など、ユーザの操作を検知できタッチパネルの機能が実現できればどのような方式を採用してもよい。
【0067】
(表示部14)
表示部14は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。
【0068】
(制御部15)
制御部15は、コントローラであり、例えば、CPUやMPU等によって、端末装置10内部の記憶部12などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、インストールされているアプリケーション(例えばメッセージアプリ等)のプログラムが含まれる。また、制御部15は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
【0069】
図4に示すように、制御部15は、受信部151と、受付部152と、推論部153と、処理部154と、送信部155とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
【0070】
(受信部151)
受信部151は、通信部11を介して、情報処理装置100から情報を受信する。受信部151は、情報処理装置100から提供されたモデルを受信する。
【0071】
受信部151は、機械学習のモデルの学習に用いるデータに基づいて、モデルの第1ノードに接続する第2ノードが決定された接続関係を有し、データを用いて学習されたモデルを受信する。受信部151は、音声認識に関するモデルを受信する。受信部151は、音声データの入力に応じて、当該音声データに対応する文字データを出力するモデルを受信する。
【0072】
(受付部152)
受付部152は、各種情報を受け付ける。例えば、受付部152は、入力部13を介してユーザによる入力を受け付ける。受付部152は、ユーザによる操作を受け付ける。受付部152は、表示部14により表示された情報に対するユーザの操作を受け付ける。受付部152は、ユーザによる発話を入力として受け付ける。例えば、受付部152は、ユーザU1による「XXXX」という発話を入力として受け付ける。
【0073】
(推論部153)
推論部153は、推論処理を行う。推論部153は、記憶部12に記憶されたモデルを用いて、推論処理を行う。推論部153は、受信部151により受信されたモデルを用いて推論を行う。推論部153は、モデルに音声データを入力することにより、当該音声データに対応する推論処理を行う。推論部153は、モデルに音声データを入力することにより、当該音声データに対応する文字データを生成する推論処理を行う。
【0074】
(処理部154)
処理部154は、推論部153の推論結果を用いて各種の処理を実行する。処理部154は、推論部153の推論結果を表示部14に表示する。また、処理部154は、推論において入力に用いた音声データと、その音声データを書き起こした文字データである正解データとのペアを学習用データとして、情報処理装置100に提供する。処理部154は、推論において入力に用いた音声データと、その音声データに対応する出力結果をユーザが修正したデータを正解データとして、情報処理装置100に提供する。処理部154は、学習用データを送信部155に送信することを要求する。
【0075】
(送信部155)
送信部155は、通信部11を介して、情報処理装置100へ情報を送信する。送信部155は、処理部154からの要求に応じて、通信部11を介して、学習用データを情報処理装置100に送信する。送信部155は、推論において入力に用いた音声データと、その音声データを書き起こした文字データである正解データとのペアを学習用データとして、情報処理装置100に送信する。送信部155は、推論において入力に用いた音声データと、その音声データに対応する出力結果をユーザが修正したデータを正解データとして、情報処理装置100に送信する。
【0076】
なお、上述した制御部15による各処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した表示処理が所定のアプリケーション(例えば音声文字変換アプリ等)により行われる場合や推論処理等の処理が専用アプリにより行われる場合、制御部15は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。
【0077】
〔5.処理フロー〕
次に、図5を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図5は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。
【0078】
図5に示すように、情報処理装置100は、機械学習のモデルの学習に用いるデータを取得する(ステップS101)。情報処理装置100は、データに基づいて、モデルの第1ノードに接続する第2ノードを決定する(ステップS102)。情報処理装置100は、決定した接続関係を有するモデルを対象として、データを用いた学習処理を実行する(ステップS103)。情報処理装置100は、学習したモデルを端末装置10へ提供する(ステップS104)。
【0079】
次に、図6を用いて端末装置10におけるモデルを用いた推論等の処理の流れを示す。図6は、実施形態に係る端末装置による処理の一例を示すフローチャートである。
【0080】
図6に示すように、端末装置10は、モデルを受信していない場合(ステップS201:No)、モデルを受信するまで待機する。端末装置10は、モデルを受信した後(ステップS201:Yes)、音声入力を受け付けていない場合(ステップS202:No)、音声入力を受け付けるまで待機する。
【0081】
端末装置10は、音声入力を受け付けた場合(ステップS202:Yes)、モデルに音声入力に対応する音声データを入力することにより、音声データに対応する文字データを生成する推論処理を実行する(ステップS203)。
【0082】
そして、端末装置10は、推論結果の文字データを表示する(ステップS204)。また、端末装置10は、音声データと正解データのペアを、学習用データとして情報処理装置100へ送信してもよい。
【0083】
〔6.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、決定部132と、学習部133とを有する。取得部131は、機械学習のモデルの学習に用いるデータを取得する。決定部132は、データに基づいて、モデルの第1ノードに接続する第2ノードを決定する。学習部133は、決定部132により決定された接続関係を有するモデルを対象として、データを用いた学習処理を行う。
【0084】
これにより、実施形態に係る情報処理装置100は、データを基に第1ノードに接続する第2ノードを決定する、すなわちモデルのネットワーク構成を決定する第1の処理、及び決定したネットワーク構成を有するモデルの重み等のパラメータを学習する第2の処理を行うことにより、適切に学習されたモデルを利用可能にすることができる。
【0085】
また、実施形態に係る情報処理装置100において、決定部132は、第1層の第1ノードに接続する第2ノードとして、第1層よりも入力側の第2層のノードを決定する。
【0086】
これにより、実施形態に係る情報処理装置100は、層を跨いで接続されるノードの接続関係を決定し、決定した後にその接続関係を有するモデルのパラメータを学習することにより、適切に学習されたモデルを利用可能にすることができる。
【0087】
また、実施形態に係る情報処理装置100において、決定部132は、第2層のノードのうち、一部のノードを第1ノードに接続する第2ノードに決定する。
【0088】
これにより、実施形態に係る情報処理装置100は、全結合ではなく、一部のノードに接続したネットワーク構成を有するモデルのパラメータを学習することにより、適切に学習されたモデルを利用可能にすることができる。
【0089】
また、実施形態に係る情報処理装置100において、取得部131は、モデルに入力する入力データと、当該入力データに対応する正解データとの組合せを含むデータを取得する。決定部132は、データを用いた学習処理により、第1ノードに接続する第2ノードを決定する。学習部133は、決定部132により決定された接続関係を有するモデルを対象として、データを用いた学習処理により、パラメータを学習する。
【0090】
これにより、実施形態に係る情報処理装置100は、第1ノードに接続する第2ノードの決定を、データを用いた学習処理により行うことにより、適切な接続関係を有するモデルを生成することができるため、適切に学習されたモデルを利用可能にすることができる。
【0091】
また、実施形態に係る情報処理装置100において、決定部132は、カーネルのサイズを決定する学習手法を用いた学習処理により決定されたカーネルのサイズに基づいて、モデルの第1ノードに接続する第2ノードを決定する。
【0092】
これにより、実施形態に係る情報処理装置100は、第1ノードに接続する第2ノードの決定を、カーネルのサイズを決定する学習手法により行うことにより、適切な接続関係を有するモデルを生成することができるため、適切に学習されたモデルを利用可能にすることができる。
【0093】
また、実施形態に係る情報処理装置100において、決定部132は、Adaptive Spanによる学習処理により、モデルの第1ノードに接続する第2ノードを決定する。
【0094】
これにより、実施形態に係る情報処理装置100は、第1ノードに接続する第2ノードの決定を、Adaptive Spanを用いた学習手法により行うことにより、適切な接続関係を有するモデルを生成することができるため、適切に学習されたモデルを利用可能にすることができる。
【0095】
また、実施形態に係る情報処理装置100において、取得部131は、音声認識に関するモデルの学習に用いる音声データを含むデータを取得する。学習部133は、データを用いた学習処理により、音声認識に関するモデルを学習する。
【0096】
これにより、実施形態に係る情報処理装置100は、音声認識に関するモデルを柔軟に学習することができ、適切に学習されたモデルを利用可能にすることができる。
【0097】
また、実施形態に係る情報処理装置100において、取得部131は、音声データと当該音声データに対応する文字データである正解データとを含むデータを取得する。学習部133は、データを用いた学習処理により、音声文字変換に用いるモデルを学習する。
【0098】
これにより、実施形態に係る情報処理装置100は、音声文字変換に用いるモデルを柔軟に学習することができ、適切に学習されたモデルを利用可能にすることができる。
【0099】
また、実施形態に係る端末装置10は、受信部151と、推論部153とを有する。受信部151は、機械学習のモデルの学習に用いるデータに基づいて、モデルの第1ノードに接続する第2ノードが決定された接続関係を有し、データを用いて学習されたモデルを受信する。推論部153は、受信部151により受信されたモデルを用いて推論を行う。
【0100】
これにより、実施形態に係る端末装置10は、データを基に第1ノードに接続する第2ノードを決定する、すなわちモデルのネットワーク構成が決定されたモデルを用いて推論処理を行うことができるため、適切なモデルを利用した処理を行うことができる。
【0101】
また、実施形態に係る端末装置10おいて、受信部151は、音声認識に関するモデルを受信する。推論部153は、モデルに音声データを入力することにより、当該音声データに対応する推論処理を行う。
【0102】
これにより、実施形態に係る情報処理装置100は、柔軟に学習された音声認識に関するモデルを用いて推論処理を行うことができるため、適切なモデルを利用した処理を行うことができる。
【0103】
また、実施形態に係る端末装置10おいて、受信部151は、音声データの入力に応じて、当該音声データに対応する文字データを出力するモデルを受信する。推論部153は、モデルに音声データを入力することにより、当該音声データに対応する文字データを生成する推論処理を行う。
【0104】
これにより、実施形態に係る情報処理装置100は、柔軟に学習された音声文字変換のモデルを用いて推論処理(音声文字変換)を行うことができるため、適切なモデルを利用した処理を行うことができる。
【0105】
〔7.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報処理装置100は、例えば図7に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
【0106】
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
【0107】
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
【0108】
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。
【0109】
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。
【0110】
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。
【0111】
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。
【0112】
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
【0113】
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
【0114】
例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
【0115】
〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
【0116】
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
【0117】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
【0118】
例えば、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。また、情報処理装置100と端末装置10とは一体であってもよい。この場合、例えばユーザが利用する端末装置10が情報処理装置100としての機能を有してもよい。
【0119】
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
【0120】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
【符号の説明】
【0121】
1 情報処理システム
100 情報処理装置
120 記憶部
121 学習用データ記憶部
122 モデル情報記憶部
130 制御部
131 取得部
132 決定部
133 学習部
134 提供部
10 端末装置
11 通信部
12 記憶部
13 入力部
14 表示部
15 制御部
151 受信部
152 受付部
153 推論部
154 処理部
155 送信部
図1
図2
図3
図4
図5
図6
図7