IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ カラクリ株式会社の特許一覧

特許7521775情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法
<>
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図1
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図2
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図3
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図4
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図5
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図6
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図7
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図8
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図9
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図10
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図11
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図12
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図13
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図14
  • 特許-情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-16
(45)【発行日】2024-07-24
(54)【発明の名称】情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240717BHJP
   G06F 18/214 20230101ALI20240717BHJP
【FI】
G06N20/00
G06F18/214
【請求項の数】 19
(21)【出願番号】P 2020071424
(22)【出願日】2020-04-13
(65)【公開番号】P2021168055
(43)【公開日】2021-10-21
【審査請求日】2023-01-13
(73)【特許権者】
【識別番号】518127510
【氏名又は名称】カラクリ株式会社
(74)【代理人】
【識別番号】110002815
【氏名又は名称】IPTech弁理士法人
(72)【発明者】
【氏名】中山 智文
(72)【発明者】
【氏名】吉田 雄紀
(72)【発明者】
【氏名】大日方 孝輝
(72)【発明者】
【氏名】武藤 健介
(72)【発明者】
【氏名】中嶋 恭久
【審査官】渡辺 一帆
(56)【参考文献】
【文献】国際公開第2019/003485(WO,A1)
【文献】国際公開第2020/039882(WO,A1)
【文献】特開2013-161295(JP,A)
【文献】特開2020-035116(JP,A)
【文献】特開2018-106662(JP,A)
【文献】特開2018-049342(JP,A)
【文献】特開2002-345862(JP,A)
【文献】国際公開第2019/167556(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06N 20/00-20/20
G06F 18/214
(57)【特許請求の範囲】
【請求項1】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける手段と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する評価手段と、
前記評価手段による評価結果を提示する提示手段とを具備し、
前記評価手段は、既存の学習用データの分布における、前記アノテーションにより作成された学習用データの値に基づき、前記アノテーションを評価する情報処理装置。
【請求項2】
前記評価手段は、既存の学習用データの分布と、実際にユーザから入力されたログデータの分布とにおける、前記アノテーションにより作成された学習用データの値に基づき、前記アノテーションを評価する請求項1記載の情報処理装置。
【請求項3】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける手段と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する評価手段と、
前記評価手段による評価結果を提示する提示手段とを具備し、
前記評価手段は、前記機械学習モデルの学習前後の精度の変化に基づき、前記アノテーションを評価する情報処理装置。
【請求項4】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける手段と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する評価手段と、
前記評価手段による評価結果を提示する提示手段とを具備し、
前記評価手段は、学習後の前記機械学習モデルに対して入力したテストデータの正解出力への貢献に基づき、前記アノテーションを評価する情報処理装置。
【請求項5】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける手段と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する評価手段と、
前記評価手段による評価結果を提示する提示手段とを具備し、
前記評価手段は、学習済みモデルに入力された入力データの正解出力への貢献に基づき、前記アノテーションを評価する情報処理装置。
【請求項6】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける手段と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する評価手段と、
前記評価手段による評価結果を提示する提示手段とを具備し、
前記評価手段は、学習済みモデルから出力される回答に対するユーザからの評価に基づき、前記アノテーションを評価する情報処理装置。
【請求項7】
前記提示手段は、前記アノテーション毎の評価結果を提示する請求項1乃至6のいずれかに記載の情報処理装置。
【請求項8】
前記提示手段は、前記アノテーションの評価結果をまとめて提示する請求項1乃至6のいずれかに記載の情報処理装置。
【請求項9】
前記提示手段は、前記アノテーションの評価結果をアノテーター毎にまとめて提示する請求項1乃至6のいずれかに記載の情報処理装置。
【請求項10】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを情報処理装置のコンピュータに実行させ、
前記評価する処理は、既存の学習用データの分布における、前記アノテーションにより作成された学習用データの値に基づき、前記アノテーションを評価するアノテーション評価プログラム。
【請求項11】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを情報処理装置のコンピュータに実行させ、
前記評価する処理は、前記機械学習モデルの学習前後の精度の変化に基づき、前記アノテーションを評価するアノテーション評価プログラム。
【請求項12】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを情報処理装置のコンピュータに実行させ、
前記評価する処理は、学習後の前記機械学習モデルに対して入力したテストデータの正解出力への貢献に基づき、前記アノテーションを評価するアノテーション評価プログラム。
【請求項13】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを情報処理装置のコンピュータに実行させ、
前記評価する処理は、学習済みモデルに入力された入力データの正解出力への貢献に基づき、前記アノテーションを評価するアノテーション評価プログラム。
【請求項14】
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを情報処理装置のコンピュータに実行させ、
前記評価する処理は、学習済みモデルから出力される回答に対するユーザからの評価に基づき、前記アノテーションを評価するアノテーション評価プログラム。
【請求項15】
コンピュータによって実行されるアノテーション評価方法であって、
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを実行し、
前記評価する処理は、既存の学習用データの分布における、前記アノテーションにより作成された学習用データの値に基づき、前記アノテーションを評価するアノテーション評価方法。
【請求項16】
コンピュータによって実行されるアノテーション評価方法であって、
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを実行し、
前記評価する処理は、前記機械学習モデルの学習前後の精度の変化に基づき、前記アノテーションを評価するアノテーション評価方法。
【請求項17】
コンピュータによって実行されるアノテーション評価方法であって、
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを実行し、
前記評価する処理は、学習後の前記機械学習モデルに対して入力したテストデータの正解出力への貢献に基づき、前記アノテーションを評価するアノテーション評価方法。
【請求項18】
コンピュータによって実行されるアノテーション評価方法であって、
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを実行し、
前記評価する処理は、学習済みモデルに入力された入力データの正解出力への貢献に基づき、前記アノテーションを評価するアノテーション評価方法。
【請求項19】
コンピュータによって実行されるアノテーション評価方法であって、
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける処理と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する処理と、
前記評価する処理による評価結果を提示する処理とを実行し、
前記評価する処理は、学習済みモデルから出力される回答に対するユーザからの評価に基づき、前記アノテーションを評価するアノテーション評価方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法に関する。
【背景技術】
【0002】
機械学習モデルを学習させる前段において、学習のために収集したデータに意味付けを与えるアノテーションというプロセスがある。アノテーションは、機械学習モデルの学習、及び学習済みモデルの評価に大きな影響を与える重要なプロセスである。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2020-024633号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
アノテーションでは、精度の高い、大量のアノテーションデータを作成しなければならない。しかしながら、アノテーションは、単調である一方で、高い集中力を要するため、アノテーションを実施するアノテーターはモチベーションを維持させるのが困難である。引用文献1では、モデルを用いた推論の良し悪しに影響する訓練データがどれかを評価する発明が開示されているが、アノテーターについては言及されていない。
【0005】
本開示では、アノテーターのモチベーション低下を軽減することを目的とする。
【課題を解決するための手段】
【0006】
上記課題を解決するため、本開示の情報処理装置は、アノテーションを受け付ける手段、評価手段、及び提示手段を有する。アノテーションを受け付ける手段は、機械学習モデルの学習用データを作成するためのアノテーションを受け付ける。評価手段は、学習用データを用いた機械学習モデルの学習への学習用データの貢献に基づき、アノテーションを評価する。提示手段は、評価結果をアノテーターへ提示する。
【発明の効果】
【0007】
本開示の情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法によれば、アノテーターのモチベーション低下を軽減することができる。
【図面の簡単な説明】
【0008】
図1図1は、本実施形態に係る対話システムの構成例を表すブロック図である。
図2図2は、図1に示されるサーバ装置の機能構成の例を示すブロック図である。
図3図3は、図2で示される評価データのデータ構造の例を表す模式図である。
図4図4は、図1に示されるサーバ装置がアノテーションを評価する際の処理部の動作の例を表すフローチャートである。
図5図5は、図1の端末装置で実施されるアノテーションの例を表す模式図である。
図6図6は、図1の端末装置のディスプレイで表示されるアノテーションの評価結果の例を表す模式図である。
図7図7は、学習用データの分布の例を表す模式図である。
図8図8は、学習用データの分布と、質問文の分布との例を表す模式図である。
図9図9は、図1に示されるサーバ装置がアノテーションを評価する際の処理部の動作のその他の例を表すフローチャートである。
図10図10は、図1に示される端末装置のディスプレイで表示されるアノテーションの評価画面の例を表す模式図である。
図11図11は、図1に示される端末装置のディスプレイで表示されるアノテーションの評価画面のその他の例を表す模式図である。
図12図12は、図1に示される端末装置のディスプレイで表示されるアノテーションの評価画面のその他の例を表す模式図である。
図13図13は、図1に示されるサーバ装置がアノテーションを評価する際の処理部の動作のその他の例を表すフローチャートである。
図14図14は、第2の実施形態に係る端末装置の機能構成の例を示すブロック図である。
図15図15は、図14に示される端末装置がアノテーションを評価する際の処理部の動作の例を表すフローチャートである。
【発明を実施するための形態】
【0009】
以下、図面を参照しながら、実施の形態について説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。
【0010】
(第1の実施形態)
<システム構成>
図1を用いて本開示に係る対話システムの構成について説明する。図1は、本実施形態に係る対話システム1の構成例を表すブロック図である。図1に示される対話システム1は、サーバ装置10、端末装置20、及びユーザ端末30を備える。サーバ装置10、端末装置20、及びユーザ端末30は、例えば、インターネット、及び/又は通信事業者が提供する通信網等のネットワークを介して接続されている。
【0011】
サーバ装置10は、ユーザ端末30を介してユーザから問い合わせられる質問に対し、検索クエリを分類するチャットボットを用いて返答する装置である。サーバ装置10は、コンピュータ、及びメインフレーム等により実現される。なお、サーバ装置10は、1台のコンピュータにより実現されてもよいし、複数台のコンピュータが組み合わされて実現されてもよい。
【0012】
端末装置20は、サーバ装置10で運用されるチャットボットのための学習用データを作成する際のアノテーションを実行する端末である。アノテーションは、機械学習モデルを学習させる前段において、学習のために収集したデータに意味付けを与えるプロセスである。本実施形態において、アノテーションを実行するものをアノテーターと称する。端末装置20のアノテーションにより作成されたアノテーションデータは、サーバ装置10へ送信される。端末装置20は、例えば、チャットボットの管理者、チャットボットの作成者、又はアノテーション担当者等が所有する、例えば、コンピュータにより実現される。チャットボットの管理者、チャットボットの作成者、又はアノテーション担当者等が、アノテーターになり得る。端末装置20は、インターネット、LAN(Local Area Network)等のネットワークを介してサーバ装置10に接続可能である。端末装置20とサーバ装置10との間の接続は、有線でもよいし無線でもよい。
【0013】
ユーザ端末30は、対話システム1を用いたサービスを利用するユーザが使用する端末である。ユーザは、ユーザ端末を介してサーバ装置10に対する質問文を入力する。ユーザ端末30は、入力された質問に対するサーバ装置10からの返信をディスプレイに表示する。ユーザ端末30は、例えば、スマートフォン、コンピュータ、又はヘッドマウントディスプレイ等の装置により実現される。なお、ユーザ端末30から、サーバ装置10で運用されるチャットボットのための学習用データを作成する際のアノテーションを実行してもよい。つまり、ユーザもアノテーターになり得る。
【0014】
ユーザ端末30は、例えば、サーバ装置10、又は別途サーバ(不図示)が提供する動作環境(API(Application Programing Interface)、プラットフォーム等)を利用してサーバ装置10にアクセスする。また、ユーザ端末30は、インストールされた専用のアプリケーションソフトウェアによってサーバ装置10にアクセスしてもよい。ユーザ端末30とサーバ装置10との間の接続は、有線でもよいし無線でもよい。
【0015】
<サーバ装置の構成>
次に、サーバ装置10の構成について説明する。図2は、図1に示されるサーバ装置10の機能構成の例を示すブロック図である。図2に示されるサーバ装置10は、例えば、処理部11、記憶部12、及び通信インタフェース13を備える。処理部11、記憶部12、及び通信インタフェース13は、例えば、バスを介して互いに通信可能に接続されている。
【0016】
処理部11は、例えば、プロセッサであり、CPU(Central Processing Unit)、CPUが処理を実行する際に用いるメモリを備える。メモリは、いわゆる主記憶装置であり、例えば、DRAM(Dynamic Random Access Memory)等により構成される。CPUは、例えば、記憶部12に記憶されているプログラムをメモリに読み込む。CPUは、メモリに読み込まれたプログラムを実行する。これにより、処理部11は、プログラムに対応する種々の機能を実現する。なお、処理部11は、GPU(Graphics Processing Unit)を有していても構わない。
【0017】
記憶部12は、種々の情報を記憶するHDD(hard disk drive)、又はSSD(solid state drive)等の不揮発性の記憶回路を備える、いわゆる補助記憶装置である。なお、記憶部12は、CD-ROM、DVD、及びフラッシュメモリ等の可搬性記憶媒体との間で種々の情報を読み書きする駆動装置等であってもよい。また、記憶部12は、必ずしも単独の回路により実現されなくてもよい。記憶部12は、例えば、複数の記憶回路により実現されてもよい。
【0018】
記憶部12は、種々の会話を想定した会話カード121を記憶している。各会話カード121には、会話の種類に応じた複数の質問パターン1211と、回答パターン1212とが記憶されている。質問パターン1211、及び回答パターン1212は、学習用データの一例であり、例えば、端末装置20でのアノテーションにより作成される。
【0019】
記憶部12は、端末装置20で実施されたアノテーションを評価するためのアノテーション評価プログラム122を記憶している。アノテーション評価プログラム122は、例えば、記憶部12に予め記憶されていてもよい。また、例えば、非一過性の記憶媒体に記憶されて配布され、非一過性の記憶媒体から読み出されて記憶部12にインストールされてもよい。
【0020】
記憶部12は、学習用データに基づいて機械学習モデルに機械学習を行わせるモデル学習プログラム123を記憶している。本実施形態において、機械学習のアルゴリズムとしては、例えば、判別分析、ロジスティック回帰、サポートベクターマシン、ニューラルネットワーク、Randomized Trees、又は部分空間法等が挙げられる。モデル学習プログラム123は、例えば、記憶部12に予め記憶されていてもよい。また、モデル学習プログラム123は、例えば、非一過性の記憶媒体に記憶されて配布され、非一過性の記憶媒体から読み出されて記憶部12にインストールされてもよい。
【0021】
記憶部12は、機械学習により生成された学習済みモデル125を記憶している。学習済みモデル125は、検索クエリを分類するチャットボットを実現するためのモデルである。学習済みモデル125は、例えば、ユーザ端末30のユーザからのアクセスに応答してサーバ装置10がサービスを当該ユーザに提供するにあたり、予め記憶部12に記憶されている。学習済みモデル125は、端末装置20でのアノテーションにより作成される学習用データ、又は、ユーザ端末30が入力する質問文に基づき、随時、生成(再学習)されることとしてもよい。
【0022】
学習済みモデル125は、学習用データに基づき、モデル学習プログラム123に従って機械学習モデルに機械学習を行わせることにより得られる。本実施形態において、学習済みモデル125は、例えば、入力される質問に対し、所定の回答を出力するように学習されている。このとき、学習用データは、例えば、質問パターン1211を入力データとし、この質問パターン1211に対する回答パターン1212を正解出力データとする。
【0023】
本実施形態に係る機械学習モデルは、例えば、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数、及びパラメータの組合せにより定義される。本実施形態に係る機械学習モデルは、上記の要請を満たす如何なるパラメータ付き合成関数であってもよいが、多層のネットワークモデル(以下、多層化ネットワークと呼ぶ)であるとする。多層化ネットワークを用いる学習済みモデル125は、質問を入力する入力層と、質問に対する回答を出力する出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層あるいは隠れ層とを有する。学習済みモデル125は、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定される。
【0024】
本実施形態に係る多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)が用いられ得る。DNNとしては、例えば、画像を対象とする畳み込みニューラルネットワーク(Convolution Neural Network:CNN)を用いてもよい。また、自然言語を対象とする自己注意機構付きネットワークを用いてもよい。
【0025】
記憶部12は、学習済みモデル125を用いてユーザと対話するための対話プログラム124を記憶している。対話プログラム124は、例えば、記憶部12に予め記憶されていてもよい。また、例えば、非一過性の記憶媒体に記憶されて配布され、非一過性の記憶媒体から読み出されて記憶部12にインストールされてもよい。
【0026】
記憶部12は、生成された学習済みモデル125の精度を評価するためのテストデータ126を予め記憶している。テストデータ126は、例えば、テストとして設定された複数の質問パターンと、これらの質問パターンと対応付けられた回答パターンとを含む。
【0027】
記憶部12は、対話システム1を用いたサービスを利用するユーザからユーザ端末30を介して入力された質問文をログデータ127として記憶している。
【0028】
記憶部12は、アノテーションが評価された評価結果を評価データ128として記憶している。図3は、図2で示される評価データ128のデータ構造の例を表す模式図である。図3に示される例では、評価データ128は、アノテーションが実施された日時、アノテーターを識別可能な識別子、及びアノテーションの評価により管理されている。評価データ128は、アノテーションの価値が評価される度にレコードが追加されていく。図3に示される例では、アノテーションの価値が、数値で表される場合を例に示しているが、アノテーションの価値は、数値で表されるものに限定されない。
【0029】
通信インタフェース13は、例えば、ネットワークと接続する回路により実現される。通信インタフェース13は、ネットワークを介し、端末装置20のうち少なくともいずれかと通信する。
【0030】
図2に示される処理部11は、例えば、アノテーション評価プログラム122、モデル学習プログラム123、又は対話プログラム124を実行することで、これらのプログラムに対応する機能を実現する。例えば、処理部21は、アノテーション評価プログラム122を実行することで、評価部111、及び提示部112の機能を実現する。また、処理部21は、モデル学習プログラム123を実行することで、学習部113の機能を実現する。また、処理部21は、対話プログラム124を実行することで、対話処理部114の機能を実現する。また、処理部21は、不図示の制御プログラムを実行することで、記憶制御部115の記憶を実現する。
【0031】
評価部111は、端末装置20で実施されたアノテーションの価値を評価する。具体的には、評価部111は、例えば、端末装置20でアノテーションが実施された際、機械学習モデルが学習された際、又はユーザ端末30との対話が実施された際に、アノテーションを評価する。
【0032】
提示部112は、アノテーションの評価結果を端末装置20に提示する。
【0033】
学習部113は、学習用データに基づき、機械学習モデルに機械学習を行わせることで学習済みモデル125を生成する。具体的には、例えば、学習部113は、質問パターン1211を入力データとし、この質問パターン1211に対する回答パターン1212を正解出力データとして機械学習モデルを学習させることで、学習済みモデル125を生成する。
【0034】
また、学習部113は、生成した学習済みモデル125の精度を評価する。具体的には、学習部113は、例えば、生成された学習済みモデル125に対してテストデータ126を適用し、学習済みモデル125がテストデータ126を正しく識別できるか等に基づいて精度を評価する。
【0035】
対話処理部114は、学習済みモデル125を用い、ユーザからの質問に対し対話形式で回答する。
【0036】
記憶制御部115は、アノテーションにより意味付けがなされた入力データと正解出力データとを、記憶部12に記憶する。また、記憶制御部115は、評価部111により評価された結果を評価データ128に記憶する。
【0037】
なお、サーバ装置10は、入力インタフェースを有していてもよい。入力インタフェースは、例えば、マウス、キーボード、及び、操作面へ触れることで指示が入力されるタッチパネル等により実現される。入力インタフェースは、操作者からの入力指示を電気信号へ変換し、電気信号を処理部11へ出力する。なお、入力インタフェースは、マウス、及びキーボード等の物理的な操作デバイスに限定されない。入力インタフェースには、例えば、外部の入力機器から入力される電気信号を受け付ける受信ポートが含まれてもよい。
【0038】
また、サーバ装置10は、出力インタフェースを有していてもよい。出力インタフェースは、例えば、表示機器、及び印刷機器等により実現される。表示機器としては、例えば、液晶ディスプレイ、有機ELディスプレイ、LEDディスプレイ、プラズマディスプレイ、及びCRTディスプレイ等、任意のディスプレイが利用可能である。表示機器は、画像データに基づく画像等を表示する。印刷機器は、例えば、プリンタである。印刷機器は、通信に関する所定の情報を所定用紙に印刷する。なお、出力インタフェースは、表示機器、及び印刷機器等の物理的な出力装置に限定されない。出力インタフェースには、例えば、外部の出力装置へ画像データを送信する送信ポートが含まれてもよい。
【0039】
<アノテーション評価処理>
サーバ装置10が、端末装置20で実施されたアノテーションを評価する処理を説明する。本実施形態において、アノテーションは、例えば、アノテーションが実施された際、機械学習モデルが学習された際、又は学習済みモデル125が使用された際に評価される。以下では、それぞれの場合におけるアノテーションの評価について説明する。
【0040】
(1)アノテーション評価の具体例1
具体例1では、アノテーションが実施された際に、アノテーションが評価される場合について説明する。図4は、図1に示されるサーバ装置10がアノテーションを評価する際の処理部11の動作の例を表すフローチャートである。
【0041】
処理部11は、端末装置20で実施されるアノテーションを、通信インタフェース13を介して受け付ける(ステップS101)。本実施形態において、アノテーションデータには、例えば、互いに関連付けられた入力データとしての質問パターンと、正解出力データとしての回答パターンとが含まれる。また、アノテーションデータには、ユーザから入力された質問文への回答に対するポジティブ/ネガティブのラベル付けが含まれる。また、アノテーションデータには、互いに類似すると関連付けられた入力データとしての質問パターンが含まれる。
【0042】
図5は、図1の端末装置20で実施されるアノテーションの例を表す模式図である。図5は、端末装置20のディスプレイ表示の例を表しており、表示画面の例えば、中央部分には、アノテーションのテーマ241が表示されている。図5に示される例では、端末装置20のディスプレイに「質問「○○サービスの支払いをキャンセルしたい」の回答を教えて下さい。」が、表示されている。つまり、図5では、質問パターンと関連付けられる回答パターンの入力が求められている。
【0043】
テーマ241の下段には、テーマ241に対する回答を入力するための回答領域242と、入力された情報をサーバ装置10へ送信するための送信ボタン243とが表示されている。アノテーターは、回答領域242に、テーマ241に対する回答を入力し、入力が完了すると、送信ボタン243を押下する。図5に示される例では、アノテーターは、「○○サービスの支払いをキャンセルしたい」の質問パターンの回答として、「支払キャンセルはこちら(URL)からお願い致します。」を回答領域242に入力し、回答領域242を押下する。回答領域242の押下により端末装置20からサーバ装置10へ、質問パターン:「○○サービスの支払いをキャンセルしたい」と、この質問パターンの回答として関連付けられた回答パターン:「支払キャンセルはこちら(URL)からお願い致します。」とがアノテーションデータとして送信される。
【0044】
なお、端末装置20で実施されるアノテーションは、図5で示されるものに限定されない。テーマ241には、テキストでなく、画像が表示されてもよい。また、テーマ241で依頼される関連付けは、質問と回答に限定されず、質問間の関連付けであってもよい。また、回答領域242への回答の入力は、フリーワードに限定されず、予め設けられた複数の選択肢に対する選択形式であっても構わない。
【0045】
端末装置20においてアノテーションが実施されるタイミングは、例えば、機械学習モデルを学習させるための学習用データを蓄積する必要がある場合、又は、学習済みモデル125を再学習させるための学習用データを蓄積する必要がある場合等である。
【0046】
処理部11の記憶制御部115は、受け付けたアノテーションデータを、例えば、質問パターン1211又は回答パターン1212として記憶部12に記憶する(ステップS102)。
【0047】
処理部11の評価部111は、記憶部12にアノテーションデータが記憶されると、アノテーションデータを作成したアノテーションの価値を評価する(ステップS103)。評価部111は、例えば、既存の学習用データでカバーされていないデータが作成されたアノテーションほど価値が高いと評価する。既存の学習用データでカバーされていないデータは、例えば、既存の学習用データと類似度が低いデータと換言可能である。評価結果は、記憶制御部115により、評価データ128に記憶される。
【0048】
評価部111は、アノテーションの価値を、例えば、数値で評価する。例えば、評価部111は、既存の学習用データでカバーされていない度合いに応じ、そのデータのアノテーションに高い数値を付与する。
【0049】
処理部11の提示部112は、評価された価値を端末装置20でアノテーションを実施したアノテーターへ提示する(ステップS104)。具体的には、例えば、提示部112は、評価された価値に関する情報を端末装置20へ送信する。価値に関する情報を受信した端末装置20は、受信した情報を含む画面を端末装置20のディスプレイに表示させる。
【0050】
図6は、図1の端末装置20のディスプレイで表示されるアノテーションの評価結果の例を表す模式図である。図6に示される例では、1つのアノテーションに対する評価結果が表示されている。具体的には、回答領域242に入力されたテキスト情報に重畳されるように、このアノテーションについての評価結果244が表示されている。なお、アノテーションの評価結果の提示は、1つのアノテーションに対するものに限定されない。提示部112は、複数のアノテーションに対する評価結果をまとめて提示しても構わない。
【0051】
(1-1)具体例1における評価手法1
図4のステップS103で実施されるアノテーションの価値評価は、例えば、アノテーションデータと既存の学習用データとの比較に基づく手法1、又はアノテーションデータと、実際に入力された質問文及び既存の学習用データとの比較に基づく手法2を用いて行われる。ここでは、評価手法1について説明する。
【0052】
処理部11の評価部111は、既存の学習用データの分布が低い空間のデータほど、そのデータを作成したアノテーションの貢献が高いと判断する。
【0053】
具体的には、評価部111は、既存の学習用データの特徴量をベクトル空間中の点群とみなし、これらの点群に基づき、学習用データの確率密度分布を取得する。確率密度分布は、例えば、ベクトル空間上の点群をフィッティングすることで取得される。なお、分布を取得する方法はこれに限定されず、いかなる既存の方法が使用されても構わない。例えば、データ数を表すヒストグラムに基づいて分布を取得してもよい。
【0054】
評価部111は、取得した分布をp(x)とし、アノテーションにより作成されたデータの値がp(x1)だった場合、例えば、-logp(x1)を貢献度(評価値)として算出する。つまり、記憶部12に記憶されている学習用データにおいて発生件数が低いデータが作成された場合、そのアノテーションの貢献度は高く評価される。より具体的には、今まで記憶されていない単語を含むアノテーションデータが記憶された場合、そのアノテーションの貢献度は高く評価される。また、意味空間に文章をマッピングしてその分布から外れているようなアノテーションデータについても、そのアノテーションの貢献度は高く評価される。
【0055】
図7は、学習用データの分布p(x)の例を表す模式図である。図7において、横軸がデータ空間を表し、縦軸が発生件数を表す。図7において、実線が学習用データの分布p(x)を表す。図7に示される例では、矢印で示される空間のデータを作成したアノテーションの貢献度が高く評価される。
【0056】
(1-2)具体例1における評価手法2
図4のステップS103におけるアノテーションの価値評価で用いられる評価手法2について説明する。処理部11の評価部111は、ユーザから入力された質問文の分布と、既存の学習用データの分布との値の差が大きいデータほど、そのデータを作成したアノテーションの貢献が高いと判断する。
【0057】
具体的には、評価部111は、ユーザから実際に入力された質問文をログデータ127から読み出す。評価部111は、読み出した質問文の特徴量をベクトル空間中の点群とみなし、これらの点群に基づき、質問文の確率密度分布を取得する。
【0058】
評価部111は、学習用データの分布をp(x)とし、質問文の分布をq(x)とし、アノテーションにより作成されたデータの値がp(x1)、及びq(x1)だった場合、例えば、q(x1)/p(x1)を貢献度として算出する。つまり、質問文で多く発生し、学習用データで発生が少ないデータが作成された場合、そのアノテーションの貢献度は高く評価される。より具体的には、質問文に多く含まれる単語であって、学習用データにあまり含まれていない単語を含むアノテーションデータが記憶された場合、そのアノテーションの貢献度は高く評価される。
【0059】
図8は、学習用データの分布p(x)と、質問文の分布q(x)との例を表す模式図である。図8において、横軸がデータ空間を表し、縦軸が発生件数を表す。図8において、実線が学習用データの分布p(x)を表し、破線が質問文の分布q(x)を表す。図8に示される例では、矢印で示される空間のデータを作成したアノテーションの貢献度が高く評価される。
【0060】
このように、サーバ装置10は、アノテーションが実施されたときに、アノテーションによって作成される学習用データが機械学習モデルの判断に与える影響を算出する。このため、サーバ装置10は、学習済みモデル125の作成、又は学習済みモデル125の再学習のために、どのアノテーターがどれくらい貢献したのかを評価可能となる。この評価結果を人事評価又は報酬等と紐づけることで、アノテーターのモチベーションをコントロールできる。また、アノテーションを実施したときに機械学習モデルの改善に基づく評価が即座に可視化されることで、どのようなアノテーションを実施すればより多くの貢献になるのかをアノテーターが学ぶことが可能となる。これにより、より効率的に学習用データを収集することができる。
【0061】
(2)アノテーション評価の具体例2
具体例2では、機械学習モデルが学習された際に、アノテーションが評価される場合について説明する。図9は、図1に示されるサーバ装置10がアノテーションを評価する際の処理部11の動作のその他の例を表すフローチャートである。
【0062】
処理部11は、端末装置20で実施されるアノテーションにより作成されるアノテーションデータを受け付ける(ステップS101)。処理部11の記憶制御部115は、受け付けたアノテーションデータを、例えば、質問パターン1211又は回答パターン1212として記憶部12に記憶する(ステップS102)。
【0063】
処理部11の学習部113は、記憶部12に記憶されている学習用データに基づき、学習済みモデル125の再学習を実施する(ステップS201)。
【0064】
処理部11の評価部111は、学習済みモデル125の再学習が終了すると、アノテーションデータを作成したアノテーションの価値を評価する(ステップS202)。評価部111は、例えば、再学習後の学習済みモデル125において、学習済みモデル125の精度向上に貢献したアノテーションほど価値が高いと評価する。評価結果は、記憶制御部115により、評価データ128に記憶される。
【0065】
評価部111は、アノテーションの価値を、例えば、数値で評価する。例えば、評価部111は、学習済みモデル125の精度向上の貢献度に応じ、そのデータのアノテーションに高い数値を付与する。
【0066】
処理部11の提示部112は、評価データ128で記憶されている評価結果を、端末装置20でアノテーションを実施したアノテーターへ提示する(ステップS203)。具体的には、例えば、提示部112は、ステップS201で実施される1回の再学習についてのアノテーションの評価結果に関する情報を端末装置20へ送信する。価値に関する情報を受信した端末装置20は、受信した情報を含む画面を端末装置20のディスプレイに表示させる。なお、提示部112は、アノテーションの評価結果があることをアノテーターへ通知し、アノテーターからの表示指示に応じて評価画面を表示させるようにしてもよい。
【0067】
提示部112が端末装置20に評価画面を表示させるタイミングは、学習済みモデル125の再学習が完了した直後であってもよいし、再学習が完了してから所定時間の経過後であってもよいし、予め設定された時間又は日付であってもよいし、アノテーターからの要求に応じてでもよいし、管理者からの指示に応じてでもよい。
【0068】
図10図12は、図1に示される端末装置20のディスプレイで表示されるアノテーションの評価画面の例を表す模式図である。図10に示される例では、評価部111により評価された価値が表示されている。具体的には、図10に示される例では、アノテーションの評価がアノテーター毎に累積した数値で表示されている。
【0069】
また、図11及び図12に示される例では、評価部111により評価された価値が相対的に表示されている。具体的には、図11では、アノテーションの評価に基づいて算出された、学習済みモデル125の作成に対するアノテーター毎の貢献度が割合で表示されている。また、図12では、アノテーションの評価に基づいて算出された、学習済みモデル125の作成に対するアノテーター毎の貢献度が脳内の文字の数で表示されている。
【0070】
なお、提示部112により提示されるアノテーションの評価画面は、1回の再学習についての評価結果に基づくものに限定されない。提示部112は、複数回の再学習についてのアノテーションの評価を累積し、累積した評価結果に基づく画面を端末装置20に表示させてもよい。
【0071】
また、アノテーションの評価結果の提示は、アノテーションの評価をアノテーター毎にまとめたものに限定されない。提示部112は、各アノテーションに対する評価結果をそれぞれ提示しても構わない。
【0072】
図9の説明では、学習済みモデル125を再学習する場合を例に説明したが、図9に示される処理は、機械学習モデルに機械学習を行わせることで学習済みモデル125を生成する際に実施されても構わない。
【0073】
(2-1)具体例2における評価手法1
図9のステップS202で実施されるアノテーションの価値評価は、例えば、学習後に向上した精度に基づく手法1、又はテストデータに対する正解出力への貢献に基づく手法2を用いて行われる。ここでは、評価手法1について説明する。
【0074】
処理部11の評価部111は、学習前後の学習済みモデル125の出力を比較し、学習により学習済みモデル125の精度がどれだけ向上したかに基づいてアノテーションを評価する。
【0075】
具体的には、例えば、評価部111は、学習前の学習済みモデル125にテストデータ126としての質問パターンを入力する。学習済みモデル125は、入力された質問パターンと対応する回答パターンを出力すると共に、この出力の確信度を出力する。
【0076】
評価部111は、ステップS201の学習が終了すると、学習後の学習済みモデル125にテストデータ126としての質問パターンを入力する。学習済みモデル125は、入力された質問パターンと対応する回答パターンを出力すると共に、この出力の確信度を出力する。
【0077】
評価部111は、学習の前後で出力された確信度を比較する。評価部111は、確信度が向上している場合、この学習で用いられた学習用データを作成したアノテーションに、向上した確信度に応じた価値を評価する。アノテーションが複数存在する場合には、例えば、評価部111は、確信度の向上に応じて評価された価値をアノテーションの数で割った値を各アノテーションの価値とする。
【0078】
なお、学習後の学習済みモデル125から出力される確信度が、学習前の学習済みモデル125から出力される確信度よりも低くなっていることもありうる。つまり、学習により学習済みモデル125の精度が低下してしまう場合である。このような場合、評価部111は、低下した確信度に応じた負の価値を算出してもよい。負の価値が算出されることで、アノテーションノイズの減少につながる。アノテーションが複数存在する場合には、例えば、評価部111は、確信度の低下に応じて算出された負の価値をアノテーションの数で割った値を各アノテーションの価値とする。
【0079】
また、学習済みモデル125の精度がどれだけ向上したかは、確信度に基づく判断に限定されず、様々な手法で判断されてもよい。例えば、評価部111は、学習済みモデル125に入力したテストデータ126に対する正解出力の割合の変化に基づき、学習済みモデル125の精度向上を判断しても構わない。また、評価部111は、学習済みモデル125の精度の向上を、学習済みモデル125に対するユーザからの評価に基づいて判断してもよい。
【0080】
(2-2)具体例2における評価手法2
図9のステップS202におけるアノテーションの価値評価で用いられる評価手法2について説明する。処理部11の評価部111は、テストデータに対して正解を出力させるのに役に立った、根拠となった学習用データを作成したアノテーションの貢献が高いと判断する。
【0081】
具体的には、例えば、評価部111は、ステップS201の学習が終了すると、学習後の学習済みモデル125にテストデータ126としての質問パターンを入力する。学習済みモデル125は、入力された質問パターンに対して正解となる回答パターンを出力すると共に、この出力の根拠となった学習用データを識別する情報を出力する。評価部111は、根拠として示された学習用データを作成したアノテーションの貢献を高く評価する。記憶制御部115は、評価結果を評価データ128に記憶する。
【0082】
また、評価部111は、複数のテストデータ126を学習済みモデル125へ入力し、入力した質問パターンと対応する回答パターンを出力させると共に、これらの出力の根拠となった学習用データを把握するようにしてもよい。評価部111は、根拠として示された複数の学習用データをそれぞれ作成したアノテーションの貢献を高く評価する。記憶制御部115は、評価結果を評価データ128に記憶する。
【0083】
また、評価部111は、アノテーションを評価する際、例えば、上記(1-1)で説明した既存の学習用データの分布を利用してもよい。例えば、学習済みモデル125に入力されるテストデータ126が、分布において発生件数が少ない空間のデータである場合、評価部111は、このテストデータ126に対する正解出力の根拠となった学習用データを作成したアノテーションの貢献をより高く評価する。
【0084】
また、評価部111は、アノテーションを評価する際、例えば、上記(1-2)で説明した既存の学習用データの分布と、ユーザから入力された質問文の分布とを利用してもよい。例えば、学習済みモデル125に入力されるテストデータ126が、質問文で多く発生し、学習用データで発生が少ない空間のデータである場合、評価部111は、このテストデータ126に対する正解出力の根拠となった学習用データを作成したアノテーションの貢献をより高く評価する。
【0085】
なお、学習済みモデル125は、入力された質問パターンに対して不正解となる回答パターンを出力すると共に、この出力の根拠となった学習用データを示すこともあり得る。つまり、学習により学習済みモデル125の精度が低下してしまう場合である。このような場合、評価部111は、間違えの根拠となった学習用データを作成したアノテーションの負の価値を算出してもよい。
【0086】
このように、サーバ装置10は、機械学習モデルの学習が終了したときに、アノテーションによって作成される学習用データが機械学習モデルの判断に与えた影響を算出する。このため、サーバ装置10は、学習済みモデル125の作成、又は学習済みモデル125の再学習のために、どのアノテーターがどれくらい貢献したのかを評価可能となる。この評価結果を人事評価又は報酬等と紐づけることで、アノテーターのモチベーションをコントロールできる。また、機械学習モデルの学習が完了したときに機械学習モデルの改善に基づく評価が可視化されることで、どのようなアノテーションを実施すればより多くの貢献になるのかをアノテーターが学ぶことが可能となる。これにより、より効率的に学習用データを収集することができる。
【0087】
(3)アノテーション評価の具体例3
具体例3では、学習済みモデル125が使用された際に、アノテーションが評価される場合について説明する。図13は、図1に示されるサーバ装置10がアノテーションを評価する際の処理部11の動作の例を表すフローチャートである。
【0088】
処理部11は、ユーザ端末30を操作するユーザから、質問文の入力を受け付ける(ステップS301)。質問文は、自然文の形式で取得することが可能である。自然文の形式で質問を可能とすることにより、ユーザは人に問合せているのと同じような感覚で簡単に問合せを行うことが可能となる。なお、キーワード等を示す単語を取得してもよい。
【0089】
処理部11は、質問文を受け付けると、対話処理部114により、対話処理を実行する(ステップS302)。具体的には、対話処理部114は、取得した質問文を学習済みモデル125に入力する。学習済みモデル125では、入力された質問文と類似する1211の群が抽出される。類似する質問パターン1211の群は、例えば、類似度に基づいて抽出される。例えば、取得した質問文と記憶部12に記憶されている質問パターン1211とが比較され、質問文と質問パターン1211との類似度が算出される。質問文と質問パターン1211との類似度には、質問文と、同じ回答パターン1212に対応する質問パターン1211の集合である質問パターン1211の群との類似度が含まれてもよい。また、質問文と質問パターン1211との類似度には、質問文と、質問パターン1211を元にした関数との類似度が含まれてもよい。また、質問文と質問パターン1211との類似度には、質問文と、質問パターン1211を元にしたカテゴリとの類似度が含まれてもよい。
【0090】
類似度は、例えば、自然言語処理を用いて算出される。具体的には、質問文と質問パターンとのキーワードをそれぞれ抽出しておき、キーワードの一致度をキーワード毎の重み等も用いて類似度としてもよい。他にも、質問文と質問パターンとをそれぞれベクトル化し、コサイン類似度を用いて類似度を算出してもよい。
【0091】
学習済みモデル125からは、抽出した質問パターン1211の群に基づき、回答パターン1212と紐づけられた会話カード121の識別番号と、この出力の確信度とが出力される。対話処理部114は、出力された回答をユーザ端末30へ送信する。対話処理部114は、入力された質問文をログデータ127として記憶部12に記憶する。
【0092】
質問文と質問パターン1211との類似度を算出するに際して、ユーザ及び/又は管理者が入力した質問パターンを学習用データの候補として機械学習をさせることにより、類似度算出のためのパラメータを更新してもよい。このような機械学習を行うことにより、ユーザの意図にあった回答パターンを提示する精度を向上させることが可能となる。
【0093】
処理部11の評価部111は、回答パターン1212と紐づけられた会話カード121の識別番号と、この出力の確信度とが学習済みモデル125から出力されると、アノテーションの価値を評価する(ステップS303)。評価部111は、例えば、質問文に対して正解を出力させるのに役に立った、根拠となった学習用データを作成したアノテーションの貢献が高いと判断する。
【0094】
具体的には、例えば、学習済みモデル125は、会話カード121の識別番号と、この出力の確信度と共に、この出力の根拠となった学習用データを識別する情報を出力する。評価部111は、根拠として示された学習用データを作成したアノテーションの貢献を高く評価する。記憶制御部115は、評価結果を評価データ128に記憶する。
【0095】
また、評価部111は、アノテーションを評価する際、例えば、上記(1-1)で説明した既存の学習用データの分布を利用してもよい。例えば、学習済みモデル125に入力される質問文が、分布において発生件数が少ない空間でサンプリングされる場合、評価部111は、この質問文に対する正解出力の根拠となった学習用データを作成したアノテーションの貢献をより高く評価する。
【0096】
また、評価部111は、アノテーションを評価する際、例えば、上記(1-2)で説明した既存の学習用データの分布と、ユーザから入力された質問文の分布とを利用してもよい。例えば、学習済みモデル125に入力される質問文が、質問文で多く発生し、学習用データで発生が少ない空間からサンプリングされる場合、評価部111は、この質問文に対する正解出力の根拠となった学習用データを作成したアノテーションの貢献をより高く評価する。
【0097】
また、ユーザは、ユーザ端末30のディスプレイに表示される操作コマンドから、サーバ装置10からの応答を評価することが可能である。具体的には、例えば、ユーザが、何らかの問題に直面したが、適切な質問が思い浮かばず、発生している問題をそのまま質問文として入力したとする。この質問文に対し、ユーザが真に欲している回答がサーバ装置10から得られた場合、ユーザは、サーバ装置10からの回答を評価するため、ユーザ端末30のディスプレイに表示されている「いいね」アイコンを押下する。サーバ装置10の回答がユーザにより評価されることは頻繁に起きることではない。評価部111は、このようにユーザからの評価を得た正解出力の根拠となった学習用データを作成したアノテーションの貢献をさらに高く評価する。
【0098】
なお、ユーザ端末30のディスプレイに表示される操作コマンドは、「いいね」アイコンに限定されない。出力された回答が役に立ったことを表す「役に立った」アイコンであっても構わない。また、ディスプレイには、「役に立たなかった」アイコンが操作コマンドとして表示されてもよい。「役に立たなかった」アイコンが押下された場合、評価部111は、例えば、この評価を受けた出力の根拠となった学習用データを作成したアノテーションの貢献をマイナスに評価する。
【0099】
処理部11の提示部112は、評価データ128で記憶されている評価結果を、端末装置20でアノテーションを実施したアノテーターへ提示する(ステップS304)。具体的には、例えば、提示部112は、ステップS302で実施される1回の対話についてのアノテーションの評価結果に基づき、アノテーターの評価画面を表示させるための情報を作成する。提示部112は、作成した情報を端末装置20へ送信し、端末装置20のディスプレイに、アノテーターを評価するための画面を表示させる。なお、提示部112は、アノテーションの評価結果があることをアノテーターへ通知し、アノテーターからの表示指示に応じて評価画面を表示させるようにしてもよい。
【0100】
提示部112が端末装置20に評価画面を表示させるタイミングは、対話処理部114による対話処理が完了した直後であってもよいし、対話処理が完了してから所定時間の経過後であってもよいし、予め設定された時間又は日付であってもよいし、アノテーターからの要求に応じてでもよいし、管理者からの指示に応じてでもよい。
【0101】
提示部112が端末装置20に表示させる表示画面では、例えば、図10に示されるように、評価部111により評価された価値が表示される。または、図11又は図12に示されるように、評価部111により評価された価値が相対的に表示される。
【0102】
このように、サーバ装置10は、学習済みモデル125が使用されたときに、アノテーションによって作成された学習用データの学習済みモデル125の判断に対する貢献を算出する。このため、サーバ装置10は、学習済みモデル125が質問文に適した回答を出力するために、どのアノテーターがどれくらい貢献したのかを評価可能となる。この評価結果を人事評価又は報酬等と紐づけることで、アノテーターのモチベーションをコントロールできる。また、学習済みモデル125が使用されたときに学習済みモデル125の正解出力に基づく評価が可視化されることで、どのようなアノテーションを実施すればより多くの貢献になるのかをアノテーターが学ぶことが可能となる。これにより、より効率的に学習用データを収集することができる。
【0103】
以上のように、第1の実施形態では、サーバ装置10は、通信インタフェース13を介して、機械学習モデルの学習用データを作成するためのアノテーションを受け付ける。処理部11は、評価部111により、学習用データを用いた機械学習モデルの学習への学習用データの貢献に基づき、アノテーションを評価する。そして、処理部11は、提示部112により、評価結果をアノテーターへ提示するようにしている。これにより、アノテーションを実施したアノテーターに対し、そのアノテーションに対して評価された価値が提示されるようになる。
【0104】
したがって、第1の実施形態に開示の情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法によれば、アノテーターのモチベーション低下を軽減することができる。
【0105】
また、学習用データを作成する側は効率的に機械学習モデルをトレーニングさせたいが、アノテーターの中にはAI技術に精通していない者もいる。第1の実施形態に開示の情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法によれば、機械学習モデルの判断に与える影響に基づいてアノテーションが評価される。そのため、どのようなアノテーションを実施すればより多くの貢献になるのかをアノテーターが学ぶことが可能となる。これにより、より効率的に学習用データを収集することができる。
【0106】
(第2の実施形態)
第1の実施形態では、サーバ装置10でアノテーションが評価される場合を例に説明した。第2の実施形態では、端末装置20でアノテーションを評価する場合を説明する。
【0107】
<端末装置の構成>
第2の実施形態に係る端末装置20の構成について説明する。図14は、第2の実施形態に係る端末装置20の機能構成の例を示すブロック図である。図14に示される端末装置20は、例えば、処理部21、記憶部22、入力インタフェース23、出力インタフェース24、及び通信インタフェース25を備える。
【0108】
処理部21は、端末装置20の中枢として機能するプロセッサである。処理部21は、例えば、CPU、CPUが処理を実行する際に用いるメモリを備える。CPUは、例えば、記憶部22に記憶されているプログラムをメモリに読み込む。CPUは、メモリに読み込まれたプログラムを実行する。これにより、処理部21は、プログラムに対応する種々の機能を実現する。
【0109】
記憶部22は、種々の情報を記憶するHDD、又はSSD等の不揮発性の記憶回路を備える、いわゆる補助記憶装置である。なお、記憶部22は、CD-ROM、DVD、及びフラッシュメモリ等の可搬性記憶媒体との間で種々の情報を読み書きする駆動装置等であってもよい。
【0110】
記憶部22は、種々の会話を想定した会話カード221を記憶している。各会話カード221には、会話の種類に応じた複数の質問パターン2211と、回答パターン2212とが記憶されている。質問パターン2211、及び回答パターン2212は、学習用データの一例である。質問パターン2211、及び回答パターン2212は、例えば、サーバ装置10で記憶されているデータと同じ内容である。 質問パターン2211、及び回答パターン2212の一部は、例えば、自装置でのアノテーションにより作成され、その他の部分は、例えば、他の端末装置20でのアノテーションにより作成される。
【0111】
記憶部22は、アノテーションを実施するためのアノテーションプログラム222を記憶している。また、記憶部22は、アノテーションを評価するためのアノテーション評価プログラム223を記憶している。アノテーションプログラム222、アノテーション評価プログラム223は、例えば、記憶部22に予め記憶されていてもよいし、例えば、非一過性の記憶媒体に記憶されて配布され、非一過性の記憶媒体から読み出されて記憶部22にインストールされてもよい。
【0112】
記憶部22は、アノテーションが評価された評価結果を評価データ224として記憶している。
【0113】
記憶部22は、アノテーションの対象となる素材データ225を記憶している。素材データ225は、例えば、サーバ装置10からダウンロードされてもよいし、例えば、非一過性の記憶媒体に記憶されて配布され、非一過性の記憶媒体から読み出されて記憶部22に記憶されてもよい。
【0114】
入力インタフェース23は、例えば、マウス、キーボード、操作面へ触れることで指示が入力されるタッチパネル、又は音声を入力するマイク等により実現される。入力インタフェース23は、ユーザからの入力指示を電気信号へ変換し、電気信号を処理部21へ出力する。
【0115】
出力インタフェース24は、例えば、表示機器、印刷機器、又はスピーカにより実現される。表示機器としては、例えば、液晶ディスプレイ、及び有機ELディスプレイ等である。
【0116】
通信インタフェース25は、例えば、ネットワークと接続する回路により実現される。通信インタフェース25は、ネットワークを介し、サーバ装置10と通信する。
【0117】
図14に示される処理部21は、例えば、アノテーションプログラム222、アノテーション評価プログラム223を実行することで、これらのプログラムに対応する機能を実現する。例えば、処理部21は、アノテーションプログラム222を実行することで、アノテーション処理部213の機能を実現する。また、処理部21は、アノテーション評価プログラム223を実行することで、評価部211、及び提示部212の機能を実現する。また、処理部21は、不図示の制御プログラムを実行することで、記憶制御部214の記憶を実現する。
【0118】
アノテーション処理部213は、素材データ225に対し、アノテーターからの入力に基づき、意味付けを与える。アノテーション処理部213は、アノテーションにより作成されたアノテーションデータをサーバ装置10へ送信する。
【0119】
評価部211は、実施されたアノテーションの価値を評価する。具体的には、例えば、評価部211は、例えば、アノテーションが実施された際、アノテーションを評価する。
【0120】
提示部212は、アノテーションの評価結果を端末装置20に提示する。
【0121】
記憶制御部214は、アノテーションにより意味付けがなされたアノテーションデータを会話カード221として記憶部22に記憶する。また、提示部212は、評価部211により評価された結果を評価データ224に記憶する。
【0122】
<アノテーション評価処理>
端末装置20が、アノテーションを評価する処理を説明する。第2の実施形態において、アノテーションは、例えば、アノテーションが実施された際に評価される。
【0123】
図15は、図14に示される端末装置20がアノテーションを評価する際の処理部21の動作の例を表すフローチャートである。
【0124】
処理部21は、アノテーション処理部213により、アノテーターからの指示に基づき、アノテーションを実施する(ステップS401)。つまり、アノテーション処理部213は、素材データ225に意味付けを与える。
【0125】
端末装置20においてアノテーションが実施されるタイミングは、例えば、機械学習モデルを学習させるための学習用データを蓄積する必要がある場合、又は、学習済みモデル125を再学習させるための学習用データを蓄積する必要がある場合等である。
【0126】
処理部21の記憶制御部214は、アノテーションにより作成されたアノテーションデータを、例えば、質問パターン2211又は回答パターン2212として記憶部22に記憶する(ステップS402)。
【0127】
処理部21の評価部211は、記憶部22にアノテーションデータが記憶されると、アノテーションデータを作成したアノテーションの価値を評価する(ステップS403)。評価部211は、例えば、既存の学習用データでカバーされていないデータが作成されたアノテーションほど価値が高いと評価する。既存の学習用データでカバーされていないデータは、例えば、既存の学習用データと類似度が低いデータと換言可能である。評価結果は、記憶制御部214により、評価データ224に記憶される。
【0128】
評価部211は、アノテーションの価値を、例えば、数値で評価する。例えば、評価部211は、既存の学習用データでカバーされていない度合いに応じ、そのデータのアノテーションに高い数値を付与する。
【0129】
具体的には、評価部211は、既存の学習用データの分布から外れたデータほど、そのデータを作成したアノテーションの貢献が高いと判断する。例えば、評価部211は、既存の学習用データの特徴量をベクトル空間中の点群とみなし、これらの点群に基づき、学習用データの確率密度分布を取得する。確率密度分布は、例えば、ベクトル空間上の点群をフィッティングすることで取得される。なお、分布を取得する方法はこれに限定されず、いかなる既存の方法が使用されても構わない。
【0130】
評価部211は、取得した分布をp(x)とし、アノテーションにより作成されたデータの値がp(x)だった場合、例えば、-logp(x1)を貢献度(評価値)として算出する。つまり、記憶部22に記憶されている学習用データにおいて発生件数が低いデータが作成された場合、そのアノテーションの貢献度は高く評価される。より具体的には、今まで記憶されていない単語を含むアノテーションデータが記憶された場合、そのアノテーションの貢献度は高く評価される。また、意味空間に文章をマッピングしてその分布から外れているようなアノテーションデータについても、そのアノテーションの貢献度は高く評価される。
【0131】
処理部21の提示部212は、評価された価値をアノテーターへ提示する(ステップS404)。具体的には、例えば、提示部212は、評価された価値が含まれる画面を端末装置20のディスプレイに表示させる。
【0132】
なお、評価部211によるアノテーション評価は、上記に限定されない。対話システム1を利用する際にユーザから入力される質問文のログデータが記憶部22に記憶されている場合、評価部211は、アノテーションデータと、ログデータ及び既存の学習用データとの比較に基づいて行ってもよい。
【0133】
具体的には、評価部211は、ユーザから入力された質問文の分布と、既存の学習用データの分布との値の差が大きいデータほど、そのデータを作成したアノテーションの貢献が高いと判断する。例えば、評価部211は、ユーザから実際に入力された質問文を記憶部22から読み出す。評価部211は、読み出した質問文の特徴量をベクトル空間中の点群とみなし、これらの点群に基づき、質問文の確率密度分布を取得する。
【0134】
評価部211は、学習用データの分布をp(x)とし、質問文の分布をq(x)とし、アノテーションにより作成されたデータの値がp(x1)、及びq(x1)だった場合、例えば、q(x1)/p(x1)を貢献度として算出する。つまり、質問文で多く発生し、学習用データで発生が少ないデータが作成された場合、そのアノテーションの貢献度は高く評価される。より具体的には、質問文に多く含まれる単語であって、学習用データにあまり含まれていない単語を含むアノテーションデータが記憶された場合、そのアノテーションの貢献度は高く評価される。
【0135】
以上のように、第2の実施形態では、端末装置20の処理部21は、アノテーション処理部213により、機械学習モデルの学習用データを作成するためのアノテーションを実施する。処理部21は、評価部211により、学習用データを用いた機械学習モデルの学習への学習用データの貢献に基づき、アノテーションを評価する。そして、処理部21は、提示部212により、評価結果をアノテーターへ提示するようにしている。これにより、アノテーションを実施したアノテーターに対し、そのアノテーションに対して評価された価値が提示されるようになる。
【0136】
したがって、第2の実施形態に開示の情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法によれば、アノテーターのモチベーション低下を軽減することができる。
【0137】
また、第2の実施形態に開示の情報処理装置、アノテーション評価プログラム、及びアノテーション評価方法によれば、機械学習モデルの判断に与える影響に基づいてアノテーションが評価されるため、どのようなアノテーションを実施すればより多くの貢献になるのかをアノテーターが学ぶことが可能となり、より効率的に学習用データを収集することができる。
【0138】
なお、第2の実施形態では、端末装置20が、アノテーションが実施された際に、アノテーションを評価する場合を例に説明した。しかしながら、端末装置20がアノテーションを評価するタイミングは、アノテーションが実施された際に限定されない。評価部211は、機械学習モデルが学習された際、又は学習済みモデルが使用された際に評価されるようにしてもよい。
【0139】
ただし、機械学習モデルが学習された際にアノテーションを評価する場合、処理部21は、学習用データに基づき、機械学習モデルに機械学習を行わせることで学習済みモデルを生成する、学習部の機能を有する。評価部211は、学習済みモデルの学習、又は再学習が終了すると、アノテーションの価値を評価する。評価部211は、例えば、学習後、又は再学習後の学習済みモデルにおいて、学習済みモデルの精度向上に貢献したアノテーションほど価値が高いと評価する。評価結果は、記憶制御部214により、評価データ224に記憶される。
【0140】
また、学習済みモデルが使用された際にアノテーションを評価する場合、処理部21は、学習済みモデルを用い、ユーザからの質問に対し対話形式で回答する、対話処理部の機能を有する。つまり、このとき、端末装置20は、ユーザ端末30のようにユーザにより使用される端末となり、ユーザからの質問に答える学習済みモデルを有している。
【0141】
評価部211は、学習済みモデルに質問文が入力され、回答パターン2212と紐づけられた会話カード221の識別番号と、この出力の確信度とが学習済みモデルから出力されると、アノテーションの価値を評価する。評価部211は、例えば、質問文に対して正解を出力させるのに役に立った、根拠となった学習用データを作成したアノテーションの貢献が高いと判断する。
【0142】
<その他の変形例>
上記実施形態では、検索クエリを分類するタイプのチャットボットの機械学習モデルを学習させるためのデータについてのアノテーションを評価する例について説明したが、上記実施形態は、チャットボット以外の機械学習モデルを学習させるためのデータについてのアノテーションを評価する場合にも適用可能である。
例えば、学習済みモデルは、文字画像を入力データ、この文字画像に対するテキストデータを正解出力データとして学習されても構わない。この場合、文字画像とテキストデータとを関連付けるアノテーションが評価される。また、学習済みモデルは、物体の画像を入力データ、この物体画像に対するメタデータ(名称等)を正解出力データとして学習されても構わない。この場合、物体画像とメタデータとを関連付けるアノテーションが評価される。また、学習済みモデルは、時系列のデータを入力データ、この時系列データにおける異常ログを正解出力データとして学習されても構わない。この場合、時系列データと異常ログとを関連付けるアノテーションが評価される。
【0143】
以上、本開示のいくつかの実施形態を説明したが、これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
【0144】
<付記>
実施形態で説明した事項を、以下に付記する。
【0145】
(付記1)
機械学習モデルの学習用データを作成するためのアノテーションを受け付ける手段(13、213)と、
前記学習用データを用いた前記機械学習モデルの学習への前記学習用データの貢献に基づき、前記アノテーションを評価する評価手段(111、211)と、
前記評価結果を提示する提示手段(112、212)と
を具備する情報処理装置(10、20)。
【0146】
(付記1)によれば、アノテーターのモチベーション低下を軽減することができる。
【0147】
(付記2)
前記評価手段は、前記アノテーションの受付に応じ、前記アノテーションを評価する(付記1)に記載の情報処理装置。
【0148】
(付記2)によれば、アノテーションが実施されたときに機械学習モデルの改善に基づく評価を即座に可視化することが可能となる。
【0149】
(付記3)
前記評価手段は、既存の学習用データの分布における、前記アノテーションにより作成された学習用データの値に基づき、前記アノテーションを評価する(付記2)に記載の情報処理装置。
【0150】
(付記3)によれば、アノテーションが実施されたときに、アノテーションが即座に評価可能となる。
【0151】
(付記4)
前記評価手段は、既存の学習用データの分布と、実際にユーザから入力されたログデータの分布とにおける、前記アノテーションにより作成された学習用データの値に基づき、前記アノテーションを評価する(付記2)に記載の情報処理装置。
【0152】
(付記4)によれば、アノテーションが実施されたときに、アノテーションが即座により高精度に評価可能となる。
【0153】
(付記5)
前記評価手段は、前記機械学習モデルが学習されると、前記アノテーションを評価する(付記1)に記載の情報処理装置。
【0154】
(付記5)によれば、学習済みモデル125の作成、又は学習済みモデル125の再学習のために、どのアノテーターがどれくらい貢献したのかを評価することが可能となる。
【0155】
(付記6)
前記評価手段は、前記機械学習モデルの学習前後の精度の変化に基づき、前記アノテーションを評価する(付記5)に記載の情報処理装置。
【0156】
(付記6)によれば、機械学習モデルの学習の効果に基づき、アノテーションを正確に評価することが可能となる。
【0157】
(付記7)
前記評価手段は、学習後の前記機械学習モデルに対して入力したテストデータの正解出力への貢献に基づき、前記アノテーションを評価する(付記5)に記載の情報処理装置。
【0158】
(付記7)によれば、機械学習モデルの学習への貢献に基づき、アノテーションを正確に評価することが可能となる。
【0159】
(付記8)
前記評価手段は、学習済みモデルが使用されると、前記アノテーションを評価する(付記1)に記載の情報処理装置。
【0160】
(付記8)によれば、学習済みモデル125が実際に使用される際にアノテーションが評価されるため、実際に役に立ったアノテーションが評価されることになる。
【0161】
(付記9)
前記評価手段は、前記学習済みモデルに入力された入力データの正解出力への貢献に基づき、前記アノテーションを評価する(付記8)に記載の情報処理装置。
【0162】
(付記9)によれば、入力データに適した回答を出力するために、どのアノテーションがどれくらい貢献したのかを評価することが可能となる。
【0163】
(付記10)
前記評価手段は、前記学習済みモデルから出力される回答に対するユーザからの評価に基づき、前記アノテーションを評価する(付記8)又は(付記9)に記載の情報処理装置。
【0164】
(付記10)によれば、ユーザからの評価をアノテーションの評価に反映させることが可能となる。
【0165】
(付記11)
前記提示手段は、前記アノテーション毎の評価結果を提示する(付記1)乃至(付記10)のいずれかに記載の情報処理装置。
【0166】
(付記11)によれば、アノテーション毎の評価が明確になる。
【0167】
(付記12)
前記提示手段は、前記アノテーションの評価結果をまとめて提示する(付記1)乃至(付記10)のいずれかに記載の情報処理装置。
【0168】
(付記12)によれば、実施したアノテーションの数、及びそれらについての個々の評価が明確になる。
【0169】
(付記13)
前記提示手段は、前記アノテーションの評価結果をアノテーター毎にまとめて提示する(付記1)乃至(付記10)のいずれかに記載の情報処理装置。
【0170】
(付記13)によれば、機械学習モデルの学習についての貢献をアノテーター単位で明確化することが可能となる。
【符号の説明】
【0171】
1…対話システム
10…サーバ装置
11…処理部
111…評価部
112…提示部
113…学習部
114…対話処理部
115…記憶制御部
12…記憶部
121…会話カード
1211…質問パターン
1212…回答パターン
122…アノテーション評価プログラム
123…モデル学習プログラム
124…対話プログラム
125…学習済みモデル
126…テストデータ
127…ログデータ
128…評価データ
13…通信インタフェース
20…端末装置
21…処理部
211…評価部
212…提示部
213…アノテーション処理部
214…記憶制御部
22…記憶部
221…会話カード
2211…質問パターン
2212…回答パターン
222…アノテーションプログラム
223…アノテーション評価プログラム
224…評価データ
225…素材データ
23…入力インタフェース
24…出力インタフェース
241…テーマ
242…回答領域
243…送信ボタン
244…評価結果
25…通信インタフェース
30…ユーザ端末
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15