(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025009947
(43)【公開日】2025-01-20
(54)【発明の名称】情報処理装置、方法、及びプログラム
(51)【国際特許分類】
G06F 16/9032 20190101AFI20250109BHJP
【FI】
G06F16/9032
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2024101492
(22)【出願日】2024-06-24
(31)【優先権主張番号】P 2023107473
(32)【優先日】2023-06-29
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】522228207
【氏名又は名称】株式会社VAIABLE
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】貞光 九月
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175FA01
5B175GC01
5B175JB02
(57)【要約】
【課題】日時調整を可能とする言語モデルを生成する。
【解決手段】情報処理装置は、日時を受け付ける入力部と、入力文章に応じた応答を出力する学習済みの生成AIモデルを用いて、現時点が前記日時であると仮定したときの前記応答を生成する処理部と、前記応答を出力する出力部と、を含む。
【選択図】
図3
【特許請求の範囲】
【請求項1】
課題及び解決策の少なくとも一方を表すデータを受け付ける入力部と、
課題及び解決策の少なくとも一方の重要度を表すスコアを出力する学習済みのスコア推論モデルを用いて、受け付けた課題及び解決策の少なくとも一方を表すデータについての前記スコアを推論する推論部と、
を含む情報処理装置。
【請求項2】
前記推論部は、前記学習済みのスコア推論モデルとして、入力文章に応じた応答を出力する学習済みの生成AIモデルを用いて、前記スコアを推論する請求項1記載の情報処理装置。
【請求項3】
前記生成AIモデルは、予め用意された、課題及び解決策の少なくとも一方と、前記スコアとの対を用いた追加学習されたものである請求項2記載の情報処理装置。
【請求項4】
前記入力部は、更に、日時を受け付け、
現時点が前記日時であると仮定したときの前記スコアを推論する請求項1記載の情報処理装置。
【請求項5】
課題及び解決策の少なくとも一方を表すデータを受け付ける入力部と、
受け付けた課題及び解決策の少なくとも一方を表すデータに基づいて、課題及び解決策の少なくとも一方の重要度を表すスコアを推論する推論部と、
を含む情報処理装置。
【請求項6】
前記データに対し、複数のキーワードを抽出する抽出部と、
前記抽出された複数のキーワードから、キーワードの部分集合を複数作成する部分集合作成部と、
前記複数の部分集合の各々について、前記データと、前記部分集合との関連性を評価する評価部と、
前記関連性の降順に、少なくとも一つの前記部分集合を、重要なキーワード集合として抽出する部分集合抽出部と、
前記抽出された重要なキーワード集合を、検索クエリとして用いて、検索を実行する検索部とを更に含み、
前記推論部は、前記検索部による検索結果に基づいて、前記スコアを推論する請求項5記載の情報処理装置。
【請求項7】
前記入力部は、更に、日時を受け付け、
現時点が前記日時であると仮定したときの前記スコアを推論する請求項5記載の情報処理装置。
【請求項8】
課題を表すデータを受け付ける入力部と、
課題に対する解決策を出力する学習済みの解決策推論モデルを用いて、受け付けた課題を表すデータについての前記解決策を推論する推論部と、
を含む情報処理装置。
【請求項9】
前記推論部は、前記学習済みの解決策推論モデルとして、入力文章に応じた応答を出力する学習済みの生成AIモデルを用いて、前記解決策を推論する請求項8記載の情報処理装置。
【請求項10】
前記生成AIモデルは、予め用意された、課題と、解決策との対を用いた追加学習されたものである請求項9記載の情報処理装置。
【請求項11】
入力部が、課題及び解決策の少なくとも一方を表すデータを受け付け、
推論部が、課題及び解決策の少なくとも一方の重要度を表すスコアを出力する学習済みのスコア推論モデルを用いて、受け付けた課題及び解決策の少なくとも一方を表すデータについての前記スコアを推論する
情報処理方法。
【請求項12】
入力部が、課題及び解決策の少なくとも一方を表すデータを受け付け、
推論部が、受け付けた課題及び解決策の少なくとも一方を表すデータに基づいて、課題及び解決策の少なくとも一方の重要度を表すスコアを推論する
情報処理方法。
【請求項13】
入力部が、課題を表すデータを受け付け、
推論部が、課題に対する解決策を出力する学習済みの解決策推論モデルを用いて、受け付けた課題を表すデータについての前記解決策を推論する
情報処理方法。
【請求項14】
請求項1~請求項10の何れか1項記載の情報処理装置としてコンピュータを機能させるための情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、方法、及びプログラムに関する。
【背景技術】
【0002】
従来、検索を用いたデータ拡張として、Retrieval augumentが知られている(非特許文献1)。
【0003】
また、適切なタスクを自動で選択するAutoGPTという技術が知られている。
【先行技術文献】
【非特許文献】
【0004】
【非特許文献1】インターネット検索<URL:https://aclanthology.org/2022.emnlp-main.294/>
【発明の概要】
【発明が解決しようとする課題】
【0005】
本発明は、日時調整を可能とする言語モデルを生成することができる情報処理装置、方法、及びプログラムを提供することを目的とする。
【0006】
本発明は、課題及び解決策の少なくとも一方についての重要度を表すスコアを推論することができる情報処理装置、方法、及びプログラムを提供することを目的とする。
【0007】
本発明は、課題についての解決策を推論することができる情報処理装置、方法、及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0008】
本開示の第1態様は、情報処理装置であって、日時を受け付ける入力部と、入力文章に応じた応答を出力する学習済みの生成AIモデルを用いて、現時点が前記日時であると仮定したときの前記応答を生成する処理部と、前記応答を出力する出力部と、を含む。
【0009】
本開示の第2態様は、情報処理装置であって、課題及び解決策の少なくとも一方を表すデータを受け付ける入力部と、課題及び解決策の少なくとも一方の重要度を表すスコアを出力する学習済みのスコア推論モデルを用いて、受け付けた課題及び解決策の少なくとも一方を表すデータについての前記スコアを推論する推論部と、を含む。
【0010】
本開示の第3態様は、情報処理装置であって、課題及び解決策の少なくとも一方を表すデータを受け付ける入力部と、受け付けた課題及び解決策の少なくとも一方を表すデータに基づいて、課題及び解決策の少なくとも一方の重要度を表すスコアを推論する推論部と、を含む。
【0011】
本開示の第4態様は、情報処理装置であって、課題を表すデータを受け付ける入力部と、課題に対する解決策を出力する学習済みの解決策推論モデルを用いて、受け付けた課題を表すデータについての前記解決策を推論する推論部と、を含む。
【発明の効果】
【0012】
開示の技術によれば、日時調整を可能とする言語モデルを生成することができる。
【0013】
開示の技術によれば、課題及び解決策の少なくとも一方についての重要度を表すスコアを推論することができる。
【0014】
開示の技術によれば、課題についての解決策を推論することができる。
【図面の簡単な説明】
【0015】
【
図1】本実施形態の情報処理システムの構成を示すブロック図である。
【
図2】本実施形態の管理サーバとして機能するコンピュータの一例の概略ブロック図である。
【
図3】第1実施形態の管理サーバの構成を示すブロック図である。
【
図4】第2実施形態の管理サーバの構成を示すブロック図である。
【
図5】第3実施形態の管理サーバの構成を示すブロック図である。
【
図6】生成AIモデルを用いて検索クエリを生成して検索を実行する例を示す図である。
【
図7】第3実施形態に係る管理サーバの検索処理ルーチンの内容を示すフローチャートである。
【
図8】第4実施形態の管理サーバの構成を示すブロック図である。
【
図9】第5実施形態の管理サーバの構成を示すブロック図である。
【
図10】第6実施形態の管理サーバの構成を示すブロック図である。
【発明を実施するための形態】
【0016】
以下、図面を参照して本発明の実施形態を詳細に説明する。
【0017】
<第1実施形態>
図1に示すように、第1実施形態に係る情報処理システム100は、サービス管理会社側に設置される管理サーバ10と、ユーザが操作するユーザ端末24と、を備えている。管理サーバ10は、情報処理装置の一例である。なお、
図1では、簡単のため、ユーザ端末24が2台設けられている場合を例に示しているが、ユーザ端末24が3台以上設けられていてもよい。
【0018】
管理サーバ10及びユーザ端末24は、インターネットなどのネットワーク26を介して接続されている。
【0019】
ユーザ端末24は、スマートフォン端末、携帯電話、PDA(Personal Digital Assistants)端末、あるいはノート型・ブック型コンピュータ端末等からなる。
【0020】
図2は、本実施形態の管理サーバ10のハードウェア構成を示すブロック図である。
【0021】
図2に示すように、管理サーバ10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。各構成は、バス19を介して相互に通信可能に接続されている。
【0022】
CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。本実施形態では、ROM12又はストレージ14には、各種処理を行うためのプログラムが格納されている。
【0023】
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
【0024】
入力部15は、マウス等のポインティングデバイス、及びキーボードを含み、各種の入力を行うために使用される。
【0025】
表示部16は、例えば、液晶ディスプレイであり、各種の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能しても良い。
【0026】
通信インタフェース17は、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)等の規格が用いられる。
【0027】
次に、管理サーバ10の機能構成について説明する。
図3に示すように、管理サーバ10は、機能的には、入力部30、処理部32、出力部34、及びモデル記憶部52を備えている。
【0028】
入力部30は、ユーザ端末24からユーザ入力及び日時を受け付ける。
【0029】
具体的には、一般の日時情報や、特定の主体におけるある時点を指す情報と、学習済の生成AIモデル52Aとを受け付ける。
【0030】
処理部32は、入力文章に応じた応答を出力する学習済みの生成AIモデル52Aを用いて、ユーザ入力に対して、現時点が、入力された日時であると仮定したときの応答を生成する。
【0031】
具体的には、入力として、一般的な大規模言語モデル(LLM:Large Language Models)を追加で与えてプロンプトのみによって日時を指示してもよいし、日時調整を可能とする機能を有するLLMを直接学習して得てもよい。
【0032】
より具体的には、日時情報であったり、ある主体をエミュレートする場合、その記憶(閲覧キャッシュログ、議論ログ等)のある時点までを使うようにする。
【0033】
ここで、本実施形態の生成AIモデル52Aの実現方式として、以下の3方式を示すが、この限りではない。
【0034】
例1:プロンプトによって制御する。入力の学習済みモデルとして、一般的なLLM(例えばchatGPT)が必要となる。
【0035】
例2:タイムスタンプ毎にモデルを別々に保存する。入力の学習済みモデルとして、タイムスタンプ毎のLLMが必要となる。
【0036】
例3:時系列情報を含めて学習し、モデル化する。学習時に使用するリソースが、どの時点において作成可能であるかを加味して学習する(文章内での日時言及や、作成日時)。学習時入力において、LLM学習用テキストデータが必要となり、学習時出力として、現時点が、入力された日時であると仮定したときの大規模言語モデル(TMLLM:Time Machine Large Language Models)が得られ、推論時入力として、学習時出力として得られたTMLLMが必要となる。
【0037】
出力部34は、ユーザ端末に対して、ユーザ入力に応じて生成された応答を出力する。また、出力部は、一般の日時情報に制約されたLLMや、特定の主体におけるある時点を指す情報に制約されたLLMを出力する。
【0038】
モデル記憶部52は、生成AIモデル52Aを記憶している。生成AIモデル52Aは、管理サーバ10とは別の外部装置に記憶されていてもよい。この場合には、管理サーバ10は、当該外部装置に対して、プロンプトを送信し、生成AIモデル52Aの出力を取得するようにすればよい。
【0039】
以上説明したように、本実施形態に係る情報処理システムによれば、日時調整を可能とする言語モデルを生成することができる。
【0040】
<第2実施形態>
図1に示すように、第2実施形態に係る情報処理システム200は、サービス管理会社側に設置される管理サーバ210と、ユーザが操作するユーザ端末24と、を備えている。管理サーバ210は、情報処理装置の一例である。
【0041】
図2は、本実施形態の管理サーバ210のハードウェア構成を示すブロック図である。
【0042】
次に、管理サーバ210の機能構成について説明する。
図4に示すように、管理サーバ210は、機能的には入力部230、推論部232、及びモデル記憶部252を備えている。
【0043】
管理サーバ210は、学習時の入力として、一般的なLLMまたは第1実施形態で出力されるTMLLMを加えて、学習データに必要となる探索対象リソースとスコアを手動で指定してもよい。
【0044】
管理サーバ210は、学習時の出力として、スコア推論モデルを出力する。
【0045】
入力部230は、ユーザ端末24から、課題及び解決策の少なくとも一方を表すデータを受け付ける。
【0046】
推論部232は、課題及び解決策の少なくとも一方の重要度を表すスコアを出力する学習済みのスコア推論モデル252Aを用いて、受け付けた課題及び解決策の少なくとも一方を表すデータについてのスコアを推論する。
【0047】
具体的には、推論部232は、学習済みのスコア推論モデル252Aとして、入力文章に応じた応答を出力する学習済みの生成AIモデルを用いて、スコアを推論する。ここで、生成AIモデルは、予め用意された、課題及び解決策の少なくとも一方と、スコアとの対を用いた追加学習されたものである。
【0048】
生成AIモデルは、一般的なLLMまたは第1実施形態で出力されたTMLLMである。
【0049】
推論部232は、スコアと共に、そのスコアが高い/低い理由を含めて出力してもよい。
【0050】
管理サーバ210は、一例として、以下の手順1~手順4に従って動作する。
【0051】
手順1において、学習データを用意するため、「探索対象(特許、論文、プレスリリース、プロダクト、ビジネス等)」に対する探索対象リソースとスコアの定義を、手動または自動で与える。探索対象は複数用いてもよい。
【0052】
手動の場合は、例えば探索対象が「研究」であれば「論文」を探索対象リソースとして、スコアは引用数としてそれぞれ指定する。
【0053】
自動の場合は、例えば探索対象が「研究」を入力とし、「論文」が探索対象リソースとなり、スコアは引用数として推定する。
【0054】
自動推定を可能とするための先行技術例としてAutoGPTが挙げられる。ある目的を達成するためにどこを探索すればよいか自体をLLMに問うことで、アクションを決定する。他の例として、特許なら、特許文献集合が集う場所(google patent等)、スコアはその特許を持つ会社部門の業績や、プロダクトの売上が考えられる。
【0055】
手順2において、学習データを作成する。
【0056】
例えば「研究」の場合、手順1で定めた「探索対象リソース」である「論文」中から、個別論文を1つずつ入力し「課題」と「解決策」を抽出し、「スコア」として当該論文の引用数が与えられる。(プレスならその引用数、サービスやプロダクトならば売上、等)
【0057】
また、TMLLMを用いる場合、加えてそのリソースの推定作成日時を付加する。(特許の場合は特許出願日時、プレスリリースの場合は発信日、等)
【0058】
手順3において、モデルを学習する。
【0059】
モデル学習の指針は、「解決策」が「課題」に対し当たっているほどスコアが高いという仮説に基づき、「課題」「解決策」のみを入力として、スコアを推定するモデルを学習することでこれを実現する。
【0060】
加えてTMLLMを用いる場合は「課題」や「解決策」が時代に合っているほど、スコアが高くなる仮説に基づく。
【0061】
TMLLMを用いる場合、学習データに付加された推定作成日時の状態にバックデートした上で、スコアを推定するモデルを学習することでこれを実現する。
【0062】
この時、TMLLM自体をsupervised fine tuning等により直接的にスコア推定の機能を有してもよいし、TMLLMが出力する情報(当該ペアのスコアが高い/低いと推定される理由に関するテキストサマリやembedding情報等)に対し外部に接合する形でスコア推定器を追加してもよい。
【0063】
手順4において、推論を行う。課題と解決策のペアを入力とし、LLMまたはTMLLMを介して、スコア推論モデルを用いてスコアを推論する。スコアが高い/低いと推定される理由をLLM/TMLLMから出力してもよい。
【0064】
TMLLMを用いる場合は、TMLLMの日時を現在とする。
【0065】
なお、「課題」「解決策」のペアではなく、「課題」単独でも手順2において「解決策」を無視する形で同様に実現可能となる。
【0066】
一方、「解決策」単独の評価においては、「課題」「解決策」のペアのスコアから、「課題」単独のスコアを差し引く形で実現可能となる。
【0067】
モデル記憶部252は、スコア推論モデル252Aを記憶している。スコア推論モデル252Aは、管理サーバ210とは別の外部装置に記憶されていてもよい。この場合には、管理サーバ210は、当該外部装置に対して、プロンプトを送信し、スコア推論モデル252Aの出力を取得するようにすればよい。
【0068】
上記第2実施形態と、上記第1実施形態とを組み合わせてもよい。この場合、入力部230は、更に、日時を受け付け、推論部232は、現時点が、受け付けた日時であると仮定したときのスコアを推論すればよい。具体的には、入力された日時であると仮定したときのTMLLMを用いて、スコアを推論すればよい。
【0069】
<第3実施形態>
図1に示すように、第3実施形態に係る情報処理システム300は、サービス管理会社側に設置される管理サーバ310と、ユーザが操作するユーザ端末24と、を備えている。管理サーバ310は、情報処理装置の一例である。
【0070】
図2は、本実施形態の管理サーバ310のハードウェア構成を示すブロック図である。
【0071】
次に、管理サーバ310の機能構成について説明する。
図5に示すように、管理サーバ310は、機能的には入力部330、抽出部332、キーワード受付部334、部分集合作成部336、文生成部338、評価部340、部分集合抽出部342、部分集合受付部344、検索部346、推論部348、及びモデル記憶部352を備えている。
【0072】
入力部330は、ユーザ端末24から、課題及び解決策の少なくとも一方を表す入力文を受け付ける。具体的には、課題と解決策の少なくとも1つと、一般的なLLMまたは第1実施形態で出力されたTMLLMである生成AIモデルとを受け付ける。
【0073】
抽出部332は、受け付けた課題及び解決策の少なくとも一方を表す入力文に対し、複数のキーワードを抽出する。
【0074】
例えば、抽出部332は、入力文Sに対し、生成AIモデル52Aを用いて複数のキーワードKを抽出する。一例として、「この入力を説明するために必要なキーワードを3~4つ、推測してください」というプロンプトを、生成AIモデル352Aに入力して、生成AIモデル352Aの出力から、複数のキーワードKを取得する(
図6参照)。
【0075】
なお、キーワードの抽出方法は、生成AIモデルを用いた方法に限定されるものではない。他の抽出方法であってもよい。
【0076】
キーワード受付部334は、抽出部332によって抽出された複数のキーワードを表示する画面をユーザ端末24に提示して、ユーザ端末24から、キーワードの削除又は追加を受け付ける。
【0077】
部分集合作成部334は、抽出された複数のキーワードに対して、受け付けたキーワードの削除又は追加を行った結果から、キーワードの部分集合を複数作成する。
【0078】
具体的には、部分集合作成部334は、抽出された複数のキーワードを機械的に組み合わせ、部分集合Ks(n)を作成する(
図6参照)。例えば、4つのキーワードに対する全組み合わせとして、14個(=4C4+4C3+4C2+4C1)通りの部分集合Ks(1)~Ks(14)を作成する。
【0079】
ここで、キーワード数が多い場合等は、キーワードの全組み合わせでなく、任意のキーワード個数や閾値等で制限をかけても良い。例えば、部分集合に含まれるキーワードの個数を所定の範囲(例えば、3個~4個、又は3個以下)として、部分集合を複数作成してもよい。
【0080】
文生成部336は、複数の部分集合の各々について、当該部分集合から、当該部分集合に含まれないキーワードを含めないように文を生成することを指示するプロンプトを、生成AIモデル352Aに入力して、生成AIモデル352Aの出力から、生成された文を取得する。
【0081】
具体的には、各部分集合を入力とし、元の入力文をよりよく表し、かつ、部分集合に含まないキーワードは用いないように、部分集合生成文S’(n)を生成する(
図6参照)。例えば、部分集合Ks(1)~Ks(14)に対して、部分集合生成文S’(1)~S’(14)を生成する。
【0082】
ここで、プロンプトでは、部分集合から文を生成することが難しい場合には文を生成しないことを指示してもよい。
【0083】
例えば、「キーワードの部分集合をもとに、入力された元の入力文に限りなく近い文を生成します。ただし、生成する文は、キーワードの部分集合のみに基づいている必要があり、他のキーワードを含めることはできません。キーワードの部分集合だけで文を生成することが難しい場合は、「N/A」を出力します。」というプロンプトを、生成AIモデル352Aに入力し、生成AIモデル352Aの出力から、生成された文を取得する。
【0084】
評価部340は、複数の部分集合の各々について、入力文Sと、生成された文S’(n)との関連性を評価する。
【0085】
部分集合抽出部342は、関連性の降順に、少なくとも一つの部分集合を、重要なキーワード集合として抽出する。
【0086】
具体的には、部分集合抽出部342は、関連性を示すスコアの降順に、関連性を示すスコアが閾値以上となる部分集合を、重要なキーワード集合として抽出する。
【0087】
部分集合受付部344は、部分集合抽出部342によって重要なキーワード集合として抽出された部分集合を表示する画面をユーザ端末24に提示して、部分集合の削除若しくは追加、又は部分集合の順序の編集を受け付ける。
【0088】
検索部346は、関連性の降順に、抽出された重要なキーワード集合を、検索クエリとして用いて、検索対象データベースに対して、検索を実行する。
【0089】
具体的には、検索部346は、関連性を示すスコアの降順に、抽出された重要なキーワード集合を、検索クエリとし、検索エンジンを用いて、当該検索エンジンのデータベースを検索対象データベースとして、検索を実行する。検索対象データベースとして、特許文書を格納したデータベースを用いてもよい。
【0090】
推論部348は、検索部346による検索結果に基づいて、課題及び解決策の少なくとも一方の重要度を表すスコアを推論する。
【0091】
具体的には、検索部346による検索結果に対し、推論時入力とLLMとそのプロンプトを用いて照応することで、重要性や新規性のスコアを付与する。推論時出力として、スコアと共に、そのスコアが高い/低い理由を含めてもよい。例えば、検索部346による検索結果に、受け付けた課題及び解決策の少なくとも一方が含まれている場合には、重要性や新規性のスコアとして、低いスコアを付与する。
【0092】
検索結果出力部350は、重要なキーワードとして抽出された部分集合毎に分けて、検索部346による検索結果を提示する。このように、部分集合毎に分けて提示することにより、どの観点に対する検索結果なのかを把握しやすくなる。また、部分集合間で検索結果が重複する場合、その検索結果を統合して提示してもよい。
【0093】
モデル記憶部352は、生成AIモデル352Aを記憶している。生成AIモデル352Aは、管理サーバ310とは別の外部装置に記憶されていてもよい。この場合には、管理サーバ310は、当該外部装置に対して、プロンプトを送信し、生成AIモデル352Aの出力を取得するようにすればよい。
【0094】
ここで、生成AIモデル352Aの一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)、Gemini(インターネット検索<URL: https://gemini.google.com/?hl=ja>)等の生成AIが挙げられる。生成AIモデル352Aは、ニューラルネットワークに対して深層学習を行わせることによって得られる。生成AIモデル352Aには、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。生成AIモデル352Aは、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。
【0095】
<情報処理システムの作用>
次に、本実施形態に係る情報処理システム300の作用について説明する。
【0096】
管理サーバ310は、ユーザ端末24から、課題及び解決策の少なくとも一方を表す入力文を受け付けると、
図7に示す検索処理ルーチンを実行する。検索処理ルーチンは、情報処理方法の一例である。
【0097】
ステップS300では、入力部330は、ユーザ端末24から受け付けた課題及び解決策の少なくとも一方を表す入力文を取得する。
【0098】
ステップS302では、抽出部332は、入力文に対し、複数のキーワードを抽出する。
【0099】
ステップS304では、キーワード受付部334は、抽出部332によって抽出された複数のキーワードを表示する画面をユーザ端末24に提示して、ユーザ端末24から、キーワードの削除又は追加を受け付ける。
【0100】
ステップS306では、部分集合作成部336は、抽出された複数のキーワードに対して、受け付けたキーワードの削除又は追加を行った結果から、キーワードの部分集合を複数作成する。
【0101】
ステップS308では、文生成部338は、複数の部分集合の各々について、当該部分集合から、当該部分集合に含まれないキーワードを含めないように文を生成することを指示するプロンプトを、生成AIモデル352Aに入力して、生成AIモデル352Aの出力から、生成された文を取得する。
【0102】
ステップS310では、評価部340は、複数の部分集合の各々について、入力文Sと、生成された文S’(n)との関連性を評価する。
【0103】
ステップS312では、部分集合抽出部342は、関連性の降順に、少なくとも一つの部分集合を、重要なキーワード集合として抽出する。
【0104】
ステップS314では、部分集合受付部344は、部分集合抽出部342によって重要なキーワード集合として抽出された部分集合を表示する画面をユーザ端末24に提示して、部分集合の削除若しくは追加、又は部分集合の順序の編集を受け付ける。
【0105】
ステップS316では、検索部346は、受け付けた、部分集合の削除若しくは追加、又は部分集合の順序の編集を反映して、関連性の降順に、抽出された重要なキーワード集合を、検索クエリとして用いて、検索対象データベースに対して、検索を実行する。
【0106】
ステップS318では、推論部348は、検索部346による検索結果に基づいて、課題及び解決策の少なくとも一方を表す入力文の重要度を表すスコアを推論する。
【0107】
ステップS320では、検索結果出力部350は、重要なキーワード集合として抽出された部分集合毎に分けて、検索部346による検索結果を提示する画面を、ユーザ端末24に対して出力し、検索処理ルーチンを終了する。
【0108】
以上説明したように、本実施形態に係る情報処理システムによれば、課題及び解決策の少なくとも一方についての重要度を表すスコアを推論することができる。
【0109】
また、課題及び解決策の少なくとも一方を表す入力文から抽出される複数のキーワードから、キーワードの部分集合を複数作成し、部分集合の各々について、生成AIモデルを用いて、当該部分集合に含まれないキーワードを含めないように文を生成し、元の入力文との関連性の降順に、当該部分集合を、重要な検索クエリとして、検索対象データベースに対して検索を実行する。これにより、生成AIモデルを用いて、入力文から検索クエリを作成して、検索を行うことができる。
【0110】
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
【0111】
例えば、上記の実施形態では、入力文Sと、生成された文S’(n)との関連性を評価する場合を例に説明したが、これに限定されるものではない。文生成部338は、生成AIモデル352Aの出力から、生成された文のembeddingを取得し、評価部340は、複数の部分集合の各々について、入力文のembeddingと、部分集合のembeddingの関連性を評価するようにしてもよい。このように、文生成部338は、必ずしもS’を文章として生成する必要はなく、Ks(n)と元のSとの比較が行える方式であれば、embeddingでも構わない。
【0112】
また、評価部340は、更に、関連性を示すスコアが閾値以上となる部分集合の各々について生成された文の集合について、入力文に対する被覆性を評価してもよい。被覆性を示すスコアが閾値未満である場合、関連性を示すスコアが閾値以上となる部分集合の各々について生成された文の集合に、関連性を示すスコアが閾値未満となる部分集合について生成された文を追加した結果について、入力文に対する被覆性を評価する。また、関連性を示すスコアが閾値未満となる部分集合について生成された文を追加した結果、被覆性を示すスコアが閾値以上となるときの、部分集合を特定し、検索部346は、特定された部分集合を優先して、検索クエリとして検索を実行する。このように、被覆性を加味してもよい。採用された文S’の集合から得られるS’’が、入力文Sを被覆しておらず、S’(n)を追加することで被覆される場合、S’(n)を優先して検索クエリとして採用することができる。
【0113】
また、上記第3実施形態と、上記第1実施形態とを組み合わせてもよい。この場合、入力部330は、更に、日時を受け付け、推論部348は、現時点が、受け付けた日時であると仮定したときのスコアを推論すればよい。具体的には、入力された日時であると仮定したときのTMLLMを用いて、スコアを推論すればよい。
【0114】
<第4実施形態>
図1に示すように、第4実施形態に係る情報処理システム400は、サービス管理会社側に設置される管理サーバ410と、ユーザが操作するユーザ端末24と、を備えている。管理サーバ410は、情報処理装置の一例である。
【0115】
図2は、本実施形態の管理サーバ410のハードウェア構成を示すブロック図である。
【0116】
次に、管理サーバ410の機能構成について説明する。
図8に示すように、管理サーバ410は、機能的には入力部430、推論部432、及びモデル記憶部452を備えている。
【0117】
入力部430は、ユーザ端末24から、課題を表すデータを受け付ける。
【0118】
推論部432は、課題に対する解決策を出力する学習済みの解決策推論モデル452Aを用いて、受け付けた課題を表すデータについての前記解決策を推論する。
【0119】
具体的には、推論部432は、学習済みの解決策推論モデル452Aとして、入力文章に応じた応答を出力する学習済みの生成AIモデルを用いて、解決策を推論する。ここで、生成AIモデルは、予め用意された、課題と、解決策との対を用いた追加学習されたものである。
【0120】
より具体的には、LLMと重要性等のスコアを用いて「課題」を入力とし、「解決策」を出力する。例えば、「課題」を「機械翻訳で主語をいれないと日英翻訳がうまく働かない」とし、「解決策」を「自動で日本語主語を補完する」とする。なお、テキスト以外にも画像でもよい。
【0121】
学習時入力は、過去の「課題」に対する「解決策」の対を複数集めた学習データと生成AIモデルとしての「LLMまたはTMLLM」である。入力となる「課題」から「解決策」を生成する解決策推論モデルを学習する。
【0122】
例えば論文の場合、上記第2実施形態と同様に、各論文から、課題と解決策を抽出することで対とし、課題に対し解決策を出力する形で教師あり学習する。
【0123】
変形例1では、学習データ作成時にリソース作成日時付加しておくことで、 TMLLMをリソース作成時点に戻し、課題に対し解決策を出力する形で教師あり学習する。
【0124】
変形例2では、上記第2実施形態で用いたスコアを学習データにさらに付加してもよい。これにより推論時にスコアの高いものを推定させることが可能となる。
【0125】
推論時入力は、「課題」と解決策推論モデルと生成AIモデルとしての「LLMまたはTMLLM」である。推論部は、LLMとスコアに基づき、推論時出力として「解決策」を生成する。
【0126】
変形例1では、TMLLM使用時は指定日時を現在に指定する。
【0127】
変形例2では、学習時にスコアを内包したことで、スコアのより高いものを生成するように指示、生成することができる。
【0128】
変形例3では、学習時にスコアを加味せずとも、上記第2実施形態のスコア推論モデルを用いて、出力結果をリランキングしたり、デコーディング途中にスコアリングしてもよい。
【0129】
変形例4では、当該出力候補を、検索にかけることで新規性スコアを評価し、出力結果のリランキングに用いる(検索数が小さいほど新規性が高い)
【0130】
モデル記憶部452は、解決策推論モデル452Aを記憶している。解決策推論モデル452Aは、管理サーバ410とは別の外部装置に記憶されていてもよい。この場合には、管理サーバ410は、当該外部装置に対して、プロンプトを送信し、解決策推論モデル452Aの出力を取得するようにすればよい。
【0131】
以上説明したように、本実施形態に係る情報処理システムによれば、課題についての解決策を推論することができる。
【0132】
<第5実施形態>
図1に示すように、第5実施形態に係る情報処理システム500は、サービス管理会社側に設置される管理サーバ510と、ユーザが操作するユーザ端末24と、を備えている。管理サーバ510は、情報処理装置の一例である。
【0133】
図2は、本実施形態の管理サーバ510のハードウェア構成を示すブロック図である。
【0134】
次に、管理サーバ510の機能構成について説明する。
図9に示すように、管理サーバ510は、機能的には入力部530、推論部532、及びモデル記憶部552を備えている。
【0135】
入力部530は、ユーザ端末24から、経験又は観点を表すシードを表すデータを受け付ける。
【0136】
推論部532は、シードに対する課題及び解決策の組み合わせを出力する学習済みの課題解決策推論モデル552Aを用いて、受け付けたシードを表すデータについての課題及び解決策を推論する。
【0137】
具体的には、推論部532は、学習済みの課題解決策推論モデル552Aとして、入力文章に応じた応答を出力する学習済みの生成AIモデルを用いて、課題及び解決策を推論する。ここで、生成AIモデルは、予め用意された、シードと、課題及び解決策の組み合わせとの対を用いた追加学習されたものである。
【0138】
より具体的には、上記第1実施形態のTMLLMを用いて、「経験または観点を表すシード」を入力として、「課題」と「解決策」の少なくとも1つを出力する。また、学習時入力は、過去の「経験または観点を表すシード」に対する「課題と解決策」の対を複数集めた「学習データ」と「LLMまたはTMLLM」である。
【0139】
例えば論文の場合、上記第2実施形態と同様に、各論文から、課題と解決策を抽出し、「当該論文に至った経験または観点を表すシード」を付加することで学習データとし、教師あり学習する。具体的には、ユーザのブラウザ閲覧履歴と、そのユーザが書いた論文のペアが存在している場合などが想定される。
【0140】
変形例1では、学習データ作成時にリソース作成日時付加しておくことで、TMLLMをリソース作成時点に戻し、課題に対し解決策を出力する形で教師あり学習する。
【0141】
変形例2では、上記第2実施形態で用いたスコアを学習データにさらに付加してもよい。これにより推論時にスコアの高いものを推定させることが可能となる。
【0142】
推論部532は、「経験または観点を表すシード」と「課題解決策推論モデル」と生成AIモデルとしての「LLMまたはTMLLM」を入力とする。経験を指すものとしては、例えばブラウザの閲覧履歴や、チャットログがある。また、観点を指すものとしては、例えば業種業態、テクノロジー領域等がある。
【0143】
推論部532の出力は、課題と解決策の少なくとも1つである。このとき、第2実施形態のスコア推論モデル252Aの出力結果をリランキングしたり、スコアを出力してもよい。
【0144】
変形例1では、TMLLM使用時は指定日時を現在に指定する。
【0145】
変形例2では、学習時にスコアを内包したことで、スコアのより高いものを生成するように指示、生成することができる。
【0146】
変形例3では、学習時にスコアを加味せずとも、請求項2のスコア推論モデルを用いて、出力結果をリランキングしたり、デコーディング途中にスコアリングしてもよい。
【0147】
変形例4では、当該出力候補を、検索にかけることで新規性スコアを評価し、出力結果のリランキングに用いる(検索数が小さいほど新規性が高い)。
【0148】
なお、上記第4実施形態、第5実施形態で、新規性スコアの付与を別途検索によって行っているのは、LLMのアップデート頻度と、検索システムのアップデート頻度を比べ、後者の方が、頻度が高いためである。
【0149】
もしもLLMのアップデート頻度が検索システムと同等となれば、変形例2のスコアに「新規性」は包含されることとなる。
【0150】
例えば推論する際に、LLMが1年前のモデル、検索がリアルタイムであれば、LLMだけを信じると、1年前のモデルの状態からは新規であっても、ここ1年以内のリソースで重複がある可能性がある。
【0151】
LLMがリアルタイムで更新されるようになれば、これらの差分はなくなり、学習時にTMLLMによって新規性の確認も同時に行える。
【0152】
モデル記憶部552は、課題解決策推論モデル552Aを記憶している。課題解決策推論モデル552Aは、管理サーバ510とは別の外部装置に記憶されていてもよい。この場合には、管理サーバ510は、当該外部装置に対して、プロンプトを送信し、課題解決策推論モデル552Aの出力を取得するようにすればよい。
【0153】
以上説明したように、本実施形態に係る情報処理システムによれば、経験又は観点を表すシードについて、課題及び解決策を推論することができる。
【0154】
<第6実施形態>
図1に示すように、第6実施形態に係る情報処理システム600は、サービス管理会社側に設置される管理サーバ610と、ユーザが操作するユーザ端末24と、を備えている。管理サーバ610は、情報処理装置の一例である。
【0155】
図2は、本実施形態の管理サーバ610のハードウェア構成を示すブロック図である。
【0156】
次に、管理サーバ610の機能構成について説明する。
図10に示すように、管理サーバ610は、機能的には入力部630、推論部632、及びモデル記憶部652を備えている。
【0157】
入力部630は、ユーザ端末24から、コミュニティで企画するプロジェクトの議論履歴を表すデータを受け付ける。
【0158】
推論部632は、議論履歴に応じた計画又は計画の進捗を確認するための確認項目を出力する学習済みのPDCA推論モデル652Aを用いて、受け付けた議論履歴を表すデータについての計画又は確認項目を推論する。
【0159】
具体的には、推論部632は、学習済みのPDCA推論モデル652Aとして、入力文章に応じた応答を出力する学習済みの生成AIモデルを用いて、計画又は確認項目を推論する。ここで、生成AIモデルは、予め用意された、議論履歴と、計画又は確認項目との対を用いた追加学習されたものである。
【0160】
より具体的には、学習時に、過去の議論履歴と生成AIモデルとしての「LLMまたはTMLLM」とを入力とし、PDCA推論モデル652Aを学習する。
【0161】
例えば、複数人の過去の「経験」として議論経過がある。例えば議論内容のデータを読み込んで、何が課題となっているか、うまくいっているか、をあぶりだすことを目的とする。
【0162】
管理サーバ610は、ある課題や解決策が与えられた時、計画Planとして、それを実施するためのKPIをはじめ細分化具体目標を提示し、それに対するプロセス案を提示する。
【0163】
管理サーバ610は、ユーザ端末から、実行Doとして、コミュニケーション(議論内容やDAO)や目標に対する数値結果を受け付ける。例えば、ユーザによる入力やAPI連携を用いる。
【0164】
管理サーバ610は、確認項目Checkとして、KPIに対する数値的なGAP比較と、重要度のランキングを導出する。また、その原因(なぜうまくいったか、いかなかったか。)を、議論内容の中から導出する。その上で改善プロセス案を提示する。
【0165】
ユーザは、改善する行動Actionを実行し、結果として、再度議論内容の中で観測される。
【0166】
学習時には、管理サーバ610は、過去の議論履歴と「LLMまたはTMLLM」を入力とし、PDCA推論モデル652Aを学習する。
【0167】
計画Planの学習では、過去の議論履歴には、Planにおいて具体目標が付加されているとする。さらに各議論が最終的に成功したのか、失敗したのかを示す情報も付加されているとする。このとき、Plan設定時点において、その状況を勘案し、どの程度の目標とするのがもっとも成功しやすいかを内部的に推論した上でPlanの具体目標を提示するように教師あり学習を行う。
【0168】
確認項目Checkの学習では、過去の議論履歴には、Planにおいて具体目標とCheckにおけるGAP分析結果が付加されているとする。さらに各議論が最終的に成功したのか、失敗したのかを示す情報も付加されているとする。
【0169】
このとき、確認項目Check時点において、その状況を勘案し、GAPを教師情報の通りに推定できるか、またどのような改善プロセスを提示するともっとも成功しやすいかを内部的に推論した上でPlanの具体目標を提示するように教師あり学習を行う。
【0170】
TMLLMを用いる場合、学習データにおいて、各フェーズの状態に立ち返った上で学習する。
【0171】
推論時に、推論部632は、任意時点の議論履歴(P前またはC前)と「LLMまたはTMLLM」とPDCA推論モデル652Aを入力とし、PlanまたはCheck内容を生成して提示する。
【0172】
モデル記憶部652は、PDCA推論モデル652Aを記憶している。PDCA推論モデル652Aは、管理サーバ610とは別の外部装置に記憶されていてもよい。この場合には、管理サーバ610は、当該外部装置に対して、プロンプトを送信し、PDCA推論モデル652Aの出力を取得するようにすればよい。
【0173】
以上説明したように、本実施形態に係る情報処理システムによれば、議論履歴に応じた計画又は計画の進捗を確認するための確認項目を推論することができる。
【符号の説明】
【0174】
10、210、310、410、510、610 管理サーバ
11 CPU
14 ストレージ
15 入力部
16 表示部
17 通信インタフェース
24 ユーザ端末
30、230、330、430、530、630 入力部
32 処理部
34 出力部
52、252、352、452、552、652 モデル記憶部
52A、352A 生成AIモデル
100、200、300、400、500、600 情報処理システム
232、348、432、532、632 推論部
252A スコア推論モデル
332 抽出部
334 部分集合作成部
334 キーワード受付部
336 文生成部
336 部分集合作成部
338 文生成部
340 評価部
342 部分集合抽出部
344 部分集合受付部
346 検索部
350 検索結果出力部
452A 解決策推論モデル
552A 課題解決策推論モデル
652A 推論モデル