IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通株式会社の特許一覧

特開2022-185799情報処理プログラム、情報処理方法および情報処理装置
<>
  • 特開-情報処理プログラム、情報処理方法および情報処理装置 図1
  • 特開-情報処理プログラム、情報処理方法および情報処理装置 図2
  • 特開-情報処理プログラム、情報処理方法および情報処理装置 図3
  • 特開-情報処理プログラム、情報処理方法および情報処理装置 図4
  • 特開-情報処理プログラム、情報処理方法および情報処理装置 図5
  • 特開-情報処理プログラム、情報処理方法および情報処理装置 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022185799
(43)【公開日】2022-12-15
(54)【発明の名称】情報処理プログラム、情報処理方法および情報処理装置
(51)【国際特許分類】
   G06F 40/216 20200101AFI20221208BHJP
【FI】
G06F40/216
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2021093644
(22)【出願日】2021-06-03
(71)【出願人】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】吉川 和
【テーマコード(参考)】
5B091
【Fターム(参考)】
5B091EA01
(57)【要約】
【課題】言語モデルの出力の適正化を支援する。
【解決手段】実施形態の情報処理プログラムは、取得する処理と、入力する処理と、算出する処理と、出力する処理とをコンピュータに実行させる。取得する処理は、対象文に関連する複数の単語列を取得する。入力する処理は、取得した複数の単語列それぞれを対象文に結合した複数の結合文それぞれと、対象文とを言語モデルに入力する。算出する処理は、複数の結合文それぞれを言語モデルへ入力した場合の出力結果の分布それぞれとの差異に基づき、対象文を言語モデルへ入力した場合の出力における確信度を算出する。出力する処理は、算出した確信度に基づき、対象文を言語モデルへ入力した場合の出力結果を出力する。
【選択図】図4
【特許請求の範囲】
【請求項1】
対象文に関連する複数の単語列を取得し、
取得した前記複数の単語列それぞれを前記対象文に結合した複数の結合文それぞれと、前記対象文とを言語モデルに入力し、
前記複数の結合文それぞれを前記言語モデルへ入力した場合の出力結果の分布それぞれとの差異に基づき、前記対象文を前記言語モデルへ入力した場合の出力における確信度を算出し、
算出した前記確信度に基づき、前記対象文を前記言語モデルへ入力した場合の出力結果を出力する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
【請求項2】
前記算出する処理は、前記分布それぞれに基づく分散を算出し、算出した前記分散を前記確信度の指標値とする、
ことを特徴とする請求項1に記載の情報処理プログラム。
【請求項3】
前記算出する処理は、前記分布それぞれに基づく距離を算出し、算出した前記距離を前記確信度の指標値とする、
ことを特徴とする請求項1に記載の情報処理プログラム。
【請求項4】
前記取得する処理は、前記対象文との類似度に基づいて、コーパスの中で前記対象文に関連する複数の単語列を取得する、
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理プログラム。
【請求項5】
対象文に関連する複数の単語列を取得し、
取得した前記複数の単語列それぞれを前記対象文に結合した複数の結合文それぞれと、前記対象文とを言語モデルに入力し、
前記複数の結合文それぞれを前記言語モデルへ入力した場合の出力結果の分布それぞれとの差異に基づき、前記対象文を前記言語モデルへ入力した場合の出力における確信度を算出し、
算出した前記確信度に基づき、前記対象文を前記言語モデルへ入力した場合の出力結果を出力する、
処理をコンピュータが実行することを特徴とする情報処理方法。
【請求項6】
対象文に関連する複数の単語列を取得し、
取得した前記複数の単語列それぞれを前記対象文に結合した複数の結合文それぞれと、前記対象文とを言語モデルに入力し、
前記複数の結合文それぞれを前記言語モデルへ入力した場合の出力結果の分布それぞれとの差異に基づき、前記対象文を前記言語モデルへ入力した場合の出力における確信度を算出し、
算出した前記確信度に基づき、前記対象文を前記言語モデルへ入力した場合の出力結果を出力する、
処理を実行する制御部を含むことを特徴とする情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は、情報処理プログラム、情報処理方法および情報処理装置に関する。
【背景技術】
【0002】
従来、機械学習により生成した言語モデル(LM:Language Model)を用いた自然言語処理が進められている。このような言語モデルを用いた自然言語処理では、ニュース記事の要約、対話システムにおける回答などの様々なタスクで高い性能を発揮している。
【0003】
機械学習により生成した言語モデルでは、未学習の事例などのイレギュラーな状況への対応を不得意とする。このため、言語モデルを用いた自然言語処理では、ニュース記事の要約において本文に書かれていないことを出力してしまう、対話システムにおいて事実に基づかない回答をするなど、誤った出力を行う場合がある。
【0004】
このような言語モデルを用いた自然言語処理について、誤った出力を抑止する従来技術としては、言語モデルの出力の確信度(confidence)を計算し、確信度が閾値以下の場合は回答を控えるものが知られている。
【先行技術文献】
【非特許文献】
【0005】
【非特許文献1】Selective Question Answering under Domain Shift, Amita Kamath et al., Computer Science Department, Stanford University, 2020
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、上記の従来技術では、言語モデルが誤った出力を行った場合でも、確信度が高く算出されることがある。このため、正解の場合に近い確信度が算出されると、誤った出力が抑止されずに出力されてしまうことから、出力を適正化するには不十分であるという問題がある。
【0007】
1つの側面では、言語モデルの出力の適正化を支援できる情報処理プログラム、情報処理方法および情報処理装置を提供することを目的とする。
【課題を解決するための手段】
【0008】
1つの案では、情報処理プログラムは、取得する処理と、入力する処理と、算出する処理と、出力する処理とをコンピュータに実行させる。取得する処理は、対象文に関連する複数の単語列を取得する。入力する処理は、取得した複数の単語列それぞれを対象文に結合した複数の結合文それぞれと、対象文とを言語モデルに入力する。算出する処理は、複数の結合文それぞれを言語モデルへ入力した場合の出力結果の分布それぞれとの差異に基づき、対象文を言語モデルへ入力した場合の出力における確信度を算出する。出力する処理は、算出した確信度に基づき、対象文を言語モデルへ入力した場合の出力結果を出力する。
【発明の効果】
【0009】
言語モデルの出力の適正化を支援できる。
【図面の簡単な説明】
【0010】
図1図1は、実施形態の概要を説明する説明図である。
図2図2は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。
図3図3は、実施形態にかかる情報処理装置の動作例を示すフローチャートである。
図4図4は、確信度の計算と、確信度に応じた回答の出力を説明する説明図である。
図5図5は、ケースごとの回答の具体例を説明する説明図である。
図6図6は、コンピュータ構成の一例を説明する説明図である。
【発明を実施するための形態】
【0011】
以下、図面を参照して、実施形態にかかる情報処理プログラム、情報処理方法および情報処理装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する情報処理プログラム、情報処理方法および情報処理装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
【0012】
図1は、実施形態の概要を説明する説明図である。図1に示すように、実施形態にかかる情報処理装置では、機械学習により生成した言語モデルM1を用いて処理の対象文である入力文xに対して自然言語処理を行う。
【0013】
言語モデルM1を用いた自然言語処理については、ニュース記事の要約、対話システムにおける回答、翻訳システムにおける翻訳などのいずれであってもよい。例えば、ニュース記事の要約では、原文を入力文xとして言語モデルM1に入力することで、言語モデルM1の出力(y)として要約文に関する情報(単語列の確率分布P(y|x))を得る。対話システムにおける回答では、質問文を入力文xとして言語モデルM1に入力することで、言語モデルM1の出力として回答文に関する単語列の確率分布を得る。翻訳システムにおける翻訳では、原文を入力文xとして言語モデルM1に入力することで、言語モデルM1の出力として翻訳文に関する単語列の確率分布を得る。実施形態では、言語モデルM1を用いて対話システムにおける回答を得る場合を例示する。
【0014】
実施形態にかかる情報処理装置では、入力文xを言語モデルM1へ入力した場合の出力結果(確率分布P(y|x)に基づく回答文)を出力するか否かを次のように行い、誤った出力を抑して言語モデルM1の出力の適正化を支援する。
【0015】
まず、情報処理装置では、入力文xに関連する複数の単語列として、各種文書を集積したデータベースであるコーパスなどを用いて入力文xに関するダミー文脈(c、c…)を取得する。ついで、情報処理装置は、取得したダミー文脈(c、c…)それぞれを入力文xに結合して結合文(c+x、c+x…)を得る。ダミー文脈(c、c…c)を結合した結合文については、次の(1)ようにも表記する。
【0016】
【数1】
【0017】
ついで、情報処理装置では、結合文それぞれを言語モデルM1に入力し、それぞれの出力結果における単語列の確率分布を得る。結合文それぞれを言語モデルM1に入力して得られた単語列の確率分布については、次の(2)ようにも表記する。
【0018】
【数2】
【0019】
ついで、情報処理装置では、結合文それぞれの確率分布を比較してその差異(変化度合)を求める。この確率分布の差異には、入力文xを言語モデルM1へ入力した場合の出力結果に対する、ダミー文脈(c、c…c)の文脈依存性が表れる。
【0020】
例えば、確率分布の差異が大きいほど、ダミー文脈(c、c…c)の文脈依存性が高く、ダミー文脈に言語モデルM1の出力結果が左右されることを意味する。したがって、確率分布の差異が大きいほど、入力文xを言語モデルM1へ入力した場合の出力結果への確信度が低く、その出力結果は、誤りである可能性が高いと見なすことができる。
【0021】
また、確率分布の差異が小さいほど、ダミー文脈(c、c…c)の文脈依存性が低く、ダミー文脈に言語モデルM1の出力結果が左右されないことを意味する。したがって、確率分布の差異が小さいほど、入力文xを言語モデルM1へ入力した場合の出力結果への確信度が高く、その出力結果は、誤りである可能性が低いと見なすことができる。
【0022】
情報処理装置では、このような出力結果に対するダミー文脈(c、c…c)の文脈依存性を利用し、結合文それぞれの確率分布の差異に基づいて入力文xを言語モデルM1へ入力した場合の出力における確信度を算出する。
【0023】
ついで、情報処理装置では、算出した確信度に基づき、入力文xを言語モデルM1へ入力した場合の出力結果(確率分布P(y|x)に基づく回答文)を出力する。例えば、情報処理装置では、確信度が予め設定した閾値を超えた場合は、言語モデルM1による出力結果(回答文)に誤りがある可能性は低いものとして、得られた回答文を出力する。また、情報処理装置では、確信度が予め設定した閾値を超えない場合は、言語モデルM1による出力結果(回答文)に誤りがある可能性は高いものとして、得られた回答文の出力を抑止する。このように、情報処理装置では、言語モデルM1の出力の適正化を支援できる。
【0024】
図2は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。図2に示すように、情報処理装置1は、入出力部10と、記憶部20と、制御部30とを有する。
【0025】
入出力部10は、制御部30が各種情報の入出力を行う際のGUI(Graphical User Interface)等の入出力インタフェースを司る。例えば、入出力部10は、情報処理装置1に接続されるキーボードやマイク等の入力装置や液晶ディスプレイ装置などの表示装置との入出力インタフェースを司る。また、入出力部10は、LAN(Local Area Network)等の通信ネットワークを介して接続する外部機器との間でデータ通信を行う通信インタフェースを司る。
【0026】
例えば、情報処理装置1は、入出力部10を介して入力文xの入力を受け付ける。また、情報処理装置1は、入力文xに対する処理結果(例えば回答文)を入出力部10を介して出力する。
【0027】
記憶部20は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。記憶部20は、ダミー文脈コーパス21、文書検索パラメータ22、言語モデルパラメータ23、確信度計算パラメータ24および文書生成モデルパラメータ25などを格納する。
【0028】
ダミー文脈コーパス21は、入力文xに関連するダミー文脈(c、c…c)を得るためのコーパスである。このコーパスについては、情報処理装置1内に格納されていなくてもよく、例えば入出力部10を介して外部の情報処理装置が格納するコーパスを用いてもよい。
【0029】
文書検索パラメータ22は、ダミー文脈コーパス21より入力文xに関連するダミー文脈(c、c…c)を得るための検索に用いるパラメータ情報である。例えば、文書検索パラメータ22には、文書検索時において、文書の類似度より関連の有無を判定するための閾値などが含まれる。
【0030】
言語モデルパラメータ23は、言語モデルM1に関するパラメータ情報である。例えば、言語モデルパラメータ23は、勾配ブースティング木、ニューラルネットワークなどの言語モデルM1に関する機械学習モデルを構築するためのパラメータ等である。
【0031】
確信度計算パラメータ24は、確信度を計算する際の計算式に用いるパラメータ情報である。例えば、確信度計算パラメータ24には、確信度を計算する際の計算式に用いる係数値(重み値)などが含まれる。
【0032】
文書生成モデルパラメータ25は、入力された文書データに関連するダミーの文書データを生成(出力)する機械学習モデル(文書生成モデル)に関するパラメータ情報である。例えば、文書生成モデルパラメータ25は、勾配ブースティング木、ニューラルネットワークなどの文書生成モデルに関する機械学習モデルを構築するためのパラメータ等である。
【0033】
制御部30は、ダミー文脈取得部31、回答取得部32、確信度計算部33および出力部34を有する。制御部30は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部30は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
【0034】
ダミー文脈取得部31は、対象文(入力文x)をもとに、対象文に関連する複数の単語列、すなわちダミー文脈(c、c、c…)を取得する処理部である。
【0035】
具体的には、ダミー文脈取得部31は、入力文xをもとに、ダミー文脈コーパス21から文書検索パラメータ22に含まれるパラメータに従って類似度の順に複数のダミー文脈を入力文xに関連するダミー文脈として取得する。一例として、ダミー文脈取得部31は、入力文xとダミー文脈コーパス21に含まれる文書の文脈cをそれぞれベクトル化する2つのエンコーダを用意し、エンコードされたベクトルの類似度が近い順に、k個の文脈cをダミー文脈として採用する。
【0036】
また、ダミー文脈取得部31は、文書生成モデルパラメータ25をもとに構築した機械学習モデル(文書生成モデル)に入力文xを入力して得られた出力結果(単語列の確率分布)をもとに複数のダミー文脈を取得してよい。
【0037】
回答取得部32は、入力文xを言語モデルM1へ入力した場合の出力結果をもとに、入力文xに対する回答文を得る処理部である。具体的には、回答取得部32は、言語モデルパラメータ23をもとに構築した言語モデルM1に入力文xに関する情報を入力し、言語モデルM1より回答文に対応する単語列(単語の並び)に関する確率分布を得る。一例として、回答取得部32は、入力文xを言語モデルM1に入力し、各単語に関する予測ラベル(y)と、ラベル確率の分布を示す次の式(3)のような確率質量関数を得る。回答取得部32は、このように言語モデルM1から出力された予測ラベル(y)の確率分布(確率質量関数)に基づいて回答文を得る。
【0038】
【数3】
【0039】
確信度計算部33は、上述した確信度の算出を行う処理部である。具体的には、確信度計算部33は、ダミー文脈取得部31で取得したダミー文脈(c、c…)それぞれを入力文xに結合して結合文(c+x、c+x…)を得る。ついで、確信度計算部33は、言語モデルパラメータ23をもとに構築した言語モデルM1に結合文それぞれを入力し、結合文それぞれに対応する確率分布を得る。一例として、確信度計算部33は、(1)で例示した結合文を言語モデルM1に入力することで、予測ラベル(y)と、ラベル確率の分布を示す次の式(4)のような確率質量関数(確率分布)を得る。
【0040】
【数4】
【0041】
ついで、確信度計算部33は、複数の結合文それぞれを言語モデルM1へ入力した場合の確率分布それぞれとの差異に基づき、入力文xを言語モデルM1へ入力した場合の出力における確信度を算出する。
【0042】
具体的には、確信度計算部33は、予測ラベルyにおける、k個のダミー文脈(c)付与後の確率分布の分散を次の式(5)のように求める。確信度計算部33は、このように求めた確率分布ぞれぞれに基づく分散値を確信度Cの指標値とする。
【0043】
【数5】
【0044】
また、確信度計算部33は、ダミー文脈を加える前と、加えた後の変更前後の確率分布の距離としてKL(Kullback-Leibler) divergenceの平均を次の式(6)のように求める。確信度計算部33は、このように求めた確率分布それぞれに基づく距離値を確信度Cの指標値としてもよい。
【0045】
【数6】
【0046】
出力部34は、確信度計算部33が算出した確信度Cをもとに、入力文xを言語モデルM1へ入力した場合の出力結果(予測ラベル(y)に基づく回答文)を入出力部10を介してディスプレイや外部機器に出力する処理部である。具体的には、出力部34は、確信度計算部33が算出した確信度Cと予め設定した閾値(β)とを比較し、C<βのときは回答文の出力を控える。また、出力部34は、C≧βのときは回答文を出力する。
【0047】
図3は、実施形態にかかる情報処理装置1の動作例を示すフローチャートである。図3におけるS1は、ダミー文脈コーパス21を用いてダミー文脈を生成する場合のフローチャートである。図3におけるS2は、文書生成モデルパラメータ25をもとに構築した機械学習モデル(文書生成モデル)を用いてダミー文脈を生成する場合のフローチャートである。
【0048】
まず、ダミー文脈コーパス21を用いてダミー文脈を生成する場合(S1)を説明する。S1に示すように、処理が開始されると、ダミー文脈取得部31は、入力文xをもとに、ダミー文脈コーパス21から類似度の順に複数のダミー文脈を抽出する。ついで、ダミー文脈取得部31は、文書検索パラメータ22に含まれるパラメータに従って類似度の高い順に、例えば3個のダミー文脈(c、c、c)を選択する(S11)。
【0049】
ついで、回答取得部32および確信度計算部33は、入力文xおよびダミー文脈を入力文xに結合した結合文を言語モデルパラメータ23に基づいて構築した言語モデルM1へ入力する入力処理を行う(S12)。これにより、回答取得部32は、言語モデルM1に入力した場合の予測ラベル(y)と、ラベルの確率分布を得る。また、確信度計算部33は、結合文それぞれに対応する確率分布の出力確率計算を行う(S13)。
【0050】
ついで、確信度計算部33は、出力確率計算により得られた確率分布それぞれとの差異に基づき、入力文xを言語モデルM1へ入力した場合の出力における確信度Cを計算する(S14)。ついで、出力部34は、確信度計算部33が算出した確信度Cをもとに、入力文xを言語モデルM1へ入力した場合の出力結果を出力する(S15)。
【0051】
次に、文書生成モデルパラメータ25をもとに構築した文書生成モデルを用いてダミー文脈を生成する場合(S2)を説明する。S2に示すように、処理が開始されると、ダミー文脈取得部31は、文書生成モデルパラメータ25をもとに機械学習モデル(文書生成モデル)を構築する。
【0052】
ついで、ダミー文脈取得部31は、構築した機械学習モデル(文書生成モデル)に入力文xを入力して得られた出力結果(単語列の確率分布)をもとに複数のダミー文脈を生成する(S11a)。例えば、ダミー文脈取得部31は、確率分布における確率値が特定の閾値より高い各単語の組み合わせを変更することで、複数のダミー文脈を生成する。S11a以降の処理は、S1と同様に行う。
【0053】
図4は、確信度Cの計算と、確信度Cに応じた回答の出力を説明する説明図である。図4に示すように、情報処理装置1では、文脈(p,q)を組み合わせた入力文xをもとに、ダミー文脈コーパス21に含まれる文脈(c,c,c,c,…)の中から、入力文xの文脈(p,q)と類似するものをダミー文脈(c,c,c)として取得する。
【0054】
ついで、情報処理装置1では、ダミー文脈(c,c,c)それぞれを入力文xに結合した結合文を言語モデルM1に入力し、予測ラベル(y,y,y)と、ラベルの確率分布を得る。
【0055】
この確率分布それぞれとの差異に基づき、情報処理装置1は、入力文xを言語モデルM1へ入力した場合の出力における確信度Cを計算する。ついで、情報処理装置1は、確信度Cをもとに、入力文xを言語モデルM1へ入力した場合の出力結果(y)を出力する。具体的には、情報処理装置1は、確信度Cと予め設定した閾値(β)とを比較し、C<βのときはyの回答を控える。また、情報処理装置1は、C≧βのときはyを回答する。
【0056】
図5は、ケースごとの回答の具体例を説明する説明図である。図5において、ケースR1は、入力文xを言語モデルM1へ入力した場合の出力結果(y)が誤答であるケースである。ケースR2は、入力文xを言語モデルM1へ入力した場合の出力結果(y)が誤答であり、実施形態にかかる情報処理装置1で計算した確信度Cをもとに回答を控えるケースである。ケースR2は、入力文xを言語モデルM1へ入力した場合の出力結果(y)が正答であり、実施形態にかかる情報処理装置1で計算した確信度Cをもとに回答を行うケースである。
【0057】
ケースR1に示すように、入力文xを言語モデルM1へ入力した場合の出力結果(y)における確率分布からは、確信度Cの値が高くなる場合(図示例では0.9)がある。このため、誤答がそのまま出力される場合がある。
【0058】
実施形態にかかる情報処理装置1では、ダミー文脈(c,c,c)それぞれを入力文xに結合した結合文の確率分布を比較してその差異(変化度合)をもとに確信度Cを得ている。
【0059】
したがって、確率分布の差異が大きく、入力文xを言語モデルM1へ入力した場合の出力結果に対する、ダミー文脈(c,c,c)の文脈依存性が高いケースR2では、誤答に対して、確信度Cの値が低くなる(図示例では、0.3)。このため、ケースR2では、誤りである可能性が高いものとして言語モデルM1による回答を控えるようにする。
【0060】
また、確率分布の差異が小さく、入力文xを言語モデルM1へ入力した場合の出力結果に対する、ダミー文脈(c,c,c)の文脈依存性が低いケースR3では、正答に対して、確信度Cの値が高くなる(図示例では、0.9)。このため、ケースR3では、正答である可能性が高いものとして言語モデルM1による回答を出力する。このように、実施形態にかかる情報処理装置1では、言語モデルM1の出力の適正化を支援できる。
【0061】
以上のように、情報処理装置1は、対象文(入力文x)に関連する複数の単語列(c、c、c…)を取得する。情報処理装置1は、取得した複数の単語列それぞれを対象文に結合した複数の結合文それぞれと、対象文とを言語モデルM1に入力する。情報処理装置1は、複数の結合文それぞれを言語モデルM1へ入力した場合の出力結果の分布それぞれとの差異に基づき、対象文を言語モデルM1へ入力した場合の出力における確信度Cを算出する。情報処理装置1は、算出した確信度Cに基づき、対象文を言語モデルM1へ入力した場合の出力結果を出力する。
【0062】
複数の結合文における出力結果の分布それぞれとの差異は、対象文に対する言語モデルM1の出力結果の文脈依存性を示している。このため、情報処理装置1では、対象文に対する言語モデルM1の出力結果の文脈依存性に応じた確信度を得ることができ、この確信度をもとに言語モデルM1の出力を行うことから、言語モデルM1の出力の適正化を支援できる。
【0063】
また、情報処理装置1は、複数の結合文それぞれを言語モデルM1へ入力した場合の出力結果の分布それぞれに基づく分散を算出し、算出した分散を確信度Cの指標値とする。これにより、情報処理装置1は、複数の結合文における出力結果の分布それぞれに基づく分散を確信度Cの指標値として、文脈依存性を考慮した確信度Cを得ることができる。
【0064】
また、情報処理装置1は、複数の結合文それぞれを言語モデルM1へ入力した場合の出力結果の分布それぞれに基づく距離を算出し、算出した距離を確信度Cの指標値とする。これにより、情報処理装置1は、複数の結合文における出力結果の分布それぞれに基づく距離を確信度Cの指標値として、文脈依存性を考慮した確信度Cを得ることができる。
【0065】
また、情報処理装置1は、対象文との類似度に基づいて、ダミー文脈コーパス21の中で対象文に関連する複数の単語列(c、c、c…)を取得する。これにより、情報処理装置1は、ダミー文脈コーパス21より対象文に関連する複数の単語列を得ることができる。
【0066】
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0067】
また、情報処理装置1の制御部30で行われるダミー文脈取得部31、回答取得部32、確信度計算部33および出力部34の各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、情報処理装置1で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
【0068】
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施形態と同様の機能を有するプログラムを実行するコンピュータ構成(ハードウエア)の一例を説明する。図6は、コンピュータ構成の一例を説明位する説明図である。
【0069】
図6に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203と、スピーカー204とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置205と、各種装置と接続するためのインタフェース装置206と、有線または無線により外部機器と通信接続するための通信装置207とを有する。また、情報処理装置1は、各種情報を一時記憶するRAM208と、ハードディスク装置209とを有する。また、コンピュータ200内の各部(201~209)は、バス210に接続される。
【0070】
ハードディスク装置209には、上記の実施形態で説明した機能構成(例えばダミー文脈取得部31、回答取得部32、確信度計算部33および出力部34)における各種の処理を実行するためのプログラム211が記憶される。また、ハードディスク装置209には、プログラム211が参照する各種データ212が記憶される。入力装置202は、例えば、操作者から操作情報の入力を受け付ける。モニタ203は、例えば、操作者が操作する各種画面を表示する。インタフェース装置206は、例えば印刷装置等が接続される。通信装置207は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
【0071】
CPU201は、ハードディスク装置209に記憶されたプログラム211を読み出して、RAM208に展開して実行することで、上記の機能構成(例えばダミー文脈取得部31、回答取得部32、確信度計算部33および出力部34)に関する各種の処理を行う。なお、プログラム211は、ハードディスク装置209に記憶されていなくてもよい。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラム211を読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD-ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラム211を記憶させておき、コンピュータ200がこれらからプログラム211を読み出して実行するようにしてもよい。
【0072】
以上の実施形態に関し、さらに以下の付記を開示する。
【0073】
(付記1)対象文に関連する複数の単語列を取得し、
取得した前記複数の単語列それぞれを前記対象文に結合した複数の結合文それぞれと、前記対象文とを言語モデルに入力し、
前記複数の結合文それぞれを前記言語モデルへ入力した場合の出力結果の分布それぞれとの差異に基づき、前記対象文を前記言語モデルへ入力した場合の出力における確信度を算出し、
算出した前記確信度に基づき、前記対象文を前記言語モデルへ入力した場合の出力結果を出力する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
【0074】
(付記2)前記算出する処理は、前記分布それぞれに基づく分散を算出し、算出した前記分散を前記確信度の指標値とする、
ことを特徴とする付記1に記載の情報処理プログラム。
【0075】
(付記3)前記算出する処理は、前記分布それぞれに基づく距離を算出し、算出した前記距離を前記確信度の指標値とする、
ことを特徴とする付記1に記載の情報処理プログラム。
【0076】
(付記4)前記取得する処理は、前記対象文との類似度に基づいて、コーパスの中で前記対象文に関連する複数の単語列を取得する、
ことを特徴とする付記1乃至3のいずれか一に記載の情報処理プログラム。
【0077】
(付記5)対象文に関連する複数の単語列を取得し、
取得した前記複数の単語列それぞれを前記対象文に結合した複数の結合文それぞれと、前記対象文とを言語モデルに入力し、
前記複数の結合文それぞれを前記言語モデルへ入力した場合の出力結果の分布それぞれとの差異に基づき、前記対象文を前記言語モデルへ入力した場合の出力における確信度を算出し、
算出した前記確信度に基づき、前記対象文を前記言語モデルへ入力した場合の出力結果を出力する、
処理をコンピュータが実行することを特徴とする情報処理方法。
【0078】
(付記6)前記算出する処理は、前記分布それぞれに基づく分散を算出し、算出した前記分散を前記確信度の指標値とする、
ことを特徴とする付記5に記載の情報処理方法。
【0079】
(付記7)前記算出する処理は、前記分布それぞれに基づく距離を算出し、算出した前記距離を前記確信度の指標値とする、
ことを特徴とする付記5に記載の情報処理方法。
【0080】
(付記8)前記取得する処理は、前記対象文との類似度に基づいて、コーパスの中で前記対象文に関連する複数の単語列を取得する、
ことを特徴とする付記5乃至7のいずれか一に記載の情報処理方法。
【0081】
(付記9)対象文に関連する複数の単語列を取得し、
取得した前記複数の単語列それぞれを前記対象文に結合した複数の結合文それぞれと、前記対象文とを言語モデルに入力し、
前記複数の結合文それぞれを前記言語モデルへ入力した場合の出力結果の分布それぞれとの差異に基づき、前記対象文を前記言語モデルへ入力した場合の出力における確信度を算出し、
算出した前記確信度に基づき、前記対象文を前記言語モデルへ入力した場合の出力結果を出力する、
処理を実行する制御部を含むことを特徴とする情報処理装置。
【0082】
(付記10)前記算出する処理は、前記分布それぞれに基づく分散を算出し、算出した前記分散を前記確信度の指標値とする、
ことを特徴とする付記9に記載の情報処理装置。
【0083】
(付記11)前記算出する処理は、前記分布それぞれに基づく距離を算出し、算出した前記距離を前記確信度の指標値とする、
ことを特徴とする付記9に記載の情報処理装置。
【0084】
(付記12)前記取得する処理は、前記対象文との類似度に基づいて、コーパスの中で前記対象文に関連する複数の単語列を取得する、
ことを特徴とする付記9乃至11のいずれか一に記載の情報処理装置。
【符号の説明】
【0085】
1…情報処理装置
10…入出力部
20…記憶部
21…ダミー文脈コーパス
22…文書検索パラメータ
23…言語モデルパラメータ
24…確信度計算パラメータ
25…文書生成モデルパラメータ
30…制御部
31…ダミー文脈取得部
32…回答取得部
33…確信度計算部
34…出力部
200…コンピュータ
201…CPU
202…入力装置
203…モニタ
204…スピーカー
205…媒体読取装置
206…インタフェース装置
207…通信装置
208…RAM
209…ハードディスク装置
210…バス
211…プログラム
212…各種データ
c…ダミー文脈
C…確信度
M1…言語モデル
R1~R3…ケース
x…入力文
図1
図2
図3
図4
図5
図6