IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤフー株式会社の特許一覧

特開2024-165843情報処理装置、情報処理方法および情報処理プログラム
<>
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図1
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図2
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図3
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図4
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図5
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図6
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図7
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024165843
(43)【公開日】2024-11-28
(54)【発明の名称】情報処理装置、情報処理方法および情報処理プログラム
(51)【国際特許分類】
   G06F 16/338 20190101AFI20241121BHJP
【FI】
G06F16/338
【審査請求】有
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023082380
(22)【出願日】2023-05-18
(71)【出願人】
【識別番号】500257300
【氏名又は名称】LINEヤフー株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】山田 貴史
(72)【発明者】
【氏名】田中 暢
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175DA01
5B175FB01
(57)【要約】
【課題】ユーザが求める情報を効率的に提供する。
【解決手段】情報処理装置100は、ユーザにより選択された複数の単語を取得する取得部121と、取得部121により取得された複数の単語間の関連性を推定する推定部122と、推定部122により推定された複数の単語間の関連性に対応する文章を生成する生成部124と、生成部124により生成された文章を出力する出力部125とを有する。
【選択図】図2
【特許請求の範囲】
【請求項1】
ユーザにより選択された複数の単語を取得する取得部と、
前記取得部によって取得された前記複数の単語間の関連性を推定する推定部と、
前記推定部によって推定された前記複数の単語間の関連性に対応する文章を生成する生成部と、
前記生成部によって生成された前記文章を出力する出力部と
を有することを特徴とする情報処理装置。
【請求項2】
前記推定部は、
検索履歴を用いて、前記取得部により取得された前記複数の単語間の関連性を推定する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記推定部は、
ユーザ属性を用いて、前記取得部により取得された前記複数の単語間の関連性を推定する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項4】
前記生成部は、
関連性と該関連性を説明する文章との関係性を学習したモデルを用いて、前記複数の単語間の関連性から前記複数の単語間の関連性を説明する文章を生成する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項5】
前記生成部は、
前記複数の単語が選択された記事の情報を用いて、前記推定部により推定された前記複数の単語間の関連性に対応する文章を生成する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項6】
前記取得部は、
さらに、ユーザにより入力された文章を取得し、
前記推定部により推定された前記複数の単語間の関連性と、前記取得部によって取得された前記ユーザにより入力された文章とに関連する記事を特定する特定部
をさらに有し、
前記生成部は、
前記取得部によって取得された前記文章に対する回答として、前記特定部によって特定された前記記事を要約する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項7】
情報処理装置が実行する情報処理方法であって、
ユーザにより選択された複数の単語を取得する取得工程と、
前記取得工程により取得された前記複数の単語間の関連性を推定する推定工程と、
前記推定工程により推定された前記複数の単語間の関連性に対応する文章を生成する生成工程と
前記生成工程により生成された前記文章を出力する出力工程と
を含むことを特徴とする情報処理方法。
【請求項8】
ユーザにより選択された複数の単語を取得する取得ステップと、
前記取得ステップにより取得された前記複数の単語間の関連性を推定する推定ステップと、
前記推定ステップにより推定された前記複数の単語間の関連性に対応する文章を生成する生成ステップと
前記生成ステップにより生成された前記文章を出力する出力ステップと
をコンピュータに実行させることを特徴とする情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。
【背景技術】
【0002】
従来、検索クエリに関連する情報を提供する技術が存在する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2022-178270号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来技術では、ユーザが求める情報を効率的に提供することができない。
【課題を解決するための手段】
【0005】
上述した課題を解決し、目的を達成するため、情報処理装置は、ユーザにより選択された複数の単語を取得する取得部と、前記取得部により取得された前記複数の単語間の関連性を推定する推定部と、前記推定部により推定された前記複数の単語間の関連性に対応する文章を生成する生成部と、前記生成部により生成された前記文章を出力する出力部とを有することを特徴とする。
【発明の効果】
【0006】
本発明によれば、ユーザが求める情報を効率的に提供することができる。
【図面の簡単な説明】
【0007】
図1図1は、実施形態に係る情報処理装置の概要を説明する図である。
図2図2は、実施形態に係る情報処理装置の構成の一例を示すブロック図である。
図3図3は、実施形態に係る情報処理装置が行う処理の一例を示す図である。
図4図4は、実施形態に係る情報処理装置が行う処理の一例を示す図である。
図5図5は、実施形態に係る情報処理装置が行う処理の一例を示す図である。
図6図6は、実施形態に係る情報処理装置が行う処理の一例を示す図である。
図7図7は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。
図8図8は、情報処理プログラムを実行するコンピュータの一例を示す図である。
【発明を実施するための形態】
【0008】
以下、図面を参照して、本願に係る情報処理装置、情報処理方法および情報処理プログラムの実施形態を詳細に説明する。なお、この実施の形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示しており、重複する説明は、省略される。
【0009】
〔はじめに〕
従来、検索クエリに関連する情報を提供する技術が存在する。しかしながら、従来技術では、ユーザが求める情報を効率的に提供することができない。例えば、従来技術は、あくまで検索クエリに関連する情報を提供するものであり、コンテンツ内に登場する複数の単語間の関連性についての情報を直ちに提供することができない。また、コンテンツ内に登場する複数の単語間の関連性を知るためには、ユーザがそれぞれの単語について検索を行い、検索結果について自身で情報を取捨選択する必要がある。加えて、従来技術では、複数の単語間の関連性についてユーザが抱いた疑問を解消することができない。このため、ユーザが求める情報を取得するための負担は依然として大きいままである。
【0010】
そこで、本実施形態に係る情報処理装置100は、以下の処理を行う。まず、情報処理装置100は、例えば、図1(1)に示すように、ユーザが選択した複数の単語「○○太郎」と「○○サミット」とを取得する。次に、情報処理装置100は、取得した複数の単語「○○太郎」と「○○サミット」との関連性を、例えば、「○○太郎」「○○サミット」「参加」と推定する。続いて、情報処理装置100は、推定された複数の単語間の関連性「○○太郎」「○○サミット」「参加」に対応する文章を生成する。そして、情報処理装置100は、例えば、図1(2)に示すように、生成した文章「○○太郎は過去に第1回~5回の○○サミットに参加している。○○太郎は第3回の○○サミットにて△△問題について「~~」と発言した。○○太郎は第6回○○サミットへの参加を予定している。」を出力してユーザに提供する。
【0011】
これにより、情報処理装置100は、ユーザが選択した複数の単語間の関連性を推定し、推定した関連性に対応する文章を生成することで、ユーザが求める情報を効率的に提供することができる。
【0012】
〔情報処理装置の構成〕
次に、図2を用いて、情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成の一例を示す図である。図2が示すように、情報処理装置100は、通信部110と、制御部120と、記憶部130とを備える。なお、これらの各部は、複数の装置が分散して保持してもよい。以下にこれら各部の処理を説明する。
【0013】
通信部110は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した外部装置と制御部120の通信を可能とする。例えば、通信部110は、外部装置と制御部120との通信を可能とする。
【0014】
記憶部130は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部130が記憶する情報としては、例えば、ユーザID、ユーザ属性、検索履歴、閲覧履歴、記事情報、各種機械学習アルゴリズムに関するデータ、機械学習のための学習データ、学習済みモデルなどを記憶する。ここで、ユーザ属性には、年齢、性別、出身地、居住地、家族構成、職業、趣味、興味といった情報が含まれる。また、検索履歴には、検索された検索ワード、検索が行われた日時、検索件数といった情報が含まれる。また、検索履歴は、例えば、検索ワードを検索件数順に並べた検索サジェストのように、目的に応じた形式で表示可能である。また、記事情報には、記事のタイトル、見出し、内容、ハイライト(注目を集めた箇所)、コメント、作成者、作成者に対する評価、記事に対する評価、投稿日時といった情報が含まれる。また、記事情報は、自然言語処理により分析済みの情報であってもよい。なお、記憶部130が記憶する情報は上記に記載したものに限定されない。
【0015】
制御部120は、CPU(Central Processing Unit)やNP(Network Processor)やFPGA(Field Programmable Gate Array)等を用いて実現され、メモリに記憶された処理プログラムを実行する。図2に示すように、制御部120は、取得部121と、推定部122と、特定部123と、生成部124と、出力部125とを有する。以下、制御部120が有する各部について説明する。
【0016】
取得部121は、ユーザにより選択された複数の単語を取得する。例えば、取得部121は、ユーザが閲覧したコンテンツ(任意のニュース記事やウェブページ等)から選択した複数の単語を取得する。例えば、取得部121は、ユーザが過去に閲覧した記事またはユーザが閲覧中の記事から選択した複数の単語を取得する。なお、取得部121が取得する単語はそれぞれ異なる記事から選択されてもよい。より具体的には、取得部121は、ユーザにより選択された複数の単語「○○太郎」「○○サミット」を取得する。
【0017】
また、取得部121は、ユーザにより入力された文章を取得する。例えば、取得部121は、ユーザにより入力フォームに入力された文章を取得する。例えば、取得部121は、ユーザにより検索フォームに入力された質問・要望を取得する。より具体的には、取得部121は、ユーザにより入力された文章「他のサミットでの情報を教えて」を取得する。
【0018】
推定部122は、取得部121によって取得された複数の単語間の関連性を推定する。例えば、推定部122は、複数の単語を入力として、複数の単語と複数の単語間の関連性とを用いて複数の単語間の関連性を出力する学習モデルを用いることで、取得部121によって取得された複数の単語間の関連性を推定する。
【0019】
また、例えば、推定部122は、クラスタリングによる単語の分類結果を用いて、複数の単語間の関連性を推定してもよい。例えば、推定部122は、複数の単語と、複数の単語の分類とを入力として、複数の単語と、複数の単語の分類と、複数の単語間の関連性とを用いて、複数の単語間の関連性を出力する学習モデルを用いることで、取得部121によって取得された複数の単語間の関連性を推定する。
【0020】
なお、推定部122によって推定される複数の単語間の関連性は、単語のみの形式で表されてもよいし、単語に対して動詞、名詞、形容詞、助詞、補語等を追加した形式で表されてもよい。例えば、複数の単語が「○○太郎」「○○サミット」である場合には、複数の単語間の関連性は、「○○太郎」「○○サミット」「参加」といった形式で表されてもよいし、「○○太郎の○○サミットへの参加」といった形式で表されてもよい。
【0021】
また、推定部122は、検索履歴を用いて、取得部121により取得された複数の単語間の関連性を推定する。例えば、推定部122は、ユーザにより選択された複数の単語と、ユーザの検索履歴とを比較して、複数の単語間の関連性を推定してもよい。例えば、推定部122は、ユーザにより選択された複数の単語と、ユーザにより選択された単語の1つ以上を含むキーワードを検索クエリとして検索した場合の検索サジェストとを比較することで、取得部121により取得された複数の単語間の関連性を推定する。例えば、推定部122は、ユーザにより選択された複数の単語「○○太郎」「○○サミット」を含む検索サジェストのうち、最も検索件数が多い「○○太郎」「○○サミット」「参加」を複数の単語間の関連性として推定してもよい。
【0022】
なお、推定部122が複数の単語間の関連性を推定する際に用いる検索履歴は、全てのユーザを対象としたものであってもよいし、特定のユーザを対象としたものであってもよい。
【0023】
また、推定部122は、ユーザ属性を用いて、取得部121により取得された複数の単語間の関連性を推定する。例えば、推定部122は、ユーザ属性としてユーザの興味関心を用いて、取得部121により取得された複数の単語間の関連性を推定する。例えば、推定部122は、ユーザ属性としてユーザの興味と対応する関連性を、取得部121により取得された複数の単語間の関連性として推定する。より具体的には、推定部122は、ユーザの興味(自然・環境問題)から、「○○太郎」「○○サミット」「環境問題」を複数の単語間の関連性として推定してもよい。
【0024】
なお、推定部122が複数の単語間の関連性を推定する際に用いるユーザ属性は、年齢、性別、出身地、居住地、家族構成、職業、趣味、興味等から1つ以上のものを適宜選択可能である。
【0025】
特定部123は、推定部122によって推定された複数の単語間の関連性と、ユーザにより入力された文章とに関連する記事を特定する。例えば、特定部123は、推定部122によって推定された複数の単語間の関連性と、取得部121によって取得された質問や要望等の文章の内容とに関連する記事を特定する。より具体的には、まず、特定部123は、取得部121によって取得された文章を対象として、形態素解析、文法解析、意味解析、文脈解析といった自然言語処理により分析する。
【0026】
その後、特定部123は、推定部122によって推定された複数の単語間の関連性と、分析済みの文章を入力として、複数の単語間の関連性と、分析済みの文章と、記憶部130に記憶された分析済みの記事の情報とを用いて、推定部122によって推定された複数の単語間の関連性と、取得部121によって取得された文章とについて関連性が高い記事を出力する学習モデルを用いることで、推定部122によって推定された複数の単語間の関連性と、取得部121によって取得された文章とについて関連性が高い記事を特定する。なお、取得部121により取得された文章と関連性の高い記事を特定する過程で用いられる自然言語処理や学習モデルには、目的に応じた従来技術を利用することができる。
【0027】
生成部124は、推定部122によって推定された複数の単語間の関連性に対応する文章を生成する。例えば、生成部124は、推定部122によって推定された複数の単語間の関連性を用いて、推定部122によって推定された複数の単語間の関連性を説明する文章を生成する。より具体的には、生成部124は、推定部122によって推定された複数の単語間の関連性「○○太郎の○○サミットへの参加」を用いて、複数の単語間の関連性「○○太郎の○○サミットへの参加」を説明する文章を生成する。
【0028】
また、生成部124は、関連性と該関連性を説明する文章との関係性を学習したモデルを用いて、複数の単語間の関連性から複数の単語間の関連性を説明する文章を生成する。ここで、生成部124は、文章の生成に際して、入力された文章に対応する回答文を出力するように学習されたモデルを用いる。例えば、このモデルは、情報処理を行うサーバ内にあり、事業者(ヤフー)が独自に作成したものである。なお、入力された情報は、新たな回答として利用されないような学習を行うことで、入力された個人情報等の情報を秘匿するものが望ましい。
【0029】
また、生成部124は、複数の単語が選択された記事の情報を用いて、推定部122により推定された複数の単語間の関連性に対応する文章を生成する。例えば、生成部124は、各単語が選択された記事の情報を用いて、推定部122により推定された複数の単語間の関連性に対応する文章を生成する。より具体的には、生成部124は、推定部122によって推定された複数の単語間の関連性「○○太郎の○○サミットへの参加」と、複数の単語が選択された記事「第〇回○○サミットの主要テーマ」の情報とを用いて、複数の単語間の関連性「○○太郎の○○サミットへの参加」を説明する文章を生成する。
【0030】
また、生成部124は、取得部121によって取得された文章に対する回答として、特定部123によって特定された記事の要約を生成する。例えば、生成部124は、取得部121によって取得された文章と、特定部123によって特定された記事の情報とを入力として、記事の要約を出力するモデルを用いて、取得部121によって取得された文章に対する回答として、特定部123によって特定された記事の要約を生成する。
【0031】
出力部125は、生成部124によって生成された文章を出力する。例えば、出力部125は、生成部124によって生成された文章を、端末画面に表示する。例えば、出力部125は、生成部124によって生成された文章を、検索結果と併せて表示する。また、例えば、出力部125は、生成部124によって生成された文章を、外部装置や外部システムに送信する。
【0032】
〔情報処理装置が行う処理〕
次に、図3~6を用いて、実施形態に係る情報処理装置100が行う処理の一例について説明する。図3~6は、実施形態に係る情報処理装置100が行う処理の一例を説明する図である。ここで、図3(1)は、ユーザによる単語の選択を示す模式図である。例えば、図3(1)に示すように、表示されている記事からユーザが単語「○○太郎」と「○○サミット」を選択すると、ユーザが選択した単語が図3(1)下部のウィンドウに表示される。続いて、例えば、ユーザは、図3(1)下部のウィンドウにある「関連性を調べる」ボタンを押下する。このとき、取得部121は、ユーザにより選択されていた複数の単語「○○太郎」「○○サミット」を取得する。
【0033】
次に、図3(2)は、ユーザが知りたい関連性を推定する処理を説明するための模式図である。ここで、例えば、推定部122は、ユーザにより選択された複数の単語「○○太郎」と「○○サミット」と、ユーザにより選択された単語の1つ以上を含むキーワードを検索クエリとして検索した場合の検索サジェストとを比較することで、取得部121により取得された複数の単語間の関連性を推定する。
【0034】
例えば、図3(2)に示すように、「○○サミット」と検索した場合には、「○○サミット 参加者」「○○サミット 参加国」「○○サミット 日程」「○○サミット 会場」などのように検索サジェストが表示される。推定部122は、このような検索サジェストと、ユーザにより選択された複数の単語とを比較し、ユーザにより選択された複数の単語を含むサジェストのうち、例えば、最も検索件数が多いものを複数の単語間の関連性として推定する。
【0035】
このとき、推定部122は、ユーザ属性を用いて複数の単語間の関連性を推定してもよい。例えば、推定部122は、ユーザの興味(自然・環境問題)から、「○○太郎」「○○サミット」「環境問題」を複数の単語間の関連性として推定してもよい。なお、推定部122は、複数の単語間の関連性を推定する際、検索履歴やユーザ属性といった要素を組み合わせて用いてもよい。例えば、推定部122は、ユーザにより選択された複数の単語を含むサジェストのうち、検索数が一定数以上であり、かつ、ユーザ属性と対応するものを複数の単語間の関連性として推定することができる。
【0036】
次に、図4(1)は、生成部124が生成した情報を模式的に示した例である。例えば、生成部124は、推定部122によって推定された複数の単語間の関連性を、事業者(ヤフー)が独自に作成した学習済みの大規模言語モデルに入力することで、推定部122によって推定された複数の単語間の関連性を説明する文章を生成する。例えば、生成部124は、推定部122により推定された複数の単語間の関連性「○○太郎」「○○サミット」「参加」に対応する文章として「○○太郎は過去に第1回~5回の○○サミットに参加している。○○太郎は第3回の○○サミットにて△△問題について「~~」と発言した。○○太郎は第6回○○サミットへの参加を予定している。」といった情報を生成する。
【0037】
そして、図4(2)は、生成部124により生成された文章を画面に表示した例を示す模式図である。出力部125は、図4(2)に示すように、生成部124により生成された文章を検索結果と併せて表示する。
【0038】
続いて、図5(1)は、ユーザによる文章の入力の例を示す模式図である。例えば、取得部121は、図5(1)に示すように、生成された文章に対してユーザが入力した要望を表す文章「他のサミットでの情報を教えて」を取得する。
【0039】
続いて、図5(2)は、記憶部130に記憶される記事の情報を模式的に示した例である。例えば、特定部123は、取得部121により取得された文章の情報を対象として形態素解析等の自然言語処理を行い、分析した文章と複数の単語間の関連性とを入力として、分析した文章の情報と、複数の単語間の関連性と、記憶部130に記憶された分析済みの各記事の情報と照合して、推定部122によって推定された複数の単語間の関連性と、取得部121によって取得された文章とについて関連性の高い記事を出力するモデルを用いることで、推定部122によって推定された複数の単語間の関連性と、取得部121によって取得された文章とについて関連する記事を特定する。例えば、特定部123は、推定部122によって推定された複数の単語間の関連性「○○太郎」「○○サミット」「参加」と、取得部121によって取得された文章「他のサミットでの情報を教えて」とに関連する記事として記事Aと記事Dとを特定する。
【0040】
続いて、生成部124は、取得部121によって取得された文章に対する回答として、特定部123によって特定された記事の要約を生成する。例えば、生成部124は、取得部121によって取得された文章と、特定部123によって特定された記事の情報とを、事業者(ヤフー)が独自に作成した学習済みの大規模言語モデルに入力することで、取得部121によって取得された文章の回答となるよう、特定部123によって特定された記事の情報を要約した結果を得る。
【0041】
例えば、生成部124は、取得部121によって取得された文章「○○選手の活躍を教えて」と、特定部123によって特定された「○○太郎××サミットにて~~に言及」の記事の情報と「△△サミット 同盟国との連携がカギ」の記事の情報とを入力として、「○○太郎は第4回の××サミット、第6回の△△サミットに参加している。○○太郎は第4回の××サミットでは問題となっている~~について「・・・・・」と意見を表明した。○○太郎は第6回の△△サミットで行われた会談にて「同盟国□□、□□との連携が~~のカギとなる」と発言した。」といった情報を生成する。
【0042】
そして、図6は、生成部124により生成された文章と記事タイトル(URLの情報を含む)とを画面に表示した例を示す模式図である。このように、ユーザが出力部125による出力結果に対する質問・要望等の文章を入力すると、情報処理装置100は、再び入力された文章を取得し、関連する記事を特定し、入力された文章への回答となるよう記事を要約し、要約内容を出力するといった処理を繰り返して行う。
【0043】
〔フローチャート〕
次に、図7を用いて、情報処理装置100による処理の流れについて説明する。図7は、本実施形態に係る処理の流れの一例を示すフローチャートである。
【0044】
まず、取得部121は、ユーザにより選択された複数の単語を取得する(ステップS101)。例えば、取得部121は、ユーザが閲覧したコンテンツから選択した複数の単語を取得する。
【0045】
次に、推定部122は、取得部121によって取得された複数の単語間の関連性を推定する(ステップS102)。例えば、推定部122は、検索履歴を用いて、取得部121により取得された複数の単語間の関連性を推定する。
【0046】
それから、生成部124は、推定部122によって推定された複数の単語間の関連性に対応する文章を生成する(ステップS103)。生成部124は、入力された文章に対応する回答文を出力するように学習されたモデルを用いて、推定部122によって推定された複数の単語間の関連性を用いて、推定部122によって推定された複数の単語間の関連性を説明する文章を生成する。
【0047】
そして、出力部125は、生成部124によって生成された文章を出力する(ステップS104)。例えば、出力部125は、生成部124によって生成された文章を検索結果と併せて表示する。
【0048】
その後、取得部121は、ユーザにより文章が入力されたか否かを判定する(ステップS105)。ここで、取得部121によって、ユーザにより文章が入力されたと判定された場合(ステップS105“YES”)、取得部121は、ユーザにより入力された文章を取得する(ステップS106)。例えば、取得部121は、ユーザにより入力された質問や要望を取得する。
【0049】
その後、特定部123は、推定部122によって推定された複数の単語間の関連性と、ユーザにより入力された文章とに関連する記事を特定する(ステップS107)。例えば、特定部123は、推定部122によって推定された複数の単語間の関連性と、取得部121によって取得された質問や要望等の文章の内容とに関連する記事を特定する。
【0050】
そして、生成部124は、取得部121によって取得された文章に対する回答として、特定部123によって特定された記事の要約を生成する(ステップS108)。例えば、生成部124は、取得部121によって取得された文章と、特定部123によって特定された記事の情報とを入力として、記事の要約を出力するモデルを用いて、取得部121によって取得された文章に対する回答として、特定部123によって特定された記事の要約を生成する。
【0051】
一方、取得部121によって、ユーザにより文章が入力されていないと判定された場合(ステップS105“NO”)、情報処理装置100は、処理を終了する。
【0052】
〔効果〕
実施形態に係る情報処理装置100は、ユーザにより選択された複数の単語を取得する取得部121と、取得部121によって取得された複数の単語間の関連性を推定する推定部122と、推定部122によって推定された複数の単語間の関連性に対応する文章を生成する生成部124と、生成部124によって生成された文章を出力する出力部125とを有する。
【0053】
これにより、情報処理装置100は、ユーザにより選択された複数の単語間の関連性を推定し、ユーザが知りたい単語同士の関連性を説明する文章を生成することで、ユーザが求める情報を効率的に提供することができる。
【0054】
また、実施形態に係る情報処理装置100の推定部122は、検索履歴を用いて、取得部121により取得された複数の単語間の関連性を推定する。これにより、情報処理装置100は、検索履歴の情報を用いて、ユーザにより選択された複数の単語間の関連性を推定し、ユーザが知りたい単語同士の関連性を説明する文章を生成することで、ユーザが求める情報を効率的に提供することができる。
【0055】
また、実施形態に係る情報処理装置100の推定部122は、ユーザ属性を用いて、取得部121により取得された複数の単語間の関連性を推定する。これにより、ユーザ属性の情報を用いて、情報処理装置100は、ユーザにより選択された複数の単語間の関連性を推定し、ユーザが知りたい単語同士の関連性を説明する文章を生成することで、ユーザが求める情報を効率的に提供することができる。
【0056】
また、実施形態に係る情報処理装置100の生成部124は、関連性と該関連性を説明する文章との関係性を学習したモデルを用いて、複数の単語間の関連性から複数の単語間の関連性を説明する文章を生成する。これにより、情報処理装置100は、ユーザにより選択された複数の単語間の関連性を推定し、学習モデルを用いて、ユーザが知りたい単語同士の関連性を説明する文章を生成することで、ユーザが求める情報を効率的に提供することができる。
【0057】
また、実施形態に係る情報処理装置100の生成部124は、複数の単語が選択された記事の情報を用いて、推定部122により推定された複数の単語間の関連性に対応する文章を生成する。これにより、情報処理装置100は、単語がどのような記事から選択されたかといった情報を加味することで、ユーザがどのような状況でその単語についての情報を求めたかといったコンテキストを踏まえて、ユーザが求める情報を効率的に提供することができる。
【0058】
また、実施形態に係る情報処理装置100の取得部121は、さらに、ユーザにより入力された文章を取得し、推定部122により推定された複数の単語間の関連性と、取得部121によって取得されたユーザにより入力された文章とに関連する記事を特定する特定部123をさらに有し、生成部124は、取得部121によって取得された文章に対する回答として、特定部123によって特定された記事を要約する。これにより、情報処理装置100は、生成された文章に対するユーザからの質問・要望等について関連する記事を特定し、特定した記事内容を回答となるよう要約することで、ユーザが生成された文章に対して抱いた疑問を解消し、ユーザが求める情報を効率的に提供することができる。
【0059】
〔プログラム〕
上記実施形態において説明した情報処理装置100が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
【0060】
図8は、情報処理プログラムを実行するコンピュータの一例を示す図である。図8に示すように、コントローラ200は、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
【0061】
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
【0062】
ここで、図8に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1090やメモリ1010に記憶される。
【0063】
また、制御プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、ハードディスクドライブ1090に記憶される。具体的には、上記実施形態で説明したコントローラ2000が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。
【0064】
また、制御プログラムによる情報処理に用いられるデータは、プログラムデータとして、例えば、ハードディスクドライブ1090に記憶される。そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
【0065】
なお、制御プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、制御プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
【0066】
〔その他〕
様々な実施形態を、図面を参照して、本明細書で詳細に説明したが、これらの複数の実施形態は例であり、本発明をこれらの複数の実施形態に限定することを意図するものではない。すなわち、本願発明は、入力として用いる特徴量を変更することによって、種々の多値分類モデルの学習、構築、更新を行い、目的とする確率を推定することが可能である。本明細書に記載された特徴は、当業者の知識に基づく様々な変形や改良を含む、様々な方法によって実現され得る。
【0067】
また、上述した「部(module、-er接尾辞、-or接尾辞)」は、ユニット、手段、回路などに読み替えることができる。例えば、通信部(communication module)、制御部(control module)および記憶部(storage module)は、それぞれ、通信ユニット、制御ユニットおよび記憶ユニットに読み替えることができる。
【符号の説明】
【0068】
100 情報処理装置
110 通信部
120 制御部
121 取得部
122 推定部
123 特定部
124 生成部
125 出力部
130 記憶部
図1
図2
図3
図4
図5
図6
図7
図8