IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

特開2025-105928情報処理装置、情報処理方法および情報処理プログラム
<>
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図1
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図2
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図3
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図4
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図5
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図6
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図7
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図8
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図9
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図10
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図11
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図12
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図13
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図14
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図15
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図16
  • 特開-情報処理装置、情報処理方法および情報処理プログラム 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025105928
(43)【公開日】2025-07-10
(54)【発明の名称】情報処理装置、情報処理方法および情報処理プログラム
(51)【国際特許分類】
   G06F 16/90 20190101AFI20250703BHJP
   G06F 16/9035 20190101ALI20250703BHJP
【FI】
G06F16/90 100
G06F16/9035
【審査請求】有
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2025076267
(22)【出願日】2025-05-01
(62)【分割の表示】P 2021574650の分割
【原出願日】2021-01-19
(31)【優先権主張番号】P 2020010576
(32)【優先日】2020-01-27
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】野間 英樹
(72)【発明者】
【氏名】金盛 克俊
(57)【要約】
【課題】ユーザが親近感を持つ対話を実現することができる情報処理装置、情報処理方法および情報処理プログラムを提案する。
【解決手段】情報処理装置(100)は、話者のエピソードデータ(D1)を記憶する記憶部(120)から、話者の発話データ(D30)に含まれるトピック情報に関するエピソードデータ(D1)を取得する取得部(132)と、エピソードデータ(D1)に基づくエピソードを含むように、話者との対話を制御する対話制御部(133)と、を備える。
【選択図】図4
【特許請求の範囲】
【請求項1】
話者のエピソードデータを記憶する記憶部と、
前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを前記記憶部から取得する取得部と、
前記エピソードデータに基づくエピソードを含むように、エージェント装置の前記話者との対話を制御する対話制御部と、
前記エージェント装置のセンサ情報に基づいて前記話者を認識する認識部と、
を備え、
前記取得部は、前記話者を認識している場合、取得条件を満たす前記エピソードデータを取得し、
前記対話制御部は、前記取得部により取得した前記エピソードデータが示す前記エピソードを自発的に発話するように、前記エージェント装置の前記話者との対話を制御する、
情報処理装置。
【請求項2】
前記エージェント装置は自動車である、
請求項1に記載の情報処理装置。
【請求項3】
前記対話制御部はさらに、前記エージェント装置に設定されたキャラクターに適した発話を制御する、
請求項1に記載の情報処理装置。
【請求項4】
前記話者に関する関連情報を収集する収集部と、
前記関連情報に基づいて前記エピソードデータを生成する生成部と、
をさらに備える、
請求項1に記載の情報処理装置。
【請求項5】
前記話者の関連情報は、前記話者の過去または未来の状況に関する情報である、
請求項4に記載の情報処理装置。
【請求項6】
前記話者の関連情報は、前記話者に関連する人物および動物のうち少なくとも一方の情報を含む、
請求項4に記載の情報処理装置。
【請求項7】
前記生成部は、前記記憶部の前記エピソードデータの共通するデータに基づいて汎化した前記エピソードデータを生成する、
請求項4に記載の情報処理装置。
【請求項8】
前記対話制御部は、前記話者との対話に基づいて、前記話者に関連するエピソードデータの中に特定のエピソードを追加する、
請求項1に記載の情報処理装置。
【請求項9】
前記エピソードデータは場所に関連付けて前記記憶部に記憶される、
請求項1に記載の情報処理装置。
【請求項10】
前記場所は目的地を含む、
請求項9に記載の情報処理装置。
【請求項11】
前記対話制御部は、前記取得部が前記エピソードデータを取得していない場合、前記エピソードとは異なる対話データに基づいて、前記話者との対話を制御する、
請求項1に記載の情報処理装置。
【請求項12】
前記対話制御部は、前記エピソードデータに含まれる日時のデータを相対的日時に変換して対話データを生成する、
請求項1に記載の情報処理装置。
【請求項13】
コンピュータが、
話者のエピソードデータを記憶する記憶部から、前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを取得することと、
前記エピソードデータに基づくエピソードを含むように、エージェント装置の前記話者との対話を制御することと、
前記エージェント装置のセンサ情報に基づいて前記話者を認識することと、
を含み、
前記取得することは、前記話者を認識している場合、取得条件を満たす前記エピソードデータを取得し、
前記制御することは、前記取得することにより取得した前記エピソードデータが示す前記エピソードを自発的に発話するように、前記エージェント装置の前記話者との対話を制御する、
情報処理方法。
【請求項14】
コンピュータに、
話者のエピソードデータを記憶する記憶部から、前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを取得することと、
前記エピソードデータに基づくエピソードを含むように、エージェント装置の前記話者との対話を制御することと、
前記エージェント装置のセンサ情報に基づいて前記話者を認識することと、
を実行させ、
前記取得することは、前記話者を認識している場合、取得条件を満たす前記エピソードデータを取得し、
前記制御することは、前記取得することにより取得した前記エピソードデータが示す前記エピソードを自発的に発話するように、前記エージェント装置の前記話者との対話を制御する、
ための情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法および情報処理プログラムに関する。
【背景技術】
【0002】
近年、ユーザ発話の音声認識を行い、認識結果に基づく対話を行う装置が普及している。例えば、特許文献1には、分野別の辞書を用いて専門分野に応じた対話を実現する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2003-280683号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来技術では、分野別の辞書に記録されている分野の専門的な対話を行うため、日常的な対話を実現することが困難である。このため、従来技術では、ユーザが親近感を持つ対話を実現することが望まれている。
【0005】
そこで、本開示では、ユーザが親近感を持つ対話を実現することができる情報処理装置、情報処理方法および情報処理プログラムを提案する。
【課題を解決するための手段】
【0006】
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、話者のエピソードデータを記憶する記憶部と、前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを前記記憶部から取得する取得部と、前記エピソードデータに基づくエピソードを含むように、エージェント装置の前記話者との対話を制御する対話制御部と、前記エージェント装置のセンサ情報に基づいて前記話者を認識する認識部と、を備え、前記取得部は、前記話者を認識している場合、取得条件を満たす前記エピソードデータを取得し、前記対話制御部は、前記取得部により取得した前記エピソードデータが示す前記エピソードを自発的に発話するように、前記エージェント装置の前記話者との対話を制御する。
【0007】
また、本開示に係る一形態の情報処理方法は、コンピュータが、話者のエピソードデータを記憶する記憶部から、前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを取得することと、前記エピソードデータに基づくエピソードを含むように、エージェント装置の前記話者との対話を制御することと、前記エージェント装置のセンサ情報に基づいて前記話者を認識することと、を含み、前記取得することは、前記話者を認識している場合、取得条件を満たす前記エピソードデータを取得し、前記制御することは、前記取得することにより取得した前記エピソードデータが示す前記エピソードを自発的に発話するように、前記エージェント装置の前記話者との対話を制御する。
【0008】
また、本開示に係る一形態の情報処理プログラムは、コンピュータに、話者のエピソードデータを記憶する記憶部から、前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを取得することと、前記エピソードデータに基づくエピソードを含むように、エージェント装置の前記話者との対話を制御することと、前記エージェント装置のセンサ情報に基づいて前記話者を認識することと、を実行させ、前記取得することは、前記話者を認識している場合、取得条件を満たす前記エピソードデータを取得し、前記制御することは、前記取得することにより取得した前記エピソードデータが示す前記エピソードを自発的に発話するように、前記エージェント装置の前記話者との対話を制御する。
【図面の簡単な説明】
【0009】
図1】実施形態に係る情報処理システムの一例を説明するための図である。
図2】実施形態に係るエージェント装置の構成の一例を示す図である。
図3】本実施形態に係るエージェント装置の構造の一例を示す図である。
図4】実施形態に係る情報処理装置の構成の一例を示す図である。
図5】実施形態に係るエピソードデータの一例を示す図である。
図6】実施形態夷係るテンプレートデータの一例を示す図である。
図7】実施形態に係る発話データに基づくエピソードデータの生成例を説明するための図である。
図8】実施形態に係る発話データに基づくエピソードデータの生成例を説明するための図である。
図9】実施形態に係る情報処理装置の処理手順例(1)を示すフローチャートである。
図10】実施形態に係る情報処理装置の処理手順例(2)を示すフローチャートである。
図11】実施形態に係る質問データの一例を示す図である。
図12】質問を用いたエピソードデータの生成に関する情報処理装置の処理手順を示すフローチャートである。
図13】実施形態に係る情報処理装置の質問を用いたエピソードデータの生成例を示す図である。
図14】情報処理装置の関連情報に基づくエピソードデータの生成に関する処理手順を示すフローチャートである。
図15】実施形態に係る情報処理装置の関連情報に基づくエピソードデータの使用例を示す図である。
図16】複数のエピソードデータの汎用化を説明するための図である。
図17】情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0010】
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
【0011】
(実施形態)
[実施形態に係る情報処理システムの概要]
図1は、実施形態に係る情報処理システムの一例を説明するための図である。図1に示す情報処理システム1は、ユーザUとエージェント装置10との対話を実現する対話処理システムである。ユーザUは、情報処理システム1におけるエージェント装置10の話者の一例である。例えば、ユーザUは、エージェント装置10との対話に、独創性や新鮮味がないと、飽きてしまう可能性がある。ユーザUは、例えば、飽きてしまったエージェント装置10を利用しなくなる。このため、情報処理システム1は、エージェント装置10との対話をユーザUに飽きさせず、かつ親近感を持つように、ユーザUのエピソードに基づく対話を実現するエピソードトーク機能を有する。
【0012】
情報処理システム1は、エージェント装置10と、情報処理装置100と、を備える。情報処理システム1は、例えば、複数のユーザUのそれぞれと対話する複数のエージェント装置10を備えてもよい。エージェント装置10と情報処理装置100とは、例えば、ネットワークを介して通信したり、ネットワークを介さずに直に通信したりすることが可能な構成となっている。情報処理装置100は、例えば、エージェント装置10に組み込まれてもよい。以下の説明では、情報処理システム1は、エージェント装置10と情報処理装置100とが連携することで、エージェント装置10がユーザUと対話する一例について説明する。
【0013】
エージェント装置10は、いわゆるIoT(Internet of Things)機器であり、情報処理装置100と連携して、種々の情報処理を行う。エージェント装置10が実行する音声認識及び音声による対話処理等は、エージェント機能と称される場合がある。エージェント装置10は、例えば、ユーザUの発話に対し、様々な応答を行うことが可能である。例えば、応答は、エピソードに基づく応答、シナリオに基づく応答、状況の言語化に基づく応答、知識ベースに基づく応答、雑談応答等を含む。
【0014】
エージェント装置10は、例えば、自律移動体、スマートフォン、タブレット端末、ゲーム機器、ホームスピーカー、家庭用電気製品、自動車等を含む。スマートフォンやタブレット端末等は、エージェント機能を有するプログラム(アプリケーション)を実行することによって、上記のエージェント機能を実現する。本実施形態では、エージェント装置10は、自律移動体である場合について説明する。
【0015】
図1に示す一例では、エージェント装置10は、環境認識に基づく自律動作を行う種々の装置であり得る。エージェント装置10は、車輪による自律走行を行う長楕円体のエージェント型のロボット装置である。エージェント装置10は、例えば、2つの車輪と、2つの車輪を駆動するための駆動機構を備える。エージェント装置10は、起立状態を維持しつつ移動するように駆動機構を制御する。エージェント装置10は、例えば、ユーザU、周囲、また自身の状況に応じた自律動作を行うことで、ユーザUとの間で種々のコミュニケーションを実現する。エージェント装置10は、例えば、ユーザUが片手で容易に持ち上げられる程度の大きさおよび重量を有する小型ロボットであってもよい。
【0016】
実施形態において、エージェント装置10は、集音した音声に対する情報処理を実行する。例えば、エージェント装置10は、ユーザUの発話を認識し、当該発話に対する情報処理を実行する。図1に示す一例では、エージェント装置10は、利用するユーザUの自宅、会社、学校等に設置されているものとする。
【0017】
エージェント装置10は、例えば、周囲の音を集音するのみならず、その他の各種情報を取得するための各種センサを有していてもよい。例えば、エージェント装置10は、マイクロフォンの他に、空間上を取得するためのカメラ、照度を検知する照度センサ、傾きを検知するジャイロセンサ、物体を検知する赤外線センサ等を有していてもよい。
【0018】
情報処理装置100は、いわゆるクラウドサーバ(Cloud Server)であり、エージェント装置10と連携して情報処理を実行するサーバ装置である。情報処理装置100は、エージェント装置10が集音したユーザUの発話データを取得し、発話データを自然言語理解(NLU:Natural Language understanding)、自然言語処理(NLP:Natural Language Processing)等を用いて解析する。情報処理装置100は、発話データからトピック情報を抽出すると、当該トピック情報に関するエピソードデータをエピソードDB(data base)から取得する。トピック情報は、例えば、エピソードの分類、キーワード等の単語、文字列等を示す情報を含む。すなわち、トピック情報は、エピソードデータを取得するための情報である。エピソードDBは、例えば、ユーザUに関連するエピソードデータを有し、記憶装置に記憶されている。情報処理装置100は、エピソードデータに基づくエピソードを含むように、ユーザUとの対話を行う機能を有する。
【0019】
図1に示す一例では、エージェント装置10は、不在であったユーザUを認識した場合に、情報処理装置100から指示された発話C11を発している。発話C11は、例えば、「おかえり。」である。ユーザUは、発話C11に対し、発話C12を発している。発話C12は、例えば、「会社にお仕事しに行ってたよ。」である。エージェント装置10は、発話C12の発話データを情報処理装置100に送信する。
【0020】
情報処理装置100は、発話C12の発話データを解析し、「会社」、「行ってたよ」のトピック情報を抽出する。情報処理装置100は、抽出したトピック情報に対応したエピソードデータをエピソードDBから取得し、エピソードデータに基づく発話C13をエージェント装置10に指示する。情報処理装置100は、例えば、「会社」、「行く」に関するエピソードデータを取得する。この場合、エピソードデータは、例えば、昨日及び一昨日に、話者が会社に行ったことに関するエピソードを示すデータであるとする。エージェント装置10は、ユーザUに対して発話C13を発している。発話C13は、例えば、「そうなんだ。毎日行ってるね。」である。なお、エピソードデータに基づく対話方法については、後述する。ユーザUは、発話C13に対し、発話C14を発している。発話C14は、例えば、「それが仕事っていうものだよ。」である。エージェント装置10は、発話C14の発話データを情報処理装置100に送信する。
【0021】
情報処理装置100は、発話C14の発話データを解析し、ユーザUに対する応答を発話するように、エージェント装置10を制御する。例えば、情報処理装置100は、発話データに応答するための対話モデル、対話シナリオ等に基づいて、エージェント装置10のキャラクターに適した発話データを生成する。図1に示す一例では、エージェント装置10は、発話C14の発話データに応じた発話C15を発している。発話C15は、例えば、「わたしの分もがんばって。」である。
【0022】
このように、実施形態に係る情報処理装置100は、ユーザUの発話データに含まれるトピック情報に関するエピソードデータを取得すると、当該エピソードデータに基づくユーザUのエピソードを含んだ対話をエージェント装置10に実行させることができる。これにより、情報処理装置100は、ユーザUのエピソードデータに基づくエピソードを、ユーザUとの対話の中で提供することができる。その結果、情報処理装置100は、ユーザUのエピソードを対話に含めることで、ユーザUが親近感を持つ対話を実現することができる。
【0023】
[実施形態に係るエージェント装置の構成例]
図2は、実施形態に係るエージェント装置10の構成の一例を示す図である。図2に示すように、エージェント装置10は、センサ部11と、入力部12と、光源13と、出力部14と、駆動部15と、制御部16と、通信部17と、を備える。
【0024】
センサ部11は、ユーザUや周囲に係る種々のセンサ情報を収集する機能を有する。本実施形態に係るセンサ部11は、例えば、カメラ、ToF(Time of Flight)センサ、マイクロフォン、慣性センサ等を含む。センサ部11は、例えば、地磁気センサ、タッチセンサ、赤外線センサ、温度センサ、湿度センサなどの様々なセンサを含んでもよい。センサ部11は、収集したセンサ情報を制御部16に供給する。センサ部11は、マイクロフォンによって音声等を集音する機能を有する。センサ部11は、集音した音声等を記憶装置に記憶できる。
【0025】
入力部12は、ユーザUによる物理的な入力操作を検出する機能を有する。入力部12は、例えば、電源スイッチなどのボタンを備える。入力部12は、検出した入力操作を示す入力情報を制御部16に供給する。
【0026】
光源13は、自律移動体であるエージェント装置10の眼球動作を表現する。光源13は、例えば、2つの眼部を備える。光源13は、制御部16からの指示により、状況や動作に応じた豊かな眼球動作を表現する。
【0027】
出力部14は、音声を含む種々の音を出力する機能を有する。出力部14は、例えば、スピーカーやアンプなどを有する。出力部14は、制御部16によって指示された音を出力する。
【0028】
駆動部15は、自律移動体であるエージェント装置10の駆動機構を駆動させることで、動作を表現する。駆動部15は、例えば、2つの車輪や複数のモータ等を備える。駆動部15は、制御部16の指示によって駆動する。
【0029】
制御部16は、エージェント装置10の制御を行う。制御部16は、エージェント装置10が備える各構成を制御する機能を有する。制御部16は、例えば、各構成の起動や停止を制御する。制御部16は、情報処理装置100からの制御情報等に基づいて、光源13、出力部14、駆動部15等を制御する。
【0030】
制御部16は、センサ部11によってユーザUの発話が集音された場合に、発話を示す発話データを情報処理装置100に送信する制御を行う。制御部16は、情報処理装置100から指示された対話データを出力するように、出力部14を制御する。制御部16は、集音した発話データに対する対話データを出力することで、ユーザUとの対話を実現する。
【0031】
通信部17は、例えば、情報処理装置100、他の外部装置等と通信を行う。通信部17は、例えば、有線又は無線ネットワーク等を介して各種データを送受信する。通信部17は、例えば、発話が集音された場合に、発話情報を情報処理装置100に送信する。通信部17は、例えば、発話データのみならず、ユーザUを識別するための識別情報等を情報処理装置100に送信してもよい。通信部17は、例えば、情報処理装置100から受信した各種データを制御部16に供給する。
【0032】
以上、本実施形態に係るエージェント装置10の機能構成例について説明した。なお、図3を用いて説明した上記の構成はあくまで一例であり、本実施形態に係るエージェント装置10の機能構成は係る例に限定されない。本実施形態に係るエージェント装置10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
【0033】
[実施形態に係るエージェント装置の構造例]
図3は、本実施形態に係るエージェント装置10の構造の一例を示す図である。図3における左図は、立位状態(停留時及び走行時を含む)にあるエージェント装置10の姿勢を示す側視図である。図3における右図は、座位状態にあるエージェント装置10の姿勢を示す側視図である。
【0034】
図3の右図に示すように、本実施形態では、エージェント装置10は、座位状態で静止する際、底部の一部を床面に接地させる。これにより、2つの車輪570と接地している底部との少なくとも3点が床面に接触して、エージェント装置10が3点での座位状態となる。このため、エージェント装置10は、安定的に座位状態で静止させることが可能になる。また、エージェント装置10は、立位状態で移動する際、底部を床面に設置させない。
【0035】
エージェント装置10の重心CoGは、エージェント装置10を前傾姿勢(立位状態)とした際に、車輪570の車軸の上方の垂線V1上に位置する(図3の左図参照)。これにより、エージェント装置10は、バランスが保たれ、立位状態が維持される。
【0036】
一方、座位状態では、図3の右図に示すように、エージェント装置10を後方へ倒すことで、2つの車輪570と底部(凸部701)との少なくとも3点を床面に接触させる。その際、エージェント装置10の重心CoGは、車輪570の車軸を通る垂線V1と、底部(凸部701)と床面との接触部分を通る垂線V2との間に位置する。エージェント装置10は、座位状態時に、エージェント装置10の重心CoGを車輪570の車軸を通る垂線V1と底部(凸部701)と床面との接触部分を通る垂線V2との間に位置させることで、座位状態時のエージェント装置10を安定して静止させることが可能となる。
【0037】
[実施形態に係る情報処理装置の構成例]
図4は、実施形態に係る情報処理装置100の構成の一例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130と、を備える。制御部130は、通信部110及び記憶部120と電気的に接続されている。
【0038】
通信部110は、例えば、エージェント装置10、他の外部装置等と通信を行う。通信部110は、例えば、有線又は無線ネットワーク等を介して各種データを送受信する。通信部110は、例えば、エージェント装置10から受信したデータを制御部130に供給する。通信部110は、例えば、制御部130が指示したデータを指示された送信先に送信する。
【0039】
記憶部120は、各種データ及びプログラムを記憶する。例えば、記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。記憶部120は、通信部110を介して受信した情報を記憶する。記憶部120は、例えば、エピソードデータD1、テンプレートデータD2、ユーザデータD3、質問データD4、対話データD5、知識データD10、管理データD20、発話データD30等の各種データを記憶する。
【0040】
エピソードデータD1は、ユーザUのエピソードを示すデータである。エピソードは、例えば、ユーザUの過去の出来事、ユーザUの未来の予定、ユーザUの趣味に関する情報等を含む。テンプレートデータD2は、エピソードデータD1から対話データD5を生成するためのアルゴリズムを示すデータである。ユーザデータD3は、ユーザUに関する情報を示すデータである、ユーザUに関する情報は、例えば、ユーザUの個人情報、認証情報、設定情報等を含む。質問データD4は、ユーザUからエピソードを引き出すための質問等を示すデータである。質問データD4は、エピソードデータD1の生成時等に用いられるデータである。対話データD5は、ユーザUに対する対話に用いられるデータである。知識データD10は、知識、シナリオ等に基づく対話を実現するためのデータである。知識データD10は、例えば、意図同定、常識知識、専門知識、コーパス等の情報を含む。管理データD20は、ユーザUと当該ユーザUが使用するエージェント装置10との対応関係を示すデータである。発話データD30は、エージェント装置10からの発話データであり、解析結果が関連付けられる。
【0041】
本実施形態では、情報処理装置100は、エピソードデータD1を記憶部120に記憶し管理することで、エピソードDBを実現する。情報処理装置100は、自装置の外部の記憶装置等にエピソードDBを記憶する構成としてもよい。
【0042】
制御部130は、例えば、専用または汎用のコンピュータである。制御部130は、例えば、情報処理装置100を制御する統合制御ユニットである。制御部130は、エージェント装置20と連携することで、エージェント装置10がユーザUとの対話を実現する各機能部を備える。
【0043】
制御部130は、認識部131と、取得部132と、対話制御部133と、生成部134と、収集部135と、動作制御部140と、の各機能部を備える。制御部130の各機能部は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100の内部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。また、各機能部は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の集積回路により実現されてもよい。
【0044】
認識部131は、エージェント装置10のセンサ情報に基づいて、ユーザUを認証する機能を有する。認識部131は、例えば、顔認証、音声認証、指紋認証等によって個人認証を行い、エージェント装置10が対話するユーザUを認識する。認識部131は、エージェント装置10のセンサ情報、ユーザデータD3、管理データD20等に基づいて、エージェント装置10の利用可能なユーザUを認証した場合、当該ユーザUとエージェント装置10との対話を可能とする。
【0045】
認識部131は、エージェント装置10から受信した発話データを文字列に変換する。例えば、認識部131は、自動音声認識(ASR)処理等を用いることができる。認識部131は、NLU、NLP処理等を用いて、認識した文字列を解析する。本実施形態では、認識部131は、文字列の係り受け構造を解析し、解析結果を示す解析情報を発話データD30に関連付けて記憶部120に記憶する。解析情報は、例えば、句、格等の係り受け構造を示す情報を有する。
【0046】
取得部132は、ユーザUのエピソードデータD1を記憶する記憶部120から、ユーザUの発話データD30に含まれるトピック情報に関するエピソードデータD1を取得する。取得部132は、例えば、発話データD30からトピック情報を抽出する。トピック情報は、ユーザUのエピソードを取得するための情報であり、予め設定されたキーワード、単語、文字列等の情報を含む。
【0047】
取得部132は、トピック情報が対話条件を満たすエピソードデータD1を取得する。対話条件は、例えば、ユーザデータD3、管理データD20等に設定されている。対話条件は、例えば、トピック情報に基づいてエピソードデータD1を抽出する条件を含む。例えば、エピソードデータD1に含まれる単語または文字列が、設定された個数以上トピック情報と一致することが条件である場合、取得部132は、対話条件を満たすエピソードデータD1を記憶部120から取得する。
【0048】
取得部132は、ユーザUを認識している場合、ユーザUの発話とは関係なく、取得条件を満たすエピソードデータD1を取得する。取得条件は、例えば、ユーザUの直近のエピソード、時間帯のエピソード、日付や季節のエピソード等を示すエピソードデータD1を取得するための条件を含む。直近のエピソードは、例えば、ユーザUの最新のエピソードである。時間帯のエピソードは、例えば、時間帯が朝の場合、今日の予定、昨日の出来事等に関するエピソードを含む。時間帯のエピソードは、例えば、時間帯が昼の場合、午後の予定、夜の予定等に関するエピソードを含む。時間帯のエピソードは、例えば、時間帯が夜の場合、今日の出来事、明日の予定等に関するエピソードを含む。日付や季節のエピソードは、例えば、設定された期間におけるエピソードを含む。取得部132は、取得したエピソードデータD1を対話制御部133に供給する。取得部132は、エピソードデータD1を取得できなかった場合、取得できなかったことを対話制御部133に通知する。
【0049】
対話制御部133は、取得部132が取得したエピソードデータD1に基づくエピソードを含むように、ユーザU(話者)との対話を制御する。対話を制御するとは、例えば、ユーザUに対して発話を発するように制御すること、ユーザUと向かい合って話をするように制御すること等を含む。例えば、対話制御部133は、エピソードを含む対話データD5を生成し、当該対話データD5に基づく音声を出力するように、エージェント装置10を制御する。対話制御部133は、通信部110を介して、対話データD5の音声出力をエージェント装置10に指示する。これにより、エージェント装置10は、対話データD5に基づく音声を出力部14から出力することで、ユーザUとの対話を実現する。
【0050】
対話制御部133は、例えば、エピソードデータD1と対話文を生成するアルゴリズムとに基づいて、エピソードを含む対話データD5を生成する。アルゴリズムは、例えば、テンプレート、アプリケーション、プログラム等によって実現できる。本実施形態では、テンプレートデータD2を用いて、対話データD5を生成する場合について説明する。
【0051】
対話制御部133は、エピソードデータD1のデータをテンプレートに設定することで、対話データD5を生成する。対話制御部133は、エージェント装置10がエピソードを自発的に発話するように、ユーザUとの対話を制御する。対話制御部133は、例えば、ユーザUを認識した場合、取得条件を満たしたエピソードデータD1に基づくエピソードの音声を発するように、エージェント装置10を制御する。
【0052】
対話制御部133は、取得部132がエピソードデータD1を取得していない場合、エピソードとは異なる対話データD5に基づいて、ユーザUとの対話を制御する。すなわち、対話制御部133は、エピソードを含まない対話データD5を知識データD10に基づいて生成し、当該対話データD5に基づく音声を出力するように、エージェント装置10を制御する。エピソードを含まない対話データD5は、例えば、シナリオ対話、状況の言語化、知識ベース対話、雑談応答等の知識データD10に基づく応答を行うためのデータである。シナリオ対話は、例えば、あらかじめデザインされたシナリオに従った応答を含む。状況の言語化は、例えば、現在の状況に応じた、自発的に話すためのコーパス、状況定義等に基づく応答を含む。知識ベースの対話は、例えば、知識データD10に基づくパーソナライズされた応答を含む。対話制御部133は、シナリオ対話、状況の言語化、知識ベース対話及び雑談応答を、ユーザUとの対話に応じて選択し、選択した知識ベースの応答を示す対話データD5を生成する。
【0053】
対話制御部133は、エージェント装置10のユーザUを認証している場合、当該ユーザUのエピソードを引き出すために、質問データD4に基づいてユーザUとの対話を制御する。対話制御部133は、例えば、時間帯に応じた質問データD4を選択することができる。対話制御部133は、質問データD4に基づく音声を出力するように、エージェント装置10を制御する。
【0054】
生成部134は、発話データD30の解析結果に基づいて、エピソードデータD1を生成する。生成部134は、例えば、発話データD30の解析結果とエージェント装置10の状態や状況とに基づいて、エピソードデータD1を生成する。生成部134は、エージェント装置10の状態や状況に着目することで、発話データD30の解析結果からでは認識できない情報に基づいて、エピソードデータD1を生成する。
【0055】
生成部134は、対話制御部133がユーザUに質問している質問データD4と、当該質問に応じた発話データD30の解析結果とに基づいて、エピソードデータD1を生成する。生成部134は、例えば、質問データD4の質問内容とユーザUの返答を組み合わせることで、エピソードデータD1を生成する。例えば、「今日はどこに行くの?」という質問データD4の場合、生成部134は、ユーザUの質問に対する応答に基づいて、ユーザの今日のエピソードを示すエピソードデータD1を生成することができる。すなわち、生成部134は、質問によってユーザUから引き出した応答に基づいて、エピソードデータD1を生成することができる。生成部134は、生成したエピソードデータD1をユーザUに関連付けて記憶部120に記憶する。
【0056】
収集部135は、認識しているユーザUに関する関連情報を収集する。関連情報は、例えば、ユーザUの過去のシチュエーション等を示す情報を含む。収集部135は、例えば、エージェント装置10のセンサ情報に基づいて認識されたユーザUのシチュエーションを示す情報を収集する。収集部135は、例えば、「昨日、鈴木さんが家に来た」を示す関連情報を収集する。収集部135は、例えば、「週末、お母さんがテレビを見ていた」を示す関連情報を収集する。収集部135は、例えば、ユーザUのスケジュール、ソーシャルネットワークにおけるユーザUの情報等を関連情報として収集することができる。収集部135は、収集した関連情報を生成部134に供給する。
【0057】
生成部134は、収集した関連情報に基づいてユーザUのエピソードデータD1を生成し、記憶部120に記憶する。例えば、生成部134は、関連情報を解析し、ユーザUに関連する人物、動物等の情報に基づいてエピソードデータD1を生成する。
【0058】
動作制御部140は、エージェント装置10の動作を制御する。動作制御部140は、例えば、ユーザUの状況、学習知識等に基づく行動計画に基づいて、エージェント装置10の動作を制御する。動作制御部140は、例えば、長楕円体の外形を有するエージェント装置10の立位状態を維持したまま移動動作させる制御を行う。移動動作は、例えば、前後運動、旋回運動、回転運動等を含む。動作制御部140は、ユーザUとエージェント装置10とのコミュニケーションを誘因する誘因動作を、エージェント装置10に能動的に実行させる制御を行う。誘因動作は、例えば、ユーザUとエージェント装置10との対話を誘因するための動作を含む。
【0059】
以上、実施形態に係る情報処理装置100の機能構成例について説明した。なお、図4を用いて説明した上記の構成はあくまで一例であり、実施形態に係る情報処理装置100の機能構成は係る例に限定されない。実施形態に係る情報処理装置100の機能構成は、仕様や運用に応じて柔軟に変形可能である。
【0060】
[エピソードデータのデータ構造例]
図5は、実施形態に係るエピソードデータD1の一例を示す図である。図5に示すように、情報処理装置100は、ユーザUに関する複数のエピソードデータD1を有する。図5に示す一例では、6つのエピソードデータD1を有する場合について説明するが、エピソードデータD1の数は、作成、登録された数に応じて異なる。エピソードデータD1は、例えば、Ep_id、When、Who、Where、Action、State、Target、Why、How、With、Cause等の項目を有する。
【0061】
Ep_idの項目は、ユーザUのエピソードデータD1を識別可能な情報が設定される。Whenの項目は、エピソードデータD1の日時、季節等に関する情報が設定される。Whoの項目は、エピソードデータD1の名前、固有名詞等に関する情報が設定される。Whereの項目は、エピソードデータD1の場所に関する情報が設定される。Actionの項目は、エピソードデータD1の述語に関する情報が設定される。Stateの項目は、エピソードデータD1の状態に関する情報が設定される。Targetの項目は、Whyの項目は、エピソードデータD1の原因に関する情報が設定される。Howの項目は、エピソードデータD1の手段、方法、手順等に関する情報が設定される。Withの項目は、エピソードデータD1に関わる人物、動物、物体等に関する情報が設定される。Causeの項目は、エピソードデータD1の原因に関する情報が設定される。すなわち、Causeの項目は、エピソードデータD1同士を関連付ける情報が設定される。エピソードデータD1は、複数の項目のうち、エピソードに該当する項目に情報が設定され、該当しない項目がブランクとなる。
【0062】
図5に示す一例では、情報処理装置100は、ユーザUに関するエピソードデータD1として、Ep1からEp6の6つのエピソードデータD1を管理している。Ep_idの項目がEp1のエピソードデータD1は、「昨日、タナカが家でaiboをなでる」のエピソードを示すデータとなっている。Ep1のエピソードデータD1は、Causeの項目に「Ep2」が設定されているため、Ep2のエピソードデータD1の原因になっていることを示している。Ep_idの項目がEp2のエピソードデータD1は、「昨日、Aiboが家で喜ぶ」のエピソードを示すデータとなっている。すなわち、Ep1及びEP2のエピソードデータD1は、昨日、タナカが家でaiboをなでたことで、Aiboが喜んだというエピソードを示している。Ep_idの項目がEp3のエピソードデータD1は、「今朝、タナカはおなかがすいたから、山田と急いでカレーを食べる」のエピソードを示すデータとなっている。Ep3のエピソードデータD1は、Causeの項目がブランクとなっているため、他のエピソードデータD1と関連していないことを示している。
【0063】
Ep_idの項目がEp4のエピソードデータD1は、「この間、山田がダッシュでトイレに走る」のエピソードを示すデータとなっている。Ep4のエピソードデータD1は、Causeの項目に「Ep5」が設定されているため、Ep5のエピソードデータD1の原因になっていることを示している。Ep_idの項目がEp5のエピソードデータD1は、「山田が転ぶ」のエピソードを示すデータとなっている。すなわち、Ep4及びEP5のエピソードデータD1は、この間、山田がダッシュでトイレに走ったことで、転んだというエピソードを示している。Ep_idの項目がEp6のエピソードデータD1は、「明日、みんなは伊豆で温泉に入る」の未来のエピソードを示すデータとなっている。Ep6のエピソードデータD1は、Causeの項目がブランクとなっているため、他のエピソードデータD1と関連していないことを示している。
【0064】
本実施形態では、エピソードデータD1のWhenの項目は、説明を簡単化するため、昨日、今朝等の情報を設定する場合について説明するが、日時の情報を設定してもよい。この場合、情報処理装置100は、エピソードデータD1に基づいて対話データD5を作成する際に、日時を昨日、一昨日、明日等に置換すればよい。
【0065】
図5を用いて説明した上記の構成はあくまで一例であり、実施形態に係るエピソードデータD1のデータ構造は係る例に限定されない。実施形態に係るエピソードデータD1のデータ構造は、仕様や運用に応じて柔軟に変形可能である。例えば、エピソードデータD1は、エピソードに関する目的、目的地等の項目を有してもよい。
【0066】
[テンプレートデータのデータ構造例]
図6は、実施形態夷係るテンプレートデータD2の一例を示す図である。図6に示すように、テンプレートデータD2は、例えば、分類、テンプレート等の項目を有する。分類は、例えば、過去、未来、会話中(現在認識中)等のエピソードの分類を有する。テンプレートは、エピソードデータD1の項目に基づいて対話を行うためのデータを有する。テンプレートは、アルゴリズムの一例である。本実施形態では、情報処理装置100は、テンプレートを用いて対話データD5を生成する場合について説明するが、アルゴリズムを実行するためのアプリケーション、モジュール等を用いて対話データD5を生成してもよい。
【0067】
図6に示す一例では、分類が過去(1)のテンプレートデータD2は、「(when)(who)(where+で)(why+から)(with)と(target)(how)(action+た)よねー」のアルゴリズムを示している。分類が過去(2)のテンプレートデータD2は、「(when)(who)(where+で)(why+から)(with)と(target)(how)(action+て)(state+た)よねー」のアルゴリズムを示している。分類が未来のテンプレートデータD2は、「(when)(who)(where+で)(why+から)(with)と(target)(how)(action終止形)んでしょ」のアルゴリズムを示している。分類が会話中のテンプレートデータD2は、「(when)(who)(where+で)(why+から)(with)と(target)(how)(action終止形)ね」のアルゴリズムを示している。
【0068】
情報処理装置100は、エピソードデータD1に設定されている項目の情報を、テンプレートデータD2のアルゴリズムの該当する項目に設定することで、エピソードを示す対話データD5を生成する。例えば、図5に示したEp1のエピソードデータD1の場合、情報処理装置100は、過去のテンプレートデータD2を用いて、「昨日タナカ家でaiboなでたよねー」の対話データD5を生成する。情報処理装置100は、エージェント装置10のキャラクターに応じたテンプレートデータD2を記憶部120に記憶することで、キャラクターに適したエピソードの対話を可能にしている。情報処理装置100は、ユーザUが居住している地域の言語等に応じたテンプレートデータD2を記憶部120に記憶することで、親近感のあるエピソードの対話を可能にすることができる。
【0069】
[エピソードデータの生成例]
図7及び図8は、実施形態に係る発話データD30に基づくエピソードデータD1の生成例を説明するための図である。
【0070】
図7の左図に示す一例では、発話データ30は、「昨日」、「太郎は」、「家で」、「寒いから」、「暖房」、「すぐ」、「点けたよね」の係り受け構造が構文解析によって解析されている。「昨日」は、句が名詞句、格が時間格となっている。「太郎は」は、句が名詞句、格が主格となっている。「家で」は、句が名詞句、格が原因格となっている。「寒いから」は、句が形容詞句、格が連用修飾節となっている。「暖房」は、句が名詞句、格が対象格となっている。「すぐ」は、句が副詞句、格が連用修飾節となっている。「点けたよね」は、句が動詞句、格が述語節となっている。この場合、情報処理装置100は、発話データD30の解析結果に基づいて、図7の右図に示すエピソードデータD1を生成し、ユーザUのエピソードデータD1として記憶部120に記憶する。エピソードデータD1は、Whenの項目に「昨日」、Whoの項目に「太郎」、Actionの項目に「点ける」、Targetの項目に「暖房」、Whyの項目に「寒いから」、Howの項目に「すぐ」がそれぞれ設定され、その他の項目がブランクとなる。
【0071】
図8の左図に示す一例では、発話データD30は、「先週末」、「家族で」、「動物園」、「行ったよ」の係り受け構造が構文解析によって解析されている。「先週末」は、句が名詞句、格が時間格となっている。「家族で」は、句が名詞句、格が原因格となっている。「動物園」は、句が名詞句、格が対象格となっている。「行ったよ」は、句が動詞句、格が述語節となっている。この場合、情報処理装置100は、発話データD30の解析結果に基づいて、図8の右図に示すエピソードデータD1を生成し、ユーザUのエピソードデータD1として記憶部120に記憶する。エピソードデータD1は、Whenの項目に「先週末」、Whoの項目に「話者」、Actionの項目に「行く」、Targetの項目に「動物園」がそれぞれ設定され、その他の項目がブランクとなる。発話データD30に主格が含まれていない場合、エピソードデータD1のWhoの項目は、エージェント装置10の話者が設定される。
【0072】
[実施形態に係る情報処理装置の処理手順例(1)]
図9は、実施形態に係る情報処理装置100の処理手順例(1)を示すフローチャートである。図9に示す処理手順は、情報処理装置100の制御部130がプログラムを実行することによって実現される。図9に示す処理手順は、情報処理装置100によってエージェント装置10の対話を制御する場合に、繰り返し実行される。すなわち、図9に示す処理手順は、例えば、ユーザUとの対話中に情報処理装置100によって繰り返し実行される。
【0073】
図9に示すように、情報処理装置100の制御部130は、発話データD30の解析結果からトピック情報を抽出する(ステップS101)。例えば、制御部130は、いつ、どこで、誰が、何をしたか、どういう状態だったか、何に、何を、誰と、なぜ、どのように、目的、その結果どうなったか等の抽出条件を満たす単語、文字列等をトピック情報として抽出する。制御部130は、抽出結果を記憶部120に記憶すると、処理をステップS102に進める。
【0074】
制御部130は、トピック情報に関するエピソードデータD1を記憶部120から取得する(ステップS102)。例えば、制御部130は、トピック情報を有するエピソードデータD1を検索し、対話条件を満たすエピソードデータD1を記憶部120から取得する。対話条件は、例えば、エピソードデータD1が有する単語とトピック情報とが一致する数、割合等が予め設定された閾値以上であることを含む。制御部130は、複数のエピソードデータD1を取得した場合、一致度が最も高いエピソードデータD1を用いたり、過去の対話で用いていないエピソードデータD1を用いたりする。制御部130は、エピソードデータD1を取得したか否かを示す取得結果を記憶部120に記憶すると、処理をステップS103に進める。
【0075】
制御部130は、記憶部120の取得結果に基づいて、エピソードデータD1を取得したか否かを判定する(ステップS103)。制御部130は、エピソードデータD1を取得したと判定した場合(ステップS103でYes)、処理をステップS104に進める。制御部130は、エピソードデータD1とテンプレートデータD2に基づいて対話データD5を生成する(ステップS104)。例えば、制御部130は、エピソードデータD1のwhenの項目の情報に該当する分類のテンプレートデータD2を記憶部120から取得する。制御部130は、whenの項目が過去を示している場合、分類が過去のテンプレートデータD2を取得する。制御部130は、エピソードデータD1の項目に設定された情報を、取得したテンプレートデータD2のテンプレートに設定することで、対話データD5を生成する。制御部130は、生成した対話データD5を記憶部120に記憶すると、処理を後述するステップS106に進める。
【0076】
また、制御部130は、エピソードデータD1を取得していないと判定した場合(ステップS103でNo)、処理をステップS105に進める。制御部130は、エピソードとは異なる対話データD5を生成する(ステップS105)。例えば、制御部130は、ユーザUとのこれまでの対話の履歴に基づいて、シナリオ対話、状況の言語化、知識ベースの対話及び雑談の中から1つを選択して対話データD5を生成する。制御部130は、シナリオ対話を選択した場合、ユーザUの発話内容に対応したシナリオに基づく対話データD5を生成する。制御部130は、状況の言語化を選択した場合、エージェント装置10を介して認識した、現在の状況に応じた対話データD5を生成する。制御部130は、知識ベースの対話を選択した場合、ユーザUの発話内容と知識データD10とに基づく対話データD5を生成する。制御部130は、雑談を選択した場合、ユーザUの発話内容に応答する対話データD5を生成する。制御部130は、生成した対話データD5を記憶部120に記憶すると、処理をステップS106に進める。
【0077】
制御部130は、生成した対話データD5に基づいて、話者との対話を制御する(ステップS106)。例えば、制御部130は、通信部110を介して、対話データD5に基づく対話をエージェント装置10に指示する。これにより、エージェント装置10は、指示された対話データD5に基づく発話を行うことで、ユーザUとの対話を実現する。制御部130は、ステップS106の処理が終了すると、図9に示す処理手順を終了させる。
【0078】
図9に示す処理手順では、制御部130は、ステップS102を実行することで、取得部132として機能する。制御部130は、ステップS103からステップS106の処理を実行することで、対話制御部133として機能する。
【0079】
このように、情報処理装置100は、ユーザUの発話データD30に含まれるトピック情報に関するエピソードデータD1を取得すると、当該エピソードデータD1に基づく話者のエピソードを含んだ対話を実現できる。情報処理装置100は、ユーザUのエピソードデータD1に基づくエピソードを、ユーザUとの対話の中で提供することができる。その結果、情報処理装置100は、ユーザUのエピソードを対話に含めることで、ユーザUが親近感を持つ対話を実現することができる。
【0080】
[実施形態に係る情報処理装置の処理手順例(2)]
図10は、実施形態に係る情報処理装置100の処理手順例(2)を示すフローチャートである。図10に示す処理手順は、情報処理装置100の制御部130がプログラムを実行することによって実現される。図10に示す処理手順は、エージェント装置10のユーザU(話者)を認識し、かつ当該ユーザUとの対話を行っていない場合に、自発的にユーザUと対話するために、情報処理装置100によって実行される。
【0081】
図10に示すように、情報処理装置100の制御部130は、エージェント装置10の話者を認識したか否かを判定する(ステップS201)。例えば、制御部130は、通信部110を介して、エージェント装置10のセンサ情報を取得し、当該センサ情報とエージェント装置10に関連付けられたユーザデータD3に基づいて、話者の顔、声紋等の認識処理を行う。制御部130は、認識処理の結果に基づいて、話者を認識していないと判定した場合(ステップS201でNo)、図10に示す処理手順を終了させる。
【0082】
制御部130は、認識処理の結果に基づいて、話者を認識したと判定した場合(ステップS201でYes)、処理をステップS202に進める。制御部130は、取得条件を満たすエピソードデータD1を記憶部120から取得する(ステップS202)。取得条件は、例えば、話者の直近のエピソード、時間帯に応じたエピソード等を取得する条件を有する。例えば、制御部130は、取得条件が直近のエピソードを取得する条件である場合、記憶部120から最新のエピソードデータD1を記憶部120から取得する。例えば、制御部130は、取得条件が時間帯に応じたエピソードを取得する条件である場合、エピソードデータD1のWhenの項目等を参照し、時間帯に適したエピソードデータD1を記憶部120から取得する。例えば、時間帯が朝の場合、制御部130は、今日の予定、昨日の出来事等を示すエピソードデータD1を記憶部120から取得する。例えば、時間帯が昼の場合、制御部130は、午後の予定、夜の予定等を示すエピソードデータD1を記憶部120から取得する。例えば、時間帯が夜の場合、制御部130は、今日の出来事、明日の予定等を示すエピソードデータD1を記憶部120から取得する。制御部130は、ステップS202の処理が終了すると、処理をステップS203に進める。
【0083】
制御部130は、エピソードデータD1とテンプレートデータD2に基づいて対話データD5を生成する(ステップS203)。例えば、制御部130は、エピソードデータD1のwhenの項目の情報に該当する分類のテンプレートデータD2を記憶部120から取得する。制御部130は、エピソードデータD1の項目に設定された情報を、取得したテンプレートデータD2のテンプレートに設定することで、エージェント装置10が自発的に発話するための対話データD5を生成する。制御部130は、生成した対話データD5を記憶部120に記憶すると、処理をステップS204に進める。
【0084】
制御部130は、生成した対話データD5に基づいて、話者との対話を制御する(ステップS204)。例えば、制御部130は、通信部110を介して、対話データD5に基づく対話をエージェント装置10に指示する。これにより、エージェント装置10は、指示された対話データD5に基づく発話を行うことで、自発的にユーザUとの対話を行う。制御部130は、ステップS204の処理が終了すると、図10に示す処理手順を終了させる。
【0085】
図10に示す処理手順では、制御部130は、ステップS202を実行することで、取得部132として機能する。制御部130は、ステップS203からステップS204の処理を実行することで、対話制御部133として機能する。
【0086】
このように、情報処理装置100は、話者の発話データD30とは関係なく、取得条件を満たすエピソードデータD1を取得し、当該エピソードデータD1に基づくエピソードを自発的に提供することができる。また、情報処理装置100は、取得条件によって多様なエピソードデータD1を取得できるので、多様なエピソードを自発的に提供することができる。その結果、情報処理装置100は、ユーザUと対話していない状態でも、ユーザUのエピソードを提供できるので、ユーザUに親近感を持たせることができる。
【0087】
[質問データのデータ構造例]
図11は、実施形態に係る質問データD4の一例を示す図である。図11に示すように、質問データD4は、例えば、時間帯、質問内容等の項目を有する。時間帯は、例えば、朝、昼、夜等の質問を行う時間帯である。質問内容は、時間帯に応じた質問をするためのデータを有する。
【0088】
図11に示す一例では、時間帯が朝の質問データD4は、例えば、「今日はどこか行くの?」、「今日の予定は?」、「今日は何するの?」、「昨日は何してたの?」、「昨日はどこに行ってたの?」等の質問内容を有している。時間帯が昼の質問データD4は、例えば、「夜は何を食べるの?」、「午後は何をするの?」等の質問内容を有している。時間帯が夜の質問データD4は、例えば、「明日は何するの?」、「今日は何をしてたの?」等の質問内容を有している。
【0089】
[質問を用いたエピソードデータの生成に関する情報処理装置の処理手順]
図12は、質問を用いたエピソードデータの生成に関する情報処理装置100の処理手順を示すフローチャートである。図12に示す処理手順は、情報処理装置100の制御部130がプログラムを実行することによって実現される。図12に示す処理手順は、エージェント装置10のユーザU(話者)を認識している場合に、情報処理装置100によって実行される。
【0090】
図12に示すように、情報処理装置100の制御部130は、エージェント装置10の話者を認識したか否かを判定する(ステップS301)。制御部130は、話者を認識していないと判定した場合(ステップS301でNo)、図12に示す処理手順を終了させる。また、制御部130は、話者を認識したと判定した場合(ステップS301でYes)、処理をステップS302に進める。
【0091】
制御部130は、質問データD4に基づいて、話者との対話を制御する(ステップS302)。例えば、制御部130は、現在の時間帯に応じた質問データD4を記憶部120から取得し、通信部110を介して、当該質問データに基づく対話をエージェント装置10に指示する。これにより、エージェント装置10は、指示された対話データD5に基づく発話を行うことで、質問文をユーザUに対して発する。制御部130は、ステップS302の処理が終了すると、処理をステップS303に進める。
【0092】
制御部130は、質問データD4に応じた発話データD30の解析結果を取得する(ステップS303)。例えば、制御部130は、質問データD4に基づく対話を指示した後の発話データD30の解析結果を取得する。制御部130は、発話データD30の解析結果を取得すると、処理をステップS304に進める。
【0093】
制御部130は、発話データD30の解析結果に基づいて、エピソードデータD1を生成する(ステップS304)。例えば、制御部130は、発話データD30の解析結果に基づいて、図7及び図8に示したように、エピソードデータD1を生成する。例えば、発話データD30の解析結果がエピソードに関する情報を含んでいる場合に、制御部130は、エピソードデータD1を生成する。例えば、発話データD30の解析結果がエピソードを生成するための情報を含んでいない場合に、制御部130は、エピソードデータD1を生成しない。エピソードを生成するための情報は、例えば、Action、When等の項目に対応する情報を含む。図12に戻り、制御部130は、ステップS304を実行することで、生成部134として機能する。制御部130は、ステップS304の処理が終了すると、処理をステップS305に進める。
【0094】
制御部130は、ステップS304でエピソードデータD1を生成したか否かを判定する(ステップS305)。制御部130は、エピソードデータD1を生成していないと判定した場合(ステップS305でNo)、図12に示す処理手順を終了させる。また、制御部130は、エピソードデータD1を生成したと判定した場合(ステップS305でYes)、処理をステップS306に進める。制御部130は、生成したエピソードデータD1を話者に関連付けて記憶部120に記憶する(ステップS306)。例えば、制御部130は、エピソードデータD1を認識している話者のユーザデータD3に関連付けて記憶部120に記憶する。制御部130は、ステップS306の処理が終了すると、図12に示す処理手順を終了させる。
【0095】
[質問を用いたエピソードデータの生成例]
図13は、実施形態に係る情報処理装置100の質問を用いたエピソードデータの生成例を示す図である。
【0096】
図13に示す一例では、エージェント装置10は、ユーザUを認識すると、情報処理装置100から指示され、質問データD4に基づく発話C21を発している。発話C21は、例えば、「今日はどこが行く?」である。ユーザUは、発話C21に対し、発話C22を発している。発話C22は、例えば、「友達とピクニックだよ。」である。エージェント装置10は、発話C22の発話データを情報処理装置100に送信する。
【0097】
情報処理装置100は、発話C22の発話データD30を解析し、「友達」、「ピクニック」のトピック情報を抽出する。また、発話C21の質問文は、「今日」、「行く」のトピック情報を含んでいる。この場合、情報処理装置100は、発話データD30の解析結果と質問データD4とに基づいて、図13の右下に示すエピソードデータD1を生成し、ユーザUのエピソードデータD1として記憶部120に記憶する。エピソードデータD1は、Whenの項目に「今日」、Whoの項目に「話者」、Actionの項目に「行く」、Targetの項目に「ピクニック」、Withの項目に「友達」がそれぞれ設定され、その他の項目がブランクとなる。
【0098】
このように、情報処理装置100は、質問データD4に基づいてユーザUに質問し、当該質問に応じた発話データD30の解析結果と質問データD4とからエピソードデータD1を生成できるので、ユーザUの多様なエピソードデータD1を構築することができる。その結果、情報処理装置100は、ユーザUに提供可能なエピソードを充実させることで、ユーザUに提供するエピソードの新鮮味を維持することができる。
【0099】
[関連情報を用いたエピソードデータの生成に関する情報処理装置の処理手順]
図14は、情報処理装置100の関連情報に基づくエピソードデータの生成に関する処理手順を示すフローチャートである。図14に示す処理手順は、情報処理装置100の制御部130がプログラムを実行することによって実現される。図14に示す処理手順は、エージェント装置10のユーザU(話者)を認識している場合に、情報処理装置100によって実行される。
【0100】
図14に示すように、情報処理装置100の制御部130は、通信部110を介して、ユーザUに関する関連情報を収集する(ステップS401)。関連情報は、例えば、ユーザUの状況を示すエージェント装置10のセンサ情報等を有する。関連情報は、ユーザUの過去の状況をエピソードとして話すための情報である。関連情報は、例えば、ユーザUの友人が来たことを示す情報、週末に親や親族等がテレビジョンを観ていたことを示す情報等を有する。関連情報は、例えば、ユーザUのスケジュール、SNS(Social Networking Service)等の情報を含んでもよい。制御部130は、収集した関連情報を記憶部120に記憶すると、処理をステップS402に進める。
【0101】
制御部130は、収集した関連情報に基づいて、エピソードデータD1を生成する(ステップS402)。例えば、制御部130は、関連情報を解析し、解析結果に基づいて過去の状況を示すエピソードデータD1を生成する。例えば、関連情報が「昨日、友人が来た」ことを示す情報である場合、制御部130は、Whenの項目に「昨日」、Whoの項目に「友人」、Actionの項目に「来る」、Whereの項目に「家」がそれぞれ設定され、その他の項目がブランクとなるエピソードデータD1を生成する。制御部130は、ステップS402の処理が終了すると、処理をステップS403に進める。
【0102】
制御部130は、ステップS402でエピソードデータD1を生成したか否かを判定する(ステップS403)。制御部130は、エピソードデータD1を生成していないと判定した場合(ステップS403でNo)、図14に示す処理手順を終了させる。また、制御部130は、エピソードデータD1を生成したと判定した場合(ステップS403でYes)、処理をステップS404に進める。制御部130は、生成したエピソードデータD1を話者に関連付けて記憶部120に記憶する(ステップS404)。制御部130は、ステップS404の処理が終了すると、図14に示す処理手順を終了させる。
【0103】
[関連情報に基づくエピソードデータの使用例]
図15は、実施形態に係る情報処理装置100の関連情報に基づくエピソードデータの使用例を示す図である。
【0104】
図15に示す一例では、情報処理装置100は、収集した関連情報に基づいて、図15の右下に示すエピソードデータD1を生成し、ユーザUのエピソードデータD1として記憶部120に記憶している。エピソードデータD1は、Whenの項目に「昨日」、Whoの項目に「友人」、Whereの項目に「家」、Actionの項目に「来る」がそれぞれ設定され、その他の項目がブランクとなっている。
【0105】
情報処理装置100は、エージェント装置10を介してユーザUを認識すると、ユーザUの過去の状況を示す図15のエピソードデータD1とテンプレートデータD2とに基づいて、対話データD5を生成する。情報処理装置100は、生成した対話データD5に基づく発話をエージェント装置10に指示する。エージェント装置10は、対話データD5に基づく発話S31を発する。発話C31は、例えば、「昨日友人が家に来たね。」である。ユーザUは、発話C31に対し、発話C32を発している。発話C32は、例えば、「そうだったね。」である。
【0106】
このように、情報処理装置100は、ユーザUの関連情報を収集し、当該関連情報に基づいてエピソードデータD1を生成することができるので、ユーザUの過去の状況に応じたエピソードデータD1を構築することができる。その結果、情報処理装置100は、ユーザUに提供可能なエピソードをより一層充実させることで、ユーザUに提供するエピソードの新鮮味を維持することができる。
【0107】
[情報処理装置のエピソードデータの汎用化機能]
情報処理装置100は、複数のエピソードデータD1の共通するデータに基づいて、汎用化したエピソードデータD1を生成する機能をさらに備える。図16は、複数のエピソードデータD1の汎用化を説明するための図である。図16に示すように、情報処理装置100は、ユーザUのエピソードデータD1として、Ep_idの項目がEp11、Ep12及びEp13のエピソードデータD1を有しているとする。Ep11のエピソードデータD1は、「9月1日、山田がタクシーで会社に行く」のエピソードを示すデータとなっている。Ep12のエピソードデータD1は、「9月2日、山田が偶然会ったから部下と会社に行く」のエピソードを示すデータとなっている。Ep13のエピソードデータD1は、「9月3日、山田が遅れて会社に行く」のエピソードを示すデータとなっている。
【0108】
この場合、Ep11、Ep12及びEp13のエピソードデータD1は、Who、Where及びActionの項目の情報が一致している。情報処理装置100の制御部130は、複数のエピソードデータD1の中から、項目が一致する数が予め設定した閾値以上のエピソードデータD1群を検出すると、エピソードデータD1の汎用化を行う。図16に示す一例では、情報処理装置100は、Who、Where及びActionの3つの項目を汎用化したエピソードデータD1を、Ep_idの項目がEp20として生成している。すなわち、Ep20のエピソードデータD1は、Whoの項目に「山田」、Whereの項目に「会社」、Actionの項目に「行く」がそれぞれ設定され、その他の項目がブランクとなっている。
【0109】
このように、情報処理装置100は、類似した複数のエピソードデータD1が存在する場合、ユーザUの行動の傾向を汎用化したエピソードデータD1を生成することができる。その結果、情報処理装置100は、汎用化したエピソードデータD1を用いて、汎用化されたエピソードに基づくユーザUとの対話を実現することができる。例えば、汎用化したEp20のエピソードデータD1を生成している場合、情報処理装置100は、「今日も会社に行くのかな?」、「今日は会社に行かないの?」、「今日は会社どうだった?」等の対話データD5に基づく対話を実現することができる。
【0110】
[ハードウェア構成]
上述してきた実施形態に係る情報処理システム1の情報機器は、例えば図17に示すような構成のコンピュータ1000によって実現される。以下、実施形態に係る情報処理装置100を例に挙げて説明する。図17は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
【0111】
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
【0112】
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
【0113】
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
【0114】
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
【0115】
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
【0116】
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、認識部131、取得部132、対話制御部133、生成部134、収集部135、動作制御部140等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部120内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
【0117】
上記の本実施形態では、情報処理システム1は、エージェント装置10と情報処理装置100とが連携して対話処理を実行する場合について説明したが、これに限定されない。例えば、情報処理システム1は、エージェント装置10が単独で対話処理を実行してもよい。この場合、エージェント装置10は、情報処理装置100の取得部132、対話制御部133、生成部134、収集部135、動作制御部140等を制御部16で実現すればよい。
【0118】
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0119】
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
【0120】
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、情報処理装置100が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
【0121】
また、本明細書の情報処理装置100の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理装置100の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
【0122】
本明細書の情報処理装置100は、エージェント装置10を介したユーザUとの対話(音声)によってエピソードデータD1を提供する場合について説明したが、これに限定されない。例えば、情報処理装置100は、表示装置を介してエピソードデータD1を提供したり、表示と音声出力との組み合わせでエピソードデータD1を提供したりする構成としてもよい。
【0123】
(効果)
情報処理装置100は、話者のエピソードデータD1を記憶する記憶部120から、話者の発話データD30に含まれるトピック情報に関するエピソードデータD1を取得する取得部132と、エピソードデータD1に基づくエピソードを含むように、話者との対話を制御する対話制御部133と、を備える。
【0124】
これにより、情報処理装置100は、話者の発話データD30に含まれるトピック情報に関するエピソードデータD1を取得すると、当該エピソードデータD1に基づく話者のエピソードを含んだ対話を実現できる。情報処理装置100は、話者のエピソードデータD1に基づくエピソードを、話者との対話の中で提供することができる。その結果、情報処理装置100は、話者のエピソードを対話に含めることで、話者が親近感を持つ対話を実現することができる。
【0125】
情報処理装置100では、対話制御部133は、エピソードデータD1と対話文を生成するアルゴリズムとに基づいて、エピソードを含む対話データD5を生成し、対話データD5に基づいて対話を制御する。
【0126】
これにより、情報処理装置100は、エピソードデータD1とアルゴリズムとに基づいて、話者のエピソードを含む対話データD5を生成することができるので、エピソードデータD1の構成を簡単化することができる。その結果、情報処理装置100は、話者の多様なエピソードデータD1の構築が可能となるため、話者との対話に多様なエピソードを含めることが可能となり、話者がより一層親近感を持つ対話を実現することができる。
【0127】
情報処理装置100では、アルゴリズムは、エピソードの分類に応じたテンプレートを有し、対話制御部133は、エピソードデータD1のデータをテンプレートに設定して対話データD5を生成する。
【0128】
これにより、情報処理装置100は、エピソードデータD1のデータをテンプレートに設定して対話データD5を生成することができるので、エピソードデータD1を生成する処理を簡単化することができる。また、情報処理装置100は、エピソードデータD1を分類することで、話者の発話内容に適したエピソードデータD1を取得することができる。その結果、情報処理装置100は、話者の発話内容に適したエピソードを対話に含めることができるため、話者がより一層親近感を持つ対話を実現することができる。
【0129】
情報処理装置100では、取得部132は、トピック情報が対話条件を満たすエピソードデータD1を取得する。
【0130】
これにより、情報処理装置100は、対話条件によってトピック情報に適したエピソードデータD1を取得し、当該エピソードデータD1に基づく対話データD5を生成することができる。その結果、情報処理装置100は、対話条件を満たすエピソードを対話に含めることができるため、話者がより一層親近感を持つ対話を実現することができる。
【0131】
情報処理装置100では、取得部132は、話者を認識している場合、取得条件を満たすエピソードデータD1を取得し、対話制御部133は、取得したエピソードデータD1が示すエピソードを自発的に発話するように、話者との対話を制御する。
【0132】
これにより、情報処理装置100は、話者の発話とは関係なく、取得条件を満たすエピソードデータD1を取得し、当該エピソードデータD1に基づくエピソードを自発的に提供することができる。また、情報処理装置100は、取得条件によって多様なエピソードデータD1を取得できるので、多様なエピソードを自発的に提供することができる。その結果、情報処理装置100は、話者と対話していない状態でも、話者のエピソードを提供できるので、話者に親近感を持たせることができる。
【0133】
情報処理装置100では、対話制御部133は、取得部132がエピソードデータD1を取得していない場合、エピソードとは異なる対話データD5に基づいて、話者との対話を制御する。
【0134】
これにより、情報処理装置100は、話者の発話内容に適したエピソードデータD1を取得できないと、エピソードを含まない対話データD5に基づく対話を実現することができる。その結果、情報処理装置100は、話者の発話内容に適したエピソードが存在しない場合、エピソードとは異なる対話をすることで、話者との対話が途切れることを抑制することができる。
【0135】
情報処理装置100は、発話データD30の解析結果に基づいて、エピソードデータD1を生成する生成部134と、エピソードデータD1を話者に関連付けて記憶する記憶部120と、をさらに備える。
【0136】
これにより、情報処理装置100は、話者の発話データD30の解析結果に基づいてエピソードデータD1を生成すると、当該エピソードデータD1を話者に関連付けて記憶部120に記憶することができる。その結果、情報処理装置100は、話者の発話内容に応じたエピソードデータD1を構築することで、話者との対話に含めるエピソードを充実させることができるため、話者がより一層親近感を持つ対話を実現することができる。
【0137】
情報処理装置100では、対話制御部133は、話者に質問する質問データD4に基づいて話者との対話を制御し、生成部134は、質問データD4に応じた発話データD30の解析結果と質問データD4とに基づいて、エピソードデータD1を生成する。
【0138】
これにより、情報処理装置100は、質問データD4に基づいて話者に質問し、当該質問に応じた発話データD30の解析結果と質問データD4とからエピソードデータD1を生成できるので、話者の多様なエピソードデータD1を構築することができる。その結果、情報処理装置100は、話者に提供可能なエピソードを充実させることで、話者に提供するエピソードの新鮮味を維持することができる。
【0139】
情報処理装置100は、話者の過去の状況に関する関連情報を収集する収集部135をさらに備え、生成部134は、関連情報に基づいてエピソードデータD1を生成する。
【0140】
これにより、情報処理装置100は、話者の関連情報を収集し、当該関連情報に基づいてエピソードデータD1を生成することができるので、話者の過去の状況に応じたエピソードデータD1を構築することができる。その結果、情報処理装置100は、話者に提供可能なエピソードをより一層充実させることで、話者に提供するエピソードの新鮮味を維持することができる。
【0141】
情報処理装置100では、生成部134は、記憶部120のエピソードデータD1の共通するデータに基づいて汎化したエピソードデータd1を生成する。
【0142】
これにより、情報処理装置100は、話者のエピソードデータD1に共通するデータが含まれていると、共通するデータを汎化したエピソードデータD1を生成することができる。その結果、情報処理装置100は、汎化した話者のエピソードを含む対話を実現できるので、話者との対話が途切れることなく、親近感のある対話を提供することができる。
【0143】
情報処理システム1は、話者の発話データD30を収集するエージェント装置10と、情報処理装置100と、を備える情報処理システム1であって、情報処理装置100は、話者のエピソードデータD1を記憶する記憶部120から、発話データD30に含まれるトピック情報に関するエピソードデータD1を取得する取得部132と、エピソードデータD1に基づくエピソードを含むように、話者との対話を制御する対話制御部133と、を備える。
【0144】
これにより、情報処理システム1は、話者の発話データD30に含まれるトピック情報に関するエピソードデータD1を取得すると、当該エピソードデータD1に基づく話者のエピソードを含んだ対話を実現できる。情報処理システム1は、話者のエピソードデータD1に基づくエピソードを、話者との対話の中で提供することができる。その結果、情報処理システム1は、話者のエピソードを対話に含めることで、話者が親近感を持つ対話を実現することができる。
【0145】
情報処理システム1では、エージェント装置10は、移動可能なロボットであり、対話制御部133は、エージェント装置10を介して、話者との対話を制御する。
【0146】
これにより、情報処理システム1は、エージェント装置10を介して、話者の発話データD30を収集するとともに、エピソードデータD1に基づく話者のエピソードを含んだ対話を実現できる。その結果、情報処理システム1は、話者のエピソードを移動可能なロボットとの対話に含めることで、話者とロボットとの間で親近感のある対話を実現することができる。
【0147】
情報処理方法は、コンピュータが、話者のエピソードデータD1を記憶する記憶部120から、話者の発話データD30に含まれるトピック情報に関するエピソードデータD1を取得すること、エピソードデータD1に基づくエピソードを含むように、話者との対話を制御すること、を含む。
【0148】
これにより、情報処理方法は、話者の発話データD30に含まれるトピック情報に関するエピソードデータD1を取得すると、当該エピソードデータD1に基づく話者のエピソードを含んだ対話をコンピュータによって実現できる。情報処理方法は、話者のエピソードデータD1に基づくエピソードを、話者との対話の中で提供することができる。その結果、情報処理方法は、話者のエピソードを対話に含めることで、話者が親近感を持つ対話をコンピュータによって実現することができる。
【0149】
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
話者のエピソードデータを記憶する記憶部から、前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを取得する取得部と、
前記エピソードデータに基づくエピソードを含むように、前記話者との対話を制御する対話制御部と、
を備える情報処理装置。
(2)
前記対話制御部は、前記エピソードデータと対話文を生成するアルゴリズムとに基づいて、前記エピソードを含む対話データを生成し、前記対話データに基づいて前記対話を制御する
前記(1)に記載の情報処理装置。
(3)
前記アルゴリズムは、前記エピソードの分類に応じたテンプレートを有し、
前記対話制御部は、前記エピソードデータのデータを前記テンプレートに設定して前記対話データを生成する
前記(2)に記載の情報処理装置。
(4)
前記取得部は、前記トピック情報が対話条件を満たす前記エピソードデータを取得する
前記(1)から(3)のいずれかに記載の情報処理装置。
(5)
前記取得部は、前記話者を認識している場合、取得条件を満たす前記エピソードデータを取得し、
前記対話制御部は、取得した前記エピソードデータが示す前記エピソードを自発的に発話するように、前記話者との対話を制御する
前記(4)に記載の情報処理装置。
(6)
前記対話制御部は、前記取得部が前記エピソードデータを取得していない場合、前記エピソードとは異なる対話データに基づいて、前記話者との対話を制御する
前記(1)から(5)のいずれかに記載の情報処理装置。
(7)
前記発話データの解析結果に基づいて、前記エピソードデータを生成する生成部と、
前記エピソードデータを前記話者に関連付けて記憶する前記記憶部と、
をさらに備える
前記(1)から(6)のいずれかに記載の情報処理装置。
(8)
前記対話制御部は、前記話者に質問する質問データに基づいて前記話者との対話を制御し、
前記生成部は、前記質問データに応じた前記発話データの解析結果と前記質問データとに基づいて、前記エピソードデータを生成する
前記(7)に記載の情報処理装置。
(9)
前記話者の過去の状況に関する関連情報を収集する収集部をさらに備え、
前記生成部は、前記関連情報に基づいて前記エピソードデータを生成する
前記(8)に記載の情報処理装置。
(10)
前記生成部は、前記記憶部の前記エピソードデータの共通するデータに基づいて汎化した前記エピソードデータを生成する
前記(8)または(9)に記載の情報処理装置。
(11)
話者の発話データを収集するエージェント装置と、情報処理装置と、を備える情報処理システムであって、
前記情報処理装置は、
前記話者のエピソードデータを記憶する記憶部から、前記発話データに含まれるトピック情報に関する前記エピソードデータを取得する取得部と、
前記エピソードデータに基づくエピソードを含むように、前記話者との対話を制御する対話制御部と、
を備える情報処理システム。
(12)
前記エージェント装置は、移動可能なロボットであり、
前記対話制御部は、前記エージェント装置を介して、前記話者との対話を制御する
前記(11)に記載の情報処理システム。
(13)
コンピュータが、
話者のエピソードデータを記憶する記憶部から、前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを取得すること、
前記エピソードデータに基づくエピソードを含むように、前記話者との対話を制御すること、
を含む情報処理方法。
(14)
コンピュータに、
話者のエピソードデータを記憶する記憶部から、前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを取得すること、
前記エピソードデータに基づくエピソードを含むように、前記話者との対話を制御すること、
を実現させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(15)
コンピュータに、
話者のエピソードデータを記憶する記憶部から、前記話者の発話データに含まれるトピック情報に関する前記エピソードデータを取得すること、
前記エピソードデータに基づくエピソードを含むように、前記話者との対話を制御すること、
を実現させるためのプログラム。
【符号の説明】
【0150】
1 情報処理システム
10 エージェント装置
11 センサ部
12 入力部
13 光源
14 出力部
15 駆動部
16 制御部
17 通信部
100 情報処理装置
110 通信部
120 記憶部
130 制御部
131 認識部
132 取得部
133 対話制御部
134 生成部
135 収集部
140 動作制御部
D1 エピソードデータ
D2 テンプレートデータ
D3 ユーザデータ
D4 質問データ
D5 対話データ
D10 知識データ
D20 管理データ
D30 発話データ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17