IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソフトバンクグループ株式会社の特許一覧

特開2025-1535データ処理装置、通信端末、データ処理方法、及びプログラム
<>
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図1
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図2
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図3
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図4
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図5
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図6
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図7
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図8A
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図8B
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図9A
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図9B
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図10
  • 特開-データ処理装置、通信端末、データ処理方法、及びプログラム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025001535
(43)【公開日】2025-01-08
(54)【発明の名称】データ処理装置、通信端末、データ処理方法、及びプログラム
(51)【国際特許分類】
   G06F 16/90 20190101AFI20241225BHJP
   G06F 3/01 20060101ALI20241225BHJP
【FI】
G06F16/90 100
G06F3/01 510
【審査請求】未請求
【請求項の数】26
【出願形態】OL
(21)【出願番号】P 2023101168
(22)【出願日】2023-06-20
(71)【出願人】
【識別番号】591280485
【氏名又は名称】ソフトバンクグループ株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】豊川 潤太
(72)【発明者】
【氏名】辻 吉竜
(72)【発明者】
【氏名】樹 市朗
(72)【発明者】
【氏名】井田 敏行
(72)【発明者】
【氏名】番匠 駿介
【テーマコード(参考)】
5B175
5E555
【Fターム(参考)】
5B175EA01
5B175FB01
5E555AA46
5E555AA47
5E555AA48
5E555BA04
5E555BA38
5E555BA76
5E555BA88
5E555BB04
5E555BB38
5E555BD01
5E555CB64
5E555DA23
5E555EA21
5E555FA00
(57)【要約】
【課題】回答者が質問者からの質問に対する回答を行って質問者が回答者から回答を収集する場合の回答者及び質問者にかかる負荷の軽減と、信頼性の高い回答の収集とに寄与することができるデータ処理装置、通信端末、データ処理方法、及びプログラムを提供する。
【解決手段】データ処理装置は、回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行する実行部と、要約データ生成モデルを用いることにより前記回答を要約した要約データを生成する生成部と、前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力する出力部と、を備える。
【選択図】図6
【特許請求の範囲】
【請求項1】
回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行する実行部と、
要約データ生成モデルを用いることにより前記回答を要約した要約データを生成する生成部と、
前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力する出力部と、を備える
データ処理装置。
【請求項2】
前記実行部は、
前記質問の音声を示す質問音声データを出力し、
前記回答の音声を示す回答音声データを取得する
請求項1に記載のデータ処理装置。
【請求項3】
前記実行部は、前記質問音声データの出力と前記回答音声データの取得とを前記対話形式で実行する
請求項2に記載のデータ処理装置。
【請求項4】
前記回答に基づいて前記回答者の感情を特定する特定部を更に備える
請求項1に記載のデータ処理装置。
【請求項5】
前記実行部は、前記回答の音声を示す回答音声データを取得し、
前記特定部は、前記回答音声データの入力に応答して前記回答音声データに応じた前記感情に関する感情データを出力する感情特定モデルを用いることにより前記感情を特定する
請求項4に記載のデータ処理装置。
【請求項6】
前記要約データに基づくデータは、前記特定部によって特定された前記感情と前記要約データとに基づいて生成されたデータである
請求項4に記載のデータ処理装置。
【請求項7】
前記要約データに基づくデータは、前記特定部によって特定された前記感情に基づいて前記要約データが分析された分析結果である
請求項6に記載のデータ処理装置。
【請求項8】
前記回答者の属性を示す属性データを取得する取得部を更に備え、
前記要約データに基づくデータは、前記特定部によって特定された前記感情と前記取得部によって取得された前記属性データとに基づいて前記要約データが分析された分析結果である
請求項7に記載のデータ処理装置。
【請求項9】
前記回答者の属性を示す属性データを取得する取得部を更に備え、
前記実行部は、
前記取得部によって取得された前記属性データに応じて定められた特徴を前記質問の表現形に付与し、
前記表現形に前記特徴が付与された前記質問を出力する
請求項1に記載のデータ処理装置。
【請求項10】
前記表現形は音声であり、
前記実行部は、
前記特徴を前記音声に付与し、
前記特徴が付与された前記音声を示す質問音声データを出力する
請求項9に記載のデータ処理装置。
【請求項11】
前記質問及び前記回答は、調査を目的の1つとして行われ、
前記実行部は、前記対話形式で前記回答と前記質問とのやり取りを行ったことを条件に、前記回答者に対して前記やり取りで得た前記回答の要約を前記調査の結果として用いても良いか否かの交渉を前記対話形式で実行する
請求項1に記載のデータ処理装置。
【請求項12】
前記結果として用いる前記要約は、前記要約データであり、
前記実行部は、前記回答者に対して前記要約データの提示を実行する
請求項11に記載のデータ処理装置。
【請求項13】
前記実行部は、前記要約を前記調査の結果として用いることに対して前記回答者が承諾したことを示す承諾データを取得する
請求項11に記載のデータ処理装置。
【請求項14】
前記実行部によって前記承諾データが取得されたことを条件に前記回答者に対して報酬を付与する付与部を更に備える
請求項13に記載のデータ処理装置。
【請求項15】
前記出力部は、前記実行部によって前記承諾データが取得されたことを条件に、前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力する
請求項13に記載のデータ処理装置。
【請求項16】
前記生成部は、返答生成モデルを用いることにより前記回答に対する返答を生成し、
前記実行部は、前記生成部によって生成された前記返答を前記回答者に提示し、
前記返答は、前記質問の一部である
請求項1に記載のデータ処理装置。
【請求項17】
前記質問及び前記回答は、調査を目的の1つとして行われ、
前記質問及び前記返答のうちの少なくとも1つは、前記調査のテーマに沿った内容を含む
請求項16に記載のデータ処理装置。
【請求項18】
前記質問及び前記回答は、調査を目的の1つとして行われ、
前記質問は、調査のテーマに沿った内容を含む
請求項1に記載のデータ処理装置。
【請求項19】
回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行する実行部と、
前記回答に基づいて前記回答者の感情を特定する特定部と、を備える
データ処理装置。
【請求項20】
前記実行部は、前記回答の音声を示す回答音声データを取得し、
前記特定部は、前記回答音声データの入力に応答して前記回答音声データに応じた前記感情に関する感情データを出力する感情特定モデルを用いることにより前記感情を特定する
請求項19に記載のデータ処理装置。
【請求項21】
前記回答者は、チャットアプリケーションの利用者である
請求項1に記載のデータ処理装置。
【請求項22】
請求項1から請求項21の何れか一項に記載のデータ処理装置と通信可能な通信端末であって、
ユーザインタフェースを備え、
前記ユーザインタフェースは、
前記実行部によって前記対話形式で実行される前記質問を提示し、
前記実行部によって前記対話形式で実行される前記回答を受け付ける
通信端末。
【請求項23】
回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行すること、
要約データ生成モデルを用いることにより前記回答を要約した要約データを生成すること、並びに、
前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力することを含む
データ処理方法。
【請求項24】
回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行すること、及び、
前記回答に基づいて前記回答者の感情を特定することを含む
データ処理方法。
【請求項25】
回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行すること、
要約データ生成モデルを用いることにより前記回答を要約した要約データを生成すること、並びに、
前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力することを含む処理をコンピュータに実行させるためのプログラム。
【請求項26】
回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行すること、及び、
前記回答に基づいて前記回答者の感情を特定することを含む処理をコンピュータに実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の技術は、データ処理装置、通信端末、データ処理方法、及びプログラムに関する。
【背景技術】
【0002】
特許文献1には、少なくとも一つのプロセッサにより遂行される、ペルソナチャットボット制御方法であって、ユーザ発話を受信するステップと、前記ユーザ発話を、チャットボットのキャラクターに関する説明と関連した指示文を含むプロンプトに追加するステップと前記プロンプトをエンコードするステップと、前記エンコードしたプロンプトを言語モデルに入力して、前記ユーザ発話に応答するチャットボット発話を生成するステップ、を含む、方法が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2022-180282号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、アンケート又はインタビュー等の調査が対面方式で行われる場合、対面方式の調査では、緊張又は不信感等が原因で、質問者と回答者との間で心理的な障壁が生じることがある。質問者と回答者との間で心理的な障壁が生じると、質問者は回答者の本心を聞き出すことが困難になる。これは、結果として、調査結果の質の低下を齎す。
【0005】
世の中には、対面方式ではなくオンライン上でならば、お気に入りの人物又はキャラクタ(例えば、ゲーム、漫画、又はアニメ等に登場するキャラクタ)等との日常的な対話を楽しみたいという人が多く存在する。お気に入りの人又はキャラクタ等とのオンライン上での対話は、見ず知らずの人との対面方式での対話に比べ、心を開いて本心を打ち明け易くなるので、対面方式の調査での対話に比べ、対話者間での心理的な障壁は低い。
【0006】
選択式又は記述式のアンケート等の調査では、回答者のモチベーションが上がり難い。また、回答者が忙しい場合も同様である。調査に対する回答者のモチベーションが低いと、結果的に、質の低いアンケート結果になってしまう可能性が高い。
【0007】
本開示の技術は、回答者が質問者からの質問に対する回答を行って質問者が回答者から回答を収集する場合の回答者及び質問者にかかる負荷の軽減と、信頼性の高い回答の収集とに寄与することができるデータ処理装置、通信端末、データ処理方法、及びプログラムを提供する。
【課題を解決するための手段】
【0008】
本開示の技術に係る第1の態様は、回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行する実行部と、要約データ生成モデルを用いることにより前記回答を要約した要約データを生成する生成部と、前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力する出力部と、を備えるデータ処理装置である。
【0009】
本開示の技術に係る第2の態様は、前記実行部が、前記質問の音声を示す質問音声データを出力し、前記回答の音声を示す回答音声データを取得する、第1の態様に係るデータ処理装置である。
【0010】
本開示の技術に係る第3の態様は、前記実行部が、前記質問音声データの出力と前記回答音声データの取得とを前記対話形式で実行する、第2の態様に係るデータ処理装置である。
【0011】
本開示の技術に係る第4の態様は、前記回答に基づいて前記回答者の感情を特定する特定部を更に備える、第1の態様に係るデータ処理装置である。
【0012】
本開示の技術に係る第5の態様は、前記実行部が、前記回答の音声を示す回答音声データを取得し、前記特定部が、前記回答音声データの入力に応答して前記回答音声データに応じた前記感情に関する感情データを出力する感情特定モデルを用いることにより前記感情を特定する、第4の態様に係るデータ処理装置である。
【0013】
本開示の技術に係る第6の態様は、前記要約データに基づくデータが、前記特定部によって特定された前記感情と前記要約データとに基づいて生成されたデータである、第4の態様に係るデータ処理装置である。
【0014】
本開示の技術に係る第7の態様は、前記要約データに基づくデータが、前記特定部によって特定された前記感情に基づいて前記要約データが分析された分析結果である、第6の態様に係るデータ処理装置である。
【0015】
本開示の技術に係る第8の態様は、前記回答者の属性を示す属性データを取得する取得部を更に備え、前記要約データに基づくデータが、前記特定部によって特定された前記感情と前記取得部によって取得された前記属性データとに基づいて前記要約データが分析された分析結果である、第7の態様に係るデータ処理装置である。
【0016】
本開示の技術に係る第9の態様は、前記回答者の属性を示す属性データを取得する取得部を更に備え、前記実行部が、前記取得部によって取得された前記属性データに応じて定められた特徴を前記質問の表現形に付与し、前記表現形に前記特徴が付与された前記質問を出力する、第1の態様に係るデータ処理装置である。
【0017】
本開示の技術に係る第10の態様は、前記表現形が音声であり、前記実行部が、前記特徴を前記音声に付与し、前記特徴が付与された前記音声を示す質問音声データを出力する、第9の態様に係るデータ処理装置である。
【0018】
本開示の技術に係る第11の態様は、前記質問及び前記回答が、調査を目的の1つとして行われ、前記実行部が、前記対話形式で前記回答と前記質問とのやり取りを行ったことを条件に、前記回答者に対して前記やり取りで得た前記回答の要約を前記調査の結果として用いても良いか否かの交渉を前記対話形式で実行する、第1の態様に係るデータ処理装置である。
【0019】
本開示の技術に係る第12の態様は、前記結果として用いる前記要約が、前記要約データであり、前記実行部が、前記回答者に対して前記要約データの提示を実行する、第11の態様に係るデータ処理装置である。
【0020】
本開示の技術に係る第13の態様は、前記実行部が、前記要約を前記調査の結果として用いることに対して前記回答者が承諾したことを示す承諾データを取得する、第11の態様に係るデータ処理装置である。
【0021】
本開示の技術に係る第14の態様は、前記実行部によって前記承諾データが取得されたことを条件に前記回答者に対して報酬を付与する付与部を更に備える、第13の態様に係るデータ処理装置である。
【0022】
本開示の技術に係る第15の態様は、前記出力部が、前記実行部によって前記承諾データが取得されたことを条件に、前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力する、第13の態様に係るデータ処理装置である。
【0023】
本開示の技術に係る第16の態様は、前記生成部が、返答生成モデルを用いることにより前記回答に対する返答を生成し、前記実行部が、前記生成部によって生成された前記返答を前記回答者に提示し、前記返答が、前記質問の一部である、第1の態様に係るデータ処理装置である。
【0024】
本開示の技術に係る第17の態様は、前記質問及び前記回答が、調査を目的の1つとして行われ、前記質問及び前記返答のうちの少なくとも1つが、前記調査のテーマに沿った内容を含む、第16の態様に係るデータ処理装置である。
【0025】
本開示の技術に係る第18の態様は、前記質問及び前記回答が、調査を目的の1つとして行われ、前記質問が、調査のテーマに沿った内容を含む、第1の態様に係るデータ処理装置である。
【0026】
本開示の技術に係る第19の態様は、回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行する実行部と、前記回答に基づいて前記回答者の感情を特定する特定部と、を備えるデータ処理装置である。
【0027】
本開示の技術に係る第20の態様は、前記実行部が、前記回答の音声を示す回答音声データを取得し、前記特定部が、前記回答音声データの入力に応答して前記回答音声データに応じた前記感情に関する感情データを出力する感情特定モデルを用いることにより前記感情を特定する、第19の態様に係るデータ処理装置である。
【0028】
本開示の技術に係る第21の態様は、前記回答者が、チャットアプリケーションの利用者である、第1の態様に係るデータ処理装置。
【0029】
本開示の技術に係る第22の態様は、第1の態様から第21の態様の何れか1つの態様に係るデータ処理装置と通信可能な通信端末であって、ユーザインタフェースを備え、前記ユーザインタフェースが、前記実行部によって前記対話形式で実行される前記質問を提示し、前記実行部によって前記対話形式で実行される前記回答を受け付ける、通信端末である。
【0030】
本開示の技術に係る第23の態様は、回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行すること、要約データ生成モデルを用いることにより前記回答を要約した要約データを生成すること、並びに、前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力することを含むデータ処理方法である。
【0031】
本開示の技術に係る第24の態様は、回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行すること、及び、前記回答に基づいて前記回答者の感情を特定することを含むデータ処理方法である。
【0032】
本開示の技術に係る第25の態様は、回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行すること、要約データ生成モデルを用いることにより前記回答を要約した要約データを生成すること、並びに、前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力することを含む処理をコンピュータに実行させるためのプログラムである。
【0033】
本開示の技術に係る第26の態様は、回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行すること、及び、前記回答に基づいて前記回答者の感情を特定することを含む処理をコンピュータに実行させるためのプログラムである。
【図面の簡単な説明】
【0034】
図1】データ処理システムの構成の一例を示す概念図である。
図2】データベースの構成の一例を示す概念図である。
図3】データ処理装置及びスマートデバイスの要部機能の一例を示す概念図である。
図4】データ処理装置のプロセッサによって調査実施処理が行われ、かつ、スマートデバイスのプロセッサによって受付出力処理が行われる場合のデータ処理システム内での処理内容の一例を示す概念図である。
図5】対話生成モデルによって生成される対話相手データのデータ形式(表現形)の一例を示す概念図である。
図6】スマートデバイスの処理内容の一例を示す概念図である。
図7】アンケート調査の対象とされた複数の人物から回答が得られた場合にデータ処理装置によって行われる処理内容の一例を示す概念図である。
図8A】調査実施処理の流れの一例を示すフローチャートである。
図8B図8Aのフローチャートの続きである。
図9A】受付出力処理の流れの一例を示すフローチャートである。
図9B図9Aのフローチャートの続きである。
図10】複数の感情がマッピングされる感情マップを示す。
図11】複数の感情がマッピングされる感情マップを示す。
【発明を実施するための形態】
【0035】
以下、添付図面に従って本開示の技術に係るデータ処理装置、通信端末、データ処理方法、及びプログラムの実施形態の一例について説明する。
【0036】
先ず、以下の説明で使用される文言について説明する。
【0037】
以下の実施形態において、符号付きのプロセッサ(以下、単に「プロセッサ」と称する)は、1つの演算装置であってもよいし、複数の演算装置の組み合わせであってもよい。また、プロセッサは、1種類の演算装置であってもよいし、複数種類の演算装置の組み合わせであってもよい。演算装置の一例としては、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-Purpose computing on Graphics Processing Units)、APU(Accelerated Processing Unit)、又はTPU(Tensor Processing Unit)等が挙げられる。
【0038】
以下の実施形態において、符号付きのRAM(Random Access Memory)は、一時的に情報が格納されるメモリであり、プロセッサによってワークメモリとして用いられる。
【0039】
以下の実施形態において、符号付きのストレージは、各種プログラム及び各種パラメータ等を記憶する1つ又は複数の不揮発性の記憶装置である。不揮発性の記憶装置の一例としては、フラッシュメモリ(SSD(Solid State Drive))、磁気ディスク(例えば、ハードディスク)、又は磁気テープ等が挙げられる。
【0040】
以下の実施形態において、符号付きの通信I/F(Interface)は、通信プロセッサ及びアンテナ等を含むインタフェースである。通信I/Fは、複数のコンピュータ間での通信を司る。通信I/Fに対して適用される通信規格の一例としては、5G(5th Generation Mobile Communication System)、Wi-Fi(登録商標)、又はBluetooth(登録商標)等を含む無線通信規格が挙げられる。
【0041】
以下の実施形態において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
【0042】
図1には、実施形態に係るデータ処理システム10の構成の一例が示されている。
【0043】
図1に示すように、データ処理システム10は、データ処理装置12及びスマートデバイス14を備えている。データ処理装置12の一例としては、サーバが挙げられる。スマートデバイス14の一例としては、スマートフォンが挙げられる。本実施形態において、データ処理装置12は、本開示の技術に係る「データ処理装置」の一例であり、スマートデバイス14は、本開示の技術に係る「通信端末」の一例である。
【0044】
データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。
【0045】
スマートデバイス14は、コンピュータ36、受付装置38、出力装置40、カメラ42、及び通信I/F44を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、受付装置38、出力装置40、及びカメラ42も、バス52に接続されている。受付装置38及び出力装置40は、本開示の技術に係る「ユーザインタフェース」の一例である。
【0046】
受付装置38は、タッチパネル38A及びマイクロフォン38B等を備えており、人物20からの指示を受け付ける。タッチパネル38Aは、指示体(例えば、ペン又は指等)の接触を検出することにより、指示体の接触による指示を受け付ける。マイクロフォン38Bは、人物20の音声を検出することにより、音声による指示を受け付ける。
【0047】
出力装置40は、ディスプレイ40A及びスピーカ40B等を備えており、データを人物20が知覚可能な表現形(例えば、音声及び/又はテキスト)で出力することでデータを人物20に対して提示する。ディスプレイ40Aは、プロセッサ46からの指示に従ってテキスト及び画像等の可視情報を表示する。スピーカ40Bは、プロセッサ46からの指示に従って音声を出力する。カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラである。
【0048】
通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。
【0049】
データ処理システム10は、調査実施企業16が調査依頼企業18から依頼された調査の実施に用いるシステムである。例えば、調査は、質問に対して回答を行うアンケート調査(例えば、企業又は商品等についてのアンケート調査)である。アンケート調査は、データ処理装置12及びスマートデバイス14を用いてオンラインで行われる。調査実施企業16は、データ処理装置12を所持しており、人物20は、スマートデバイス14を所持している。人物20は、本開示の技術に係る「回答者」の一例である。調査実施企業16は、本開示の技術に係る「質問者」の一例である。
【0050】
人物20は、調査実施企業16からデータ処理装置12及びスマートデバイス14を介して投げかけられた質問に対して、スマートデバイス14を用いて回答する。質問と回答とのやり取りは、チャットによる対話形式で行われる。チャットには、テキスト及び音声が用いられる。チャットは、チャットアプリケーションがスマートデバイス14によって実行されることで実現される。
【0051】
詳しくは、後述するが、アンケート調査において、調査実施企業16から人物20に投げかけられる質問は、調査依頼企業18によって事前に定められた調査テーマ等に即した質問であり、データ処理装置によって生成される。また、人物20からの回答に対する返答がデータ処理装置によって生成される。返答には、質問の一部が含まれる。例えば、質問は、複数の小問に分けられており、回答の内容に応じて、小問が含まれた返答がデータ処理装置によって生成される。調査実施企業16は、データ処理装置12を用いて、複数の人物20から得た複数の回答に対して分析(例えば、統計学的な手法を用いた分析)を行い、分析を行って得た結果を調査結果として調査依頼企業18に納品する。
【0052】
図2には、データベース24の構成の一例が示されている。データベース24には、複数の人物20に関する各種データが格納されている。各種データの一例としては、ID(IDentification)24A、属性データ24B、及び報酬データ24Cが挙げられる。
【0053】
ID24Aは、人物20(ここでは、一例として、上述したチャットアプリケーションの利用者)を特定可能な番号であり、複数の人物20のそれぞれに対して割り当てられている。属性データ24Bは、人物20の属性を示すデータである。属性の一例としては、性別、年齢、住所、職業、購入商品(例えば、オンラインショッピングで購入した商品等)、購入日時(例えば、オンラインショッピングで商品を購入した日時)、及び好きなキャラクタ(例えば、ゲームに登場するキャラクタ、漫画に登場するキャラクタ、アニメに登場するキャラクタ、又は実在する著名人等)が挙げられる。報酬データ24Cは、人物20に付与されている報酬を示すデータである。
【0054】
ここで、報酬とは、例えば、オンライン上のサービスを利用することにより得られる報酬を指す。報酬の一例として、各種の商取引で利用可能なポイント(例えば、商品の購入時に現金の代わりに用いられるポイント)が挙げられる。
【0055】
人物20毎に割り当てられている各ID24Aには、属性データ24B及び報酬データ24Cが対応付けられている。例えば、ID24Aに対応付けられる属性データ24B及び報酬データ24Cは、人物20の行動(例えば、オンライン上での人物20の振る舞い)に応じてプロセッサ28(図1参照)によって更新される。
【0056】
図3には、データ処理装置12及びスマートデバイス14の要部機能の一例が示されている。図3に示すように、データ処理装置12では、プロセッサ28によって調査実施処理が行われる。
【0057】
ストレージ32には、調査実施プログラム56が格納されている。調査実施プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から調査実施プログラム56を読み出し、読み出した調査実施プログラム56をRAM30上で実行する。調査実施処理は、プロセッサ28がRAM30上で実行する調査実施プログラム56に従って、実行部28A、生成部28B、特定部28C、取得部28D、分析部28E、出力部28F、及び付与部28Gとして動作することによって実現される。
【0058】
ストレージ32には、対話生成モデル58及び感情特定モデル60が格納されている。対話生成モデル58は、本開示の技術に係る「要約データ生成モデル」及び「返答生成モデル」の一例であり、感情特定モデル60は、本開示の技術に係る「感情特定モデル」の一例である。詳しくは後述するが、対話生成モデル58は、生成部28Bによって用いられ、感情特定モデル60は、特定部28Cによって用いられる。
【0059】
スマートデバイス14では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム62が格納されている。受付出力プログラム62は、上述したチャットアプリケーションの一例であり、データ処理システム10によって調査実施プログラム56と併用される。受付出力プログラム62は、既存のチャットアプリケーション(例えば、従来既知のLINE(登録商標))を基礎にして作成されたプログラムである。プロセッサ46は、ストレージ50から受付出力プログラム62を読み出し、読み出した受付出力プログラム62をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム62に従って、制御部46Aとして動作することによって実現される。
【0060】
図4には、データ処理装置12のプロセッサ28によって調査実施処理が行われ、かつ、スマートデバイス14のプロセッサ46によって受付出力処理が行われる場合のデータ処理システム10内での処理内容の一例が示されている。
【0061】
図4に示すように、実行部28Aは、ネットワーク54(図1参照)を介してスマートデバイス14と通信を行うことにより、人物20に対する質問と、人物20からの質問に対する回答とを対話形式で実行する。先ず、実行部28Aは、人物20に対する質問と、人物20からの質問に対する回答とを対話形式で実行するために、アンケート調査を開始する条件(以下、「調査開始条件」と称する)を満足したか否かを判定する。調査開始条件の一例としては、データ処理装置12の管理者等によって事前に設定された期間に入ったという条件が挙げられる。
【0062】
ストレージ32には、テンプレート64及び調査依頼データ66が格納されている。詳しくは後述するが、テンプレート64は、対話生成モデル58に入力する第1指示データ68の生成に用いられる。調査依頼データ66は、調査依頼企業18からのアンケート調査の依頼内容を示すデータである。調査依頼データ66は、調査テーマ66A及び対象属性データ66Bが含まれている。調査テーマ66Aは、アンケート調査のテーマである。調査テーマ66Aには、調査依頼企業18の名称が含まれている。対象属性データ66Bは、アンケート調査の対象となる属性を示すデータである。例えば、アンケート調査の対象となる属性は、データベース24に格納されている属性データ24Bにより示される複数の属性のうちの指定された1つ又は複数の属性である。
【0063】
実行部28Aは、調査開始条件を満足したことを条件に、ストレージからテンプレート64及び調査テーマ66Aを取得する。
【0064】
取得部28Dは、ストレージ32に格納されている対象属性データ66Bに対応する属性データ24Bをデータベース24から取得し、かつ、データベース24から取得した属性データ24Bに対応付けられているID24Aを取得する。例えば、対象属性データ66Bにより示される属性が「男性」及び「22歳」ならば、取得部28Dは、属性として「男性」を示す属性データ24Bと、属性として「22歳」を示す属性データ24Bとをデータベース24から取得する。また、取得部28Dは、属性として「男性」を示す属性データ24B及び属性として「22歳」を示す属性データ24Bに対応付けられているID24Aをデータベース24から取得する。また、取得部28Dは、データベース24から取得したID24Aに対応付けられている「好きなキャラクタ」を示す属性データもデータベース24から取得する。
【0065】
実行部28Aは、ストレージ32から取得したテンプレート64に、ストレージ32から取得した調査テーマ66Aと、取得部28Dによって取得された属性データ24Bとを組み込むことにより、対話生成モデル58に対して与える指示を示す第1指示データ68を生成する。
【0066】
対話生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。対話生成モデル58の一例としては、ChatGPT-4(インターネット検索<https://openai.com/gpt-4>)又はChatGPT-4-32k等の生成AIが挙げられる。対話生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。対話生成モデル58には、第1指示データ68が入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。対話生成モデル58は、入力された推論用データを第1指示データ68により示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。
【0067】
テンプレート64の一例としては、次のテキストを示すテキストデータが挙げられる。
【0068】
「あなたはアンケート調査の質問者です。 “調査テーマ・・・・”に沿った質問をして下さい。 質問を小分けにして行って下さい。 アンケート調査の回答者からの回答に対する返答を3回以上行って下さい。 返答の中に質問を含めて下さい。 あなたと回答者との間で自然な会話が続くように回答者に対して返答して下さい。 返答の内容は質問に対して回答が出しやすい内容にして下さい。 質問及び返答は音声及びテキストで行って下さい。 音声は“キャラクタ・・・・”の音声にして下さい。 テキストには“キャラクタ・・・・”の特徴を付加して下さい。 “調査テーマ・・・・”に沿った全ての質問が終了したら、 “企業・・・・”のアンケート調査であることを音声及びテキストで回答者に伝えて下さい。 全ての質問に対する全ての回答を要約して“企業・・・・・”に提供することを承諾してくれるかどうかを音声及びテキストで回答者に伝えて下さい。 承諾すると報酬ポイントが付与されることを音声及びテキストで回答者に伝えて下さい。 回答者から承諾が得られなかった場合に、承諾が得られないことに了解した旨を音声及びテキストで回答者に伝えて下さい。 回答者から承諾が得られた場合に要約文を音声及びテキストで回答者に伝えて下さい。 要約文の内容の適否を音声及びテキストで回答者に訊ねて下さい。 要約文の内容が適してないと回答された場合に、再作成した要約文を音声及びテキストで回答者に伝えて下さい。 要約文の内容が適していると回答された場合に、報酬ポイントが付与された旨を音声及びテキストで回答者に伝えて下さい。 回答者への質問及び返答の内容は、以下の情報1~情報Nを利用して、回答者の気分が良くなる内容にして下さい。 “情報1:・・・・” “情報2:・・・・”~“情報N:・・・・”」
【0069】
実行部28Aは、“調査テーマ・・・・”及び“企業・・・・”に調査テーマ66Aから得られるテキストを組み込み、“キャラクタ・・・・”及び“情報1:・・・・” “情報2:・・・・“~“情報N:・・・・”に属性データ24Bから得られるテキストを組み込むことにより第1指示データ68を生成する。なお、ここで具体的に例示したテンプレート64は、あくまでも一例に過ぎず、本開示の技術の趣旨を逸脱しない範囲内の指示であれば如何なる指示であってもよい。
【0070】
生成部28Bは、対話生成モデル58を用いることにより対話相手データ70を生成する。対話相手データ70は、アンケート調査の対象とされた人物20が対話する相手の話の内容を示すデータである。対話相手データ70は、対話開始データ70Aと、返答データ70Bと、対話終了データ70Cとに大別される。
【0071】
対話開始データ70Aは、人物20との対話で最初に話す内容を示すデータである。返答データ70Bは、人物20からの質問に対する回答への返答を示すデータである。返答データ70Bは、質問入り返答データ70B1と要約入り返答データ70B2とに大別される。質問入り返答データ70B1は、調査テーマ66Aに沿った質問の一部(すなわち、調査テーマ66Aに沿った質問を小分けにした複数の小問の少なくとも1つ)が入っている返答を示すデータである。要約入り返答データ70B2は、人物20に対して行った全ての質問に対する回答の要約が入っている返答を示すデータである。要約入り返答データ70B2には、要約データ70B2aが含まれている。要約データ70B2aは、人物20に対して行った全ての質問に対する回答の要約を示すデータである。対話終了データ70Cは、人物20との対話で最後に話す内容(すなわち、対話内での最後の返答の内容)を示すデータである。
【0072】
対話生成モデル58に第1指示データ68が入力されると、対話生成モデル58によって対話開始データ70Aが生成される。実行部28Aは、対話生成モデル58によって生成された対話開始データ70Aを取得する。そして、実行部28Aは、取得部28Dによって取得されたID24Aから特定されるスマートデバイス14に対話開始データ70Aを送信する。スマートデバイス14では、制御部46Aが、出力装置40に対して対話開始データ70Aを出力させる。マイクロフォン38Bは、対話開始データ70Aに対する人物20による回答を示す音声を取得する。制御部46Aは、対話開始データ70Aに対してマイクロフォン38Bによって取得された音声を示す回答音声データ72(以下、「第1回答音声データ」とも称する)をデータ処理装置12に送信する。データ処理装置12では、実行部28Aが第1回答音声データを取得する。
【0073】
第1回答音声データが対話生成モデル58に入力されると、対話生成モデル58によって、第1回答音声データに適合する質問入り返答データ70B1が生成される。第1回答音声データに適合する質問入り返答データ70B1とは、第1回答音声データから特定される回答に応じて定まる質問が含まれる返答を示すデータを指す。実行部28Aは、対話生成モデル58によって生成された質問入り返答データ70B1を取得する。そして、実行部28Aは、取得部28Dによって取得されたID24Aから特定されるスマートデバイス14に質問入り返答データ70B1を送信する。スマートデバイス14では、制御部46Aが、出力装置40に対して質問入り返答データ70B1を出力させる。マイクロフォン38Bは、質問入り返答データ70B1に対する人物20による回答を示す音声を取得する。制御部46Aは、質問入り返答データ70B1に対してマイクロフォン38Bによって取得された音声を示す回答音声データ72(以下、「第2回答音声データ」とも称する)をデータ処理装置12に送信する。データ処理装置12では、実行部28Aが第2回答音声データを取得する。
【0074】
第2回答音声データが対話生成モデル58に入力されると、対話生成モデル58によって、第2回答音声データに適合する質問入り返答データ70B1が生成される。ここで、第2回答音声データに適合する質問入り返答データ70B1とは、第2回答音声データから特定される回答に応じて定まる質問が含まれる返答を示すデータを指す。質問入り返答データ70B1と第2回答音声データとのやり取りは、調査テーマ66Aに沿った全ての質問が終了するまで続けられる。調査テーマ66Aに沿った全ての質問のうちの最後の質問は、質問入り返答データ70B1と第2回答音声データとの複数回のやり取りで得られた複数の第2回答音声データから特定される回答の要約をアンケート調査の結果として用いても良いか否かの交渉に関する質問である。
【0075】
また、調査テーマ66Aに沿った全ての質問に対する全ての回答のうちの最後の回答は、質問入り返答データ70B1と第2回答音声データとの複数回のやり取りで得られた複数の第2回答音声データから特定される回答の要約をアンケート調査の結果として用いても良いか否かの交渉に関する質問に対しての回答(すなわち、承諾するか否かを示す回答)である。
【0076】
質問入り返答データ70B1と第2回答音声データとのやり取りで得られた最後の第2回答音声データが対話生成モデル58に入力されると、対話生成モデル58によって要約入り返答データ70B2が生成される。要約入り返答データ70B2に含まれる要約データ70B2aは、調査テーマ66Aに沿った全ての質問が終了するまでの質問入り返答データ70B1と第2回答音声データとのやり取りで得られた全ての第2回答音声データから特定される回答の要約を示すデータである。
【0077】
実行部28Aは、対話生成モデル58によって生成された要約入り返答データ70B2を取得する。そして、実行部28Aは、取得部28Dによって取得されたID24Aから特定されるスマートデバイス14に要約入り返答データ70B2を送信する。スマートデバイス14では、制御部46Aが、出力装置40に対して要約入り返答データ70B2を出力させる。マイクロフォン38Bは、要約入り返答データ70B2に対する人物20による回答を示す音声を取得する。制御部46Aは、要約入り返答データ70B2に対してマイクロフォン38Bによって取得された音声を示す回答音声データ72(以下、「第3回答音声データ」とも称する)をデータ処理装置12に送信する。データ処理装置12では、実行部28Aが第3回答音声データを取得する。
【0078】
ここで、第3回答音声データにより示された回答が、要約データ70B2aにより示される要約に対して否定的な回答であった場合、要約入り返答データ70B2が再生成され、要約入り返答データ70B2と第3回答音声データとのやり取りが継続する。
【0079】
第3回答音声データにより示された回答が、要約データ70B2aにより示される要約に対して肯定的な回答であった場合(すなわち、要約の内容に対して人物20から承諾を得た場合)、第3回答音声データが対話生成モデル58に入力されると、対話生成モデル58によって、第3回答音声データに適合する対話終了データ70Cが生成される。対話終了データ70Cには、アンケート調査に協力したことに対する報酬が付与される旨のメッセージを示すデータが含まれる。
【0080】
実行部28Aは、対話生成モデル58によって生成された対話終了データ70Cを取得する。そして、実行部28Aは、取得部28Dによって取得されたID24Aから特定されるスマートデバイス14に対話終了データ70Cを送信する。スマートデバイス14では、制御部46Aが、出力装置40に対して対話終了データ70Cを出力させる。
【0081】
図5には、対話生成モデル58によって生成される対話相手データ70のデータ形式(表現形)の一例が示されている。図5に示すように、対話生成モデル58は、対話開始データ70Aとして、人物20との対話で最初に話す内容を人物20が好きなキャラクタ(ここでは、一例として、キャラクタA)の音声で示す対話開始音声データ70Aaと人物20との対話で最初に話す内容をキャラクタAの特徴が付与されたテキストで示す対話開始テキストデータ70Abとを生成する。
【0082】
また、対話生成モデル58は、返答データ70Bとして、人物20からの質問に対する回答への返答をキャラクタAの音声で示す返答音声データ70Baと人物20からの質問に対する回答への返答をキャラクタAの特徴が付与されたテキストで示す返答テキストデータ70Bbとを生成する。更に、対話生成モデル58は、対話終了データ70Cとして、人物20との対話で最後に話す内容をキャラクタAの音声で示す対話終了音声データ70Caと人物20との対話で最後に話す内容をキャラクタAの特徴が付与されたテキストで示す対話終了テキストデータ70Cbとを生成する。
【0083】
なお、図5に示す例において、対話開始音声データ70Aa及び返答音声データ70Baは、本開示の技術に係る「質問音声データ」の一例である。
【0084】
図6には、スマートデバイス14の処理内容の一例が示されている。図6に示すように、スピーカ40Bは、制御部46Aの制御下で、実行部28Aからスマートデバイス14に送信された対話相手データ70により示される音声データ(すなわち、対話開始音声データ70Aa、返答音声データ70Ba、及び対話終了音声データ70Ca)により示される音声を出力する。スピーカ40Bから出力される音声は、キャラクタAの音声である。
【0085】
また、ディスプレイ40Aは、制御部46Aの制御下で、実行部28Aからスマートデバイス14に送信された対話相手データ70により示される音声データ(すなわち、対話開始テキストデータ70Ab、返答テキストデータ70Bb、及び対話終了テキストデータ70Cb)により示されるテキストを出力する。
【0086】
このように、スピーカ40Bから出力された音声及びテキストの内容に対して人物20が音声で回答することにより、キャラクタAと人物20との音声での対話(すなわち、キャラクタAと人物20との音声でのチャット)が成立する。
【0087】
マイクロフォン38Bは、人物20の音声による回答を取得する。そして、制御部46Aは、マイクロフォン38Bによって取得された回答に対して、従来既知の音声テキスト変換処理を行うことにより、音声による回答をテキストによる回答に変換し、テキストによる回答をディスプレイ40Aに表示する。
【0088】
ディスプレイ40Aには、キャラクタAの話と人物20の話とが区別可能な状態で交互に表示されるので、キャラクタAと人物20とのテキストでの対話(すなわち、キャラクタAと人物20とのテキストでのチャット)が成立する。
【0089】
図7には、アンケート調査の対象とされた複数の人物20から回答が得られた場合にデータ処理装置12によって行われる処理内容の一例が示されている。
【0090】
図7に示すように、特定部28Cは、感情特定モデル60に対して与える指示を示す第2指示データ74を生成する。第2指示データ74によって示される指示の一例としては、「あなたはアンケート調査の回答者の音声から、回答者の感情を特定する能力を持っています。あなたが受け取った回答者音声データを分析して、回答者の感情を特定して下さい。回答者の感情の特定は、プルチックの感情の輪を用いて行って下さい。」というテキストを示すテキストデータが挙げられる。
【0091】
特定部28Cは、感情特定モデル60を用いることにより、回答音声データ72により示される音声から、調査テーマ66Aに沿った質問に対して回答した人物20の感情を特定する。
【0092】
感情特定モデル60は、いわゆる生成AIである。感情特定モデル60の一例としては、ChatGPT-4又はChatGPT-4-32k等の生成AIが挙げられる。感情特定モデル60は、ニューラルネットワークに対して深層学習を行わせることによって得られ得る。特定部28Cは、感情特定モデル60に第2指示データ74及び回答音声データ72を入力する。
【0093】
感情特定モデル60は、回答音声データ72の入力に応答して、回答音声データ72に応じた感情に関する感情データを出力する。図7に示す例では、感情特定モデル60は、入力された回答音声データ72に対して第2指示データ74により示される指示に従って、調査テーマ66Aに沿った質問に対して回答した人物20の感情及び感情の度合いを特定し、特定した感情及び感情の度合いを示す感情特定データ76を出力する。例えば、感情特定データ76は、数値及び/又はテキストデータ等で表現される。
【0094】
例えば、感情特定モデル60によって特定される感情は、アンケート調査の質問に対するポジティブな感情又はネガティブな感情である。ポジティブな感情とネガティブな感情は、例えば、プルチックの感情の輪で規定されている複数の感情を二分して得られる。ポジティブな感情とネガティブな感情は、あくまでも一例に過ぎず、感情特定モデル60によって、プルチックの感情の輪で規定されている具体的な感情が特定されるようにしてもよい。
【0095】
分析部28Eは、アンケート調査の対象とされた人物20毎にデータセット78を生成する。データセット78は、感情特定モデル60から出力された感情特定データ76と、実行部28Aによって第1指示データ68の生成に用いられた属性データ24Bと、生成部28Bによって生成された要約データ70B2aとが対応付けられたデータである。
【0096】
データセット78は、アンケート調査の対象とされた複数の人物20のそれぞれについて生成される。分析部28Eは、アンケート調査の対象とされた複数の人物20の回答に対応する複数のデータセット78に対して分析を行い、分析結果を示す分析結果データ80を生成する。
【0097】
データセット78に対する分析の一例としては、統計学的手法を用いた分析が挙げられる。分析部28Eは、複数のデータセット78に含まれる複数の感情特定データ76から特定される最も多い感情、平均的な感情、最も少ない感情、及び感情の度合いの統計値(例えば、平均値、中央値、最大値、最小値、及び/又は最頻値)等を基準にして、複数の要約データ70B2aを分類したり、複数の要約データ70B2aから不要な要約データ70B2aを削除したりする。
【0098】
出力部28Fは、分析部28Eによって得られた分析結果データ80を取得し、取得した分析結果データ80を既定の出力先に出力する。既定の出力先の第1例としては、調査依頼企業18のサーバ等が挙げられる。また、既定の出力先の第2例としては、ストレージ32が挙げられる。調査依頼企業18のサーバ等への分析結果データ80の出力は、通信I/F26を用いたネットワーク54経由での送信によって実現される。
【0099】
付与部28Gは、調査テーマ66Aに沿った質問に対する回答の要約をアンケート調査の結果として用いることに対して人物20が承諾した回答を示す回答音声データ72が実行部28Aによって取得されたことを条件に、承諾した人物20に対して報酬を付与する。例えば、付与部28Gは、データセット78が生成されたタイミングで、データセット78に含まれる要約データ70B2aを得るために対話相手データ70が送信されたスマートデバイス14の所持者である人物20に対して報酬を付与する。図7に示す例では、付与部28Gが、現時点で取得部28Dによって取得されているID24に対応する報酬データ24Cにより示される報酬が増えるように、データベース24の報酬データ24Cを更新する。なお、ここでは、データセット78が生成されたタイミングで人物20に対して報酬が付与される形態例を挙げたが、これは、あくまでも一例に過ぎず、要約データ70B2aの内容の承諾が人物20から得られたタイミングで人物20に対して報酬が付与されるようにしてもよいし、分析結果データ80が調査依頼企業18に納品されたタイミングで人物20に対して報酬が付与されるようにしてもよい。
【0100】
次に、データ処理システム10の作用について図8A図9Bを参照しながら説明する。
【0101】
先ず、調査実施処理の流れの一例について図8A及び図8Bを参照しながら説明する。なお、図8A及び図8Bに示す調査実施処理の流れは、本開示の技術に係る「データ処理方法」の一例である。
【0102】
図8Aに示す調査実施処理では、先ず、ステップST10で、実行部28Aは、調査開始条件を満足したか否かを判定する。ステップST10において、調査開始条件を満足していない場合は、判定が否定されて、ステップST10の判定が再び行われる。ステップST10において、調査開始条件を満足した場合は、判定が肯定されて、調査実施処理はステップST12へ移行する。
【0103】
ステップST12で、実行部28Aは、ストレージ32から調査テーマ66Aを取得する。また、取得部28Dは、ストレージ32から対象属性データ66Bを取得する。ステップST12の処理が実行された後、調査実施処理はステップST14へ移行する。
【0104】
ステップST14で、取得部28Dは、ステップST12で取得した対象属性データ66Bに対応する属性データ24Bをデータベース24から取得する。また、取得部28Dは、データベース24から取得した属性データ24Bに対応付けられているID24Aをデータベース24から取得する。ステップST14の処理が実行された後、調査実施処理はステップST16へ移行する。
【0105】
なお、以下では、ステップST14にて、複数の人物20に対応する複数の属性データ24B及び複数のID24Aがデータベース24から取得されたことを前提として説明する。
【0106】
ステップST16で、実行部28Aは、ストレージ32からテンプレート64を取得する。ステップST16の処理が実行された後、調査実施処理はステップST18へ移行する。
【0107】
ステップST18で、実行部28Aは、ステップST14で取得部28Dによって取得された複数の属性データ24B及び複数のID24Aから、以降のステップの処理で未使用の対応する属性データ24B及びID24Aを取得する。ステップST18の処理が実行された後、調査実施処理はステップST20へ移行する。
【0108】
ステップST20で、実行部28Aは、ステップST16で取得したテンプレート64、ステップST12で取得した調査テーマ66A、及びステップST18で取得した属性データ24Bを用いて第1指示データ68を生成する。ステップST20の処理が実行された後、調査実施処理はステップST22へ移行する。
【0109】
ステップST22で、生成部28Bは、対話生成モデル58を用いることにより、第1指示データ68に基づいて対話開始データ70Aを生成する。すなわち、生成部28Bが、第1指示データ68を対話生成モデル58に入力することに応じて対話生成モデル58が対話開始データ70Aを生成して出力する。実行部28Aは、ステップST18で取得したID24Aに従って対話開始データ70Aを送信する。すなわち、対話開始データ70Aは、ID24Aによって特定されるスマートデバイス14に送信される。ステップST22の処理が実行された後、調査実施処理はステップST24へ移行する。
【0110】
本ステップST22の処理が実行されることで対話開始データ70Aがスマートデバイス14に送信されたことに応じて、スマートデバイス14からは回答音声データ72が送信される(図9Aに示すステップST108参照)。
【0111】
ステップST24で、実行部28Aは、スマートデバイス14から送信された回答音声データ72が通信I/F26によって受信されたか否かを判定する。ステップST24において、スマートデバイス14から送信された回答音声データ72が通信I/F26によって受信されていない場合は、判定が否定されて、ステップST24の判定が再び行われる。ステップST24において、スマートデバイス14から送信された回答音声データ72が通信I/F26によって受信された場合は、判定が肯定されて、調査実施処理はステップST26へ移行する。
【0112】
ステップST26で、実行部28Aは、ステップST12で取得した調査テーマ66Aに沿った全質問が終了していないか否かを判定する。ステップST26において、ステップST12で取得した調査テーマ66Aに沿った全質問が終了している場合は、判定が否定されて、調査実施処理はステップST30へ移行する。ステップST26において、ステップST12で取得した調査テーマ66Aに沿った全質問が終了していない場合は、判定が肯定されて、調査実施処理はステップST28へ移行する。
【0113】
ステップST28で、生成部28Bは、対話生成モデル58を用いることにより、ステップST24で取得された回答音声データ72に対応する質問入り返答データ70B1を生成する。実行部28Aは、ステップST18で取得したID24Aに従って質問入り返答データ70B1を送信する。すなわち、質問入り返答データ70B1は、ID24Aによって特定されるスマートデバイス14に送信される。ステップST28の処理が実行された後、調査実施処理はステップST24へ移行する。
【0114】
本ステップST28の処理が実行されることで質問入り返答データ70B1がスマートデバイス14に送信されたことに応じて、スマートデバイス14からは回答音声データ72が送信される(図9Aに示すステップST108参照)。
【0115】
ステップST30で、実行部28Aは、ステップST24で取得された回答音声データ72を対話生成モデル58に入力する。対話生成モデル58は、実行部28Aから入力された回答音声データ72に基づいて、調査テーマ66Aに沿った質問に対する回答の要約をアンケート調査の結果として用いることに対して人物20から承諾が得られたか否かを判定する。ステップST30において、承諾が得られていない場合は、判定が否定されて、図8Bに示すステップST46へ移行する。ステップST30において、承諾が得られた場合は、判定が肯定されて、調査実施処理はステップST32へ移行する。なお、調査テーマ66Aに沿った質問に対する回答の要約をアンケート調査の結果として用いることに対して人物20が承諾したことを示す回答音声データ72は、本開示の技術に係る「承諾データ」の一例である。
【0116】
ステップST32で、生成部28Bは、対話生成モデル58を用いることにより、調査テーマ66Aに沿った全質問に対して得られた全ての回答音声データ72から特定される回答を要約した要約データ70B2aを含む要約入り返答データ70B2を生成する。実行部28Aは、ステップST18で取得したID24Aに従って要約入り返答データ70B2を送信する。すなわち、要約入り返答データ70B2は、ID24Aによって特定されるスマートデバイス14に送信される。ステップST32の処理が実行された後、調査実施処理は、図8Bに示すステップST34へ移行する。
【0117】
本ステップST32の処理が実行されることで要約入り返答データ70B2がスマートデバイス14に送信されたことに応じて、スマートデバイス14からは回答音声データ72が送信される(図9Aに示すステップST108参照)。
【0118】
図8Bに示すステップST34で、実行部28Aは、スマートデバイス14から送信された回答音声データ72が通信I/F26によって受信されたか否かを判定する。ステップST34において、スマートデバイス14から送信された回答音声データ72が通信I/F26によって受信されていない場合は、判定が否定されて、ステップST34の判定が再び行われる。ステップST34において、スマートデバイス14から送信された回答音声データ72が通信I/F26によって受信された場合は、判定が肯定されて、調査実施処理はステップST36へ移行する。
【0119】
ステップST36で、実行部28Aは、ステップST34で取得された回答音声データ72を対話生成モデル58に入力する。対話生成モデル58は、実行部28Aから入力された回答音声データ72に基づいて、調査テーマ66Aに沿った質問に対する回答の要約に対して人物20から承諾が得られたか否かを判定する。ステップST36において、承諾が得られていない場合は、判定が否定されて、ステップST38へ移行する。ステップST36において、承諾が得られた場合は、判定が肯定されて、調査実施処理はステップST40へ移行する。
【0120】
ステップST38で、生成部28Bは、対話生成モデル58を用いることにより、調査テーマ66Aに沿った全質問に対して得られた全ての回答音声データ72から特定される回答を要約した要約データ70B2aを含む要約入り返答データ70B2を再生成する。実行部28Aは、ステップST18で取得したID24Aに従って要約入り返答データ70B2を送信する。すなわち、要約入り返答データ70B2は、ID24Aによって特定されるスマートデバイス14に送信される。ステップST38の処理が実行された後、調査実施処理は、ステップST34へ移行する。
【0121】
ステップST40で、特定部28Cは、感情特定モデル60を用いることにより、第2指示データ74及びステップST34で取得された回答音声データ72に基づいて感情特定データ76を生成する。ステップST40の処理が実行された後、調査実施処理はステップST42へ移行する。
【0122】
ステップST42で、分析部28Eは、ステップST32で生成された要約入り返答データ70B2に含まれる要約データ70B2aと、ステップST40で生成された感情特定データ76と、ステップST14で取得された属性データ24Bとに基づくデータセット78を生成する。ステップST42の処理が実行された後、調査実施処理はステップST44へ移行する。
【0123】
ステップST44で、付与部28Gは、ステップST42で生成されたデータセット78に対応する人物20(すなわち、ステップST14で取得されたID24Aによって特定されるスマートデバイス14の所持者)に対して報酬を付与する。ステップST44の処理が実行された後、調査実施処理はステップST46へ移行する。
【0124】
ステップST46で、生成部28Bは、対話生成モデル58を用いることにより、対話終了データ70Cを生成する。実行部28Aは、ステップST18で取得したID24Aに従って対話終了データ70Cを送信する。すなわち、対話終了データ70Cは、ID24Aによって特定されるスマートデバイス14に送信される。ステップST46の処理が実行された後、調査実施処理はステップST48へ移行する。
【0125】
ステップST48で、分析部28Eは、生成したデータセット78が既定個数(例えば、1000個)以上であるか否かを判定する。ステップST48において、生成したデータセット78が既定個数未満の場合は、判定が否定されて、調査実施処理は、図8Aに示すステップST18へ移行する。ステップST48において、生成したデータセット78が既定個数以上の場合は、判定が肯定されて、調査実施処理はステップST50へ移行する。
【0126】
ステップST50で、分析部28Eは、既定個数以上のデータセット78に対して分析を行う。ステップST50の処理が実行された後、調査実施処理はステップST52へ移行する。
【0127】
ステップST52で、分析部28Eは、ステップST50で行った分析結果を示す分析結果データ80を生成する。出力部28Fは、分析結果データ80を既定の出力先(例えば、調査依頼企業18のサーバ等)に出力する。ステップST52の処理が実行された後、調査実施処理が終了する。
【0128】
次に、受付出力処理の流れの一例について図9A及び図9Bを参照しながら説明する。
【0129】
図9Aに示す受付出力処理では、先ず、ステップST100で、制御部46Aは、通信I/F44によって対話相手データ70が受信されたか否かを判定する。ステップST100において、通信I/F44によって対話相手データ70が受信されていない場合は、判定が否定されて、ステップST100の判定が再び行われる。ステップST100において、通信I/F44によって対話相手データ70が受信された場合は、判定が肯定されて、受付出力処理はステップST102へ移行する。
【0130】
ステップST102で、制御部46Aは、ステップST100で通信I/F44によって受信された対話相手データ70が対話開始データ70Aであるか否かを判定する。ステップST102において、ステップST100で通信I/F44によって受信された対話相手データ70が対話開始データ70Aでない場合は、判定が否定されて、受付出力処理はステップST112へ移行する。ステップST102において、ステップST100で通信I/F44によって受信された対話相手データ70が対話開始データ70Aである場合は、判定が肯定されて、受付出力処理はステップST104へ移行する。
【0131】
ステップST104で、制御部46Aは、出力装置40に対して対話開始データ70Aを出力させる。ステップST104の処理が実行された後、受付出力処理はステップST106へ移行する。
【0132】
ステップST106で、制御部46Aは、出力装置40から出力された対話開始データ70A、質問入り返答データ70B1、又は要約入り返答データ70B2に対する人物20による回答を示す音声がマイクロフォン38Bによって取得されたか否かを判定する。ステップST106において、出力装置40から出力された対話開始データ70A、質問入り返答データ70B1、又は要約入り返答データ70B2に対する人物20による回答を示す音声がマイクロフォン38Bによって取得されていない場合は、判定が否定されて、ステップST106の判定が再び行われる。ステップST106において、出力装置40から出力された対話開始データ70A、質問入り返答データ70B1、又は要約入り返答データ70B2に対する人物20による回答を示す音声がマイクロフォン38Bによって取得された場合は、判定が肯定されて、受付出力処理はステップST108へ移行する。
【0133】
ステップST108で、制御部46Aは、マイクロフォン38Bによって取得された音声を示す回答音声データ72をデータ処理装置12に送信する。ステップST108の処理が実行された後、受付出力処理はステップST110へ移行する。
【0134】
ステップST110で、制御部46Aは、受付出力処理が終了する条件(以下、「終了条件」と称する)を満足したか否かを判定する。終了条件の第1例としては、受付出力処理を終了させる指示が受付装置38によって受け付けられた、という条件が挙げられる。終了条件の第2例としては、データ処理装置12等の外部装置から受付出力処理を終了させる指示がスマートデバイス14に対して与えられた、という条件が挙げられる。
【0135】
ステップST110において、終了条件を満足していない場合は、判定が否定されて、受付出力処理はステップST100へ移行する。ステップST110において、終了条件を満足した場合、判定が肯定されて、受付出力処理が終了する。
【0136】
ステップST112で、制御部46Aは、ステップST100で通信I/F44によって受信された対話相手データ70が質問入り返答データ70B1であるか否かを判定する。ステップST112において、ステップST100で通信I/F44によって受信された対話相手データ70が質問入り返答データ70B1でない場合は、判定が否定されて、受付出力処理は、図9Bに示すステップST116へ移行する。ステップST112において、ステップST100で通信I/F44によって受信された対話相手データ70が質問入り返答データ70B1である場合は、判定が肯定されて、受付出力処理はステップST114へ移行する。
【0137】
ステップST114で、制御部46Aは、出力装置40に対して質問入り返答データ70B1を出力させる。ステップST114の処理が実行された後、受付出力処理はステップST106へ移行する。
【0138】
図9Bに示すステップST116で、制御部46Aは、ステップST100で通信I/F44によって受信された対話相手データ70が要約入り返答データ70B2であるか否かを判定する。ステップST116において、ステップST100で通信I/F44によって受信された対話相手データ70が要約入り返答データ70B2でない場合(すなわち、ステップST100で通信I/F44によって受信された対話相手データ70が対話終了データ70Cである場合)は、判定が否定されて、受付出力処理はステップST120へ移行する。ステップST116において、ステップST100で通信I/F44によって受信された対話相手データ70が要約入り返答データ70B2である場合は、判定が肯定されて、受付出力処理はステップST118へ移行する。
【0139】
ステップST118で、制御部46Aは、出力装置40に対して要約入り返答データ70B2を出力させる。ステップST118の処理が実行された後、受付出力処理は、図9Aに示すステップST106へ移行する。
【0140】
ステップST120で、制御部46Aは、出力装置40に対して対話終了データ70Cを出力させる。ステップST120の処理が実行された後、受付出力処理が終了する。
【0141】
以上説明したように、データ処理装置12では、実行部28Aによって、アンケート調査の回答者である人物20に対する質問と、人物20からの質問に対する回答とが対話形式で実行させる。また、生成部28Bによって対話生成モデル58が用いられることで、人物20からの回答を要約した要約データ70B2aが生成される。そして、出力部28Fによって、要約データ70B2aに基づくデータとして、分析結果データ80が既定の出力先に出力される。これにより、アンケート調査において、人物20から調査テーマ66Aに沿った回答を収集する場合の調査実施企業16及び人物20にかかる負荷の軽減と、信頼性の高い回答の収集とに寄与することができる。
【0142】
また、データ処理装置12では、実行部28Aによって、対話相手データ70が音声データとしてスマートデバイス14に出力され、スマートデバイス14から回答音声データ72が取得される。これにより、人物20はハンズフリーでアンケート調査に応じることが可能となる。
【0143】
また、データ処理装置12では、実行部28Aによって、対話相手データ70の音声データでの出力と回答音声データ72の取得とが対話形式で実行される。これにより、記述式又は選択式のアンケート調査を実施する場合に比べ、アンケート調査の回答者である人物20の本心に近い回答が得易くなる。
【0144】
また、データ処理装置12では、特定部28Cによって、アンケート調査の回答者である人物20の感情が特定される。これにより、アンケート調査の結果に人物20の感情を反映させることができる。また、人物20の感情に基づいてアンケート調査の結果を分析することができる。
【0145】
また、データ処理装置12では、感情特定モデル60が用いられることにより感情特定データ76が生成される。従って、アンケート調査の回答者である人物20の感情を容易に特定することができる。
【0146】
また、データ処理装置12では、特定部28Cによって特定された感情と要約データ70B2aとに基づいて生成されたデータがアンケート調査の結果として用いられる。従って、アンケート調査の回答者である人物20の回答と人物20の感情との関係性を把握することが可能となる。
【0147】
また、データ処理装置12では、特定部28Cによって特定された感情に基づいて要約データ70B2aが分析されて得られた分析結果データ80がアンケート調査の結果として用いられる。従って、アンケート調査の結果が要約データ70B2aそのものである場合に比べ、信頼性の高いアンケート調査の結果を得ることができる。
【0148】
また、データ処理装置12では、特定部28Cによって特定された感情とアンケート調査の回答者である人物20の属性とに基づいて要約データ70B2aが分析されて得られた分析結果データ80がアンケート調査の結果として用いられる。従って、アンケート調査の結果が、特定部28Cによって特定された感情とアンケート調査の回答者である人物20の属性とが考慮されずに要約データ70B2aが分析されて得られた分析結果である場合に比べ、信頼性の高いアンケート調査の結果を得ることができる。
【0149】
また、データ処理装置12では、アンケート調査の回答者である人物20の属性の1つである好きなキャラクタAの特徴が質問の表現形(例えば、音声及びテキスト)に付与される。このようにすることで、アンケート調査の回答者である人物20は、キャラクタAとの自然な対話を楽しみながら、無意識的にアンケート調査の質問に対して回答することになる。これは、アンケート調査に対する心理的な障壁(例えば、嫌悪感、不信感、又は抵抗感等)を低くすることを意味する。アンケート調査に対する心理的な障壁を低くすることにより、人物20の本心に近い回答をアンケート調査の結果として得ることが可能となる。
【0150】
また、データ処理装置12では、対話形式でアンケート調査の質問と回答とのやり取りが行われたことを条件に、対話形式でのやり取りで得られた回答の要約をアンケート調査の結果として用いても良いか否かの交渉が回答者である人物20に対して対話形式で行われる。従って、アンケート調査であることを人物20に対して事前に予告してから対話形式でアンケート調査の質問と回答とのやり取りが行われる場合に比べ、アンケート調査であると意識していない人物20から得られた回答をアンケート調査の結果として得ることができる。
【0151】
また、データ処理装置12では、アンケート調査の質問と回答とのやり取りで得られた回答の要約が、アンケート調査の回答者である人物20に対して提示される。よって、人物20は、どのような要約がアンケート調査の結果として用いられるのかを確認することができる。
【0152】
また、データ処理装置12では、キャラクタAからの質問に対する人物20の回答の要約がアンケート調査の結果として用いられることに人物20が承諾したことを条件に、人物20に対して報酬が付与される。このようにすることで、アンケート調査に対する人物20のモチベーションの向上に寄与することができる。
【0153】
また、データ処理装置12では、キャラクタAからの質問に対する人物20の回答の要約がアンケート調査の結果として用いられることに人物20が承諾したことを示す回答音声データ72が実行部28Aによって取得されたことを条件に、分析結果データ80が出力される。従って、人物20が承諾していない要約の流出を抑制することができる。
【0154】
また、データ処理装置12では、対話生成モデル58が用いられることによって生成された対話開始データ70A及び質問入り返答データ70B1に調査テーマ66Aに沿った質問が小分けにされて含まれている。従って、アンケート調査の回答者である人物20は、質問と回答とのやり取り(例えば、人物20が好きなキャラクタAとのやり取り)を複数回にわたって楽しむことができ、かつ、調査実施企業16は人物20からアンケート調査の回答を得ることができる。
【0155】
また、データ処理装置12では、人物20に対して投げかける質問に、調査テーマ66Aに沿った内容が含まれている。従って、調査実施企業16は人物20から調査テーマ66Aに沿った回答を得ることができる。
【0156】
また、データ処理装置12では、受付出力プログラム62が既存のチャットアプリケーションを基礎にして作成されているので、既存のチャットアプリケーションの利用者をアンケート調査の対象にすることが可能となる。そのため、既存のチャットアプリケーションの利用者が多ければ多いほど、アンケート調査の規模を大きくすることができる。また、チャットアプリケーションの利用者の属性を利用したアンケート調査を実施することも可能となる。
【0157】
なお、上記実施形態では、要約データ70B2aに基づく分析結果データ80が既定の出力先に出力される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、要約データ70B2aそのものが既定の出力先に出力されるようにしてもよいし、データセット78そのものが既定の出力先に出力されるようにしてもよいし、要約データ70B2aと感情特定データ76又は属性データ24Bとが対応付けたデータが既定の出力先に出力されるようにしてもよい。
【0158】
上記実施形態では、感情特定モデル60に回答音声データ72が入力されることにより、感情特定モデル60から回答音声データ72に対応する感情特定データ76が出力される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、カメラ42(図1参照)によって人物20が撮像されて得られた画像データと回答音声データ72が感情特定モデル60に入力され、画像データと回答音声データ72から特定される感情及び感情の度合いを示すデータが感情特定モデル60によって生成されて出力されるようにしてもよい。
【0159】
上記実施形態では、感情特定データ76がデータセット78に用いられる形態例を挙げたが、本開示の技術はこれに限定されない。感情特定データ76は、回答音声データ72と共に対話生成モデル58に入力されるようにしてもよい。この場合、対話生成モデル58は、回答音声データ72により示される回答及び感情特定データ76から特定される感情に応じた内容の対話相手データ70を生成する。すなわち、回答音声データ72により示される回答に対する返答として、人物20の感情に寄り添った返答が人物20に提供されるように対話相手データ70が対話生成モデル58によって生成される。これを実現するために、例えば、テンプレート64に「回答者からの回答に対する返答として、回答者の感情に寄り添った返答を作成して下さい。」等というテキストデータが含まれるようにする。
【0160】
また、感情特定モデル60は、特定のマッピングに従い、回答者の感情を決定してよい。具体的には、感情特定モデル60は、特定のマッピングである感情マップ(図10参照)に従い、回答者の感情を決定してよい。
【0161】
図10は、複数の感情がマッピングされる感情マップ400を示す図である。感情マップ400において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。同心円の上方向及び下方向には、概して脳内で起きる反応から生成され、かつ、状況判断で誘導される感情が配置されている。また、同心円の上側には、「快」の感情が配置され、下側には、「不快」の感情が配置されている。このように、感情マップ400では、感情が生まれる構造に基づいて複数の感情がマッピングされており、同時に生じやすい感情が、近くにマッピングされている。
【0162】
これらの感情は、感情マップ400の3時の方向に分布しており、普段は安心と不安のあたりを行き来する。感情マップ400の右半分では、内部的な感覚よりも状況認識の方が優位に立つため、落ち着いた印象になる。
【0163】
感情マップ400の内側は心の中、感情マップ400の外側は行動を表すため、感情マップ400の外側に行くほど、感情が目に見える(行動に表れる)ようになる。
【0164】
ここで、人の感情は、姿勢や血糖値のような様々なバランスを基礎としており、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示す。ロボットや自動車やバイク等においても、姿勢やバッテリー残量のような様々なバランスを基礎として、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示すように感情を作ることができる。感情マップは、例えば、光吉博士の感情地図(音声感情認識及び情動の脳生理信号分析システムに関する研究、徳島大学、博士論文:https://ci.nii.ac.jp/naid/500000375379)に基づいて生成されてよい。感情地図の左半分には、感覚が優位にたつ「反応」と呼ばれる領域に属する感情が並ぶ。また、感情地図の右半分には、状況認識が優位にたつ「状況」と呼ばれる領域に属する感情が並ぶ。
【0165】
感情マップでは学習を促す感情が2つ定義される。1つは、状況側にあるネガティブな「懺悔」や「反省」の真ん中周辺の感情である。つまり、「もう2度とこんな想いはしたくない」「もう叱られたくない」というネガティブな感情がロボットに生じたときである。もう1つは、反応側にあるポジティブな「欲」のあたりの感情である。つまり、「もっと欲しい」「もっと知りたい」というポジティブな気持ちのときである。
【0166】
感情特定モデル60は、回答音声データ72の入力を、予め学習されたニューラルネットワークに入力し、感情マップ400に示す各感情を示す感情値を取得し、回答者の感情を決定する。このニューラルネットワークは、回答音声データ72の入力と、感情マップ400に示す各感情を示す感情値との組み合わせである複数の学習データに基づいて予め学習されたものである。また、このニューラルネットワークは、図11に示す感情マップ900のように、近くに配置されている感情同士は、近い値を持つように学習される。図11では、「安心」、「安穏」、「心強い」という複数の感情が、近い感情値となる例を示している。
【0167】
上記実施形態では、データ処理システム10に対して、サーバを想定したデータ処理装置12が実装されている形態例を挙げたが、本開示の技術はこれに限定されない。例えば、本開示の技術は、一般的な情報処理システムに実装されていてもよい。また、例えば、本開示の技術は、サーバ及び/又はパーソナル・コンピュータ等で動作するソフトウェアプログラム、又は、スマートデバイス等で動作するアプリケーションに実装されていてもよい。また、本開示の技術は、SaaS(Software as a Service)形式でユーザに対して提供されてもよい。また、上記実施形態では、データ処理装置12の一例として、サーバを例示したが、これは、あくまでも一例に過ぎず、本開示の技術は、サーバ以外の装置(例えば、パーソナル・コンピュータ等)によって実現されるようにしてもよい。
【0168】
上記実施形態では、1台のコンピュータ22によって調査実施処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、コンピュータ22を含めた複数のコンピュータによる調査実施処理に対する分散処理が行われるようにしてもよい。
【0169】
上記実施形態では、ストレージ32に調査実施プログラム56が格納されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、調査実施プログラム56がUSB(Universal Serial Bus)メモリなどの可搬型のコンピュータ読み取り可能な非一時的格納媒体に格納されていてもよい。非一時的格納媒体に格納されている調査実施プログラム56は、データ処理装置12のコンピュータ22にインストールされる。プロセッサ28は、調査実施プログラム56に従って調査実施処理を実行する。また、ネットワーク54を介してデータ処理装置12に接続されるサーバ等の格納装置に調査実施プログラム56を格納させておき、データ処理装置12の要求に応じて調査実施プログラム56がダウンロードされ、コンピュータ22にインストールされるようにしてもよい。
【0170】
なお、ネットワーク54を介してデータ処理装置12に接続されるサーバ等の格納装置に調査実施プログラム56の全てを格納させておいたり、ストレージ32に調査実施プログラム56の全てを記憶させたりしておく必要はなく、調査実施プログラム56の一部を格納させておいてもよい。
【0171】
調査実施処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、調査実施処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA(Field-Programmable Gate Array)、PLD(Programmable Logic Device)、又はASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで調査実施処理を実行する。
【0172】
調査実施処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、調査実施処理を実行するハードウェア資源は1つのプロセッサであってもよい。
【0173】
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、調査実施処理を実行するハードウェア資源として機能する形態がある。第2に、SoC(System-on-a-chip)などに代表されるように、調査実施処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、調査実施処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
【0174】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の調査実施処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
【0175】
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
【0176】
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
【0177】
<付記>
(1)
回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行する実行部と、
要約データ生成モデルを用いることにより前記回答を要約した要約データを生成する生成部と、
前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力する出力部と、を備える
データ処理装置。
【0178】
(2)
前記実行部は、
前記質問の音声を示す質問音声データを出力し、
前記回答の音声を示す回答音声データを取得する
(1)に記載のデータ処理装置。
【0179】
(3)
前記実行部は、前記質問音声データの出力と前記回答音声データの取得とを前記対話形式で実行する
(2)に記載のデータ処理装置。
【0180】
(4)
前記回答に基づいて前記回答者の感情を特定する特定部を更に備える
(1)から(3)の何れか1つに記載のデータ処理装置。
【0181】
(5)
前記実行部は、前記回答の音声を示す回答音声データを取得し、
前記特定部は、前記回答音声データの入力に応答して前記回答音声データに応じた前記感情に関する感情データを出力する感情特定モデルを用いることにより前記感情を特定する
(4)に記載のデータ処理装置。
【0182】
(6)
前記要約データに基づくデータは、前記特定部によって特定された前記感情と前記要約データとに基づいて生成されたデータである
(4)又は(5)に記載のデータ処理装置。
【0183】
(7)
前記要約データに基づくデータは、前記特定部によって特定された前記感情に基づいて前記要約データが分析された分析結果である
(6)に記載のデータ処理装置。
【0184】
(8)
前記回答者の属性を示す属性データを取得する取得部を更に備え、
前記要約データに基づくデータは、前記特定部によって特定された前記感情と前記取得部によって取得された前記属性データとに基づいて前記要約データが分析された分析結果である
(7)に記載のデータ処理装置。
【0185】
(9)
前記回答者の属性を示す属性データを取得する取得部を更に備え、
前記実行部は、
前記取得部によって取得された前記属性データに応じて定められた特徴を前記質問の表現形に付与し、
前記表現形に前記特徴が付与された前記質問を出力する
(1)から(8)の何れか1つに記載のデータ処理装置。
【0186】
(10)
前記表現形は音声であり、
前記実行部は、
前記特徴を前記音声に付与し、
前記特徴が付与された前記音声を示す質問音声データを出力する
(9)に記載のデータ処理装置。
【0187】
(11)
前記質問及び前記回答は、調査を目的の1つとして行われ、
前記実行部は、前記対話形式で前記回答と前記質問とのやり取りを行ったことを条件に、前記回答者に対して前記やり取りで得た前記回答の要約を前記調査の結果として用いても良いか否かの交渉を前記対話形式で実行する
(1)から(10)の何れか1つに記載のデータ処理装置。
【0188】
(12)
前記結果として用いる前記要約は、前記要約データであり、
前記実行部は、前記回答者に対して前記要約データの提示を実行する
(11)に記載のデータ処理装置。
【0189】
(13)
前記実行部は、前記要約を前記調査の結果として用いることに対して前記回答者が承諾したことを示す承諾データを取得する
(11)又は(12)に記載のデータ処理装置。
【0190】
(14)
前記実行部によって前記承諾データが取得されたことを条件に前記回答者に対して報酬を付与する付与部を更に備える
(13)に記載のデータ処理装置。
【0191】
(15)
前記出力部は、前記実行部によって前記承諾データが取得されたことを条件に、前記要約データ、及び前記要約データに基づくデータのうちの少なくとも1つを出力する
(13)又は(14)に記載のデータ処理装置。
【0192】
(16)
前記生成部は、返答生成モデルを用いることにより前記回答に対する返答を生成し、
前記実行部は、前記生成部によって生成された前記返答を前記回答者に提示し、
前記返答は、前記質問の一部である
(1)から(15)の何れか1つに記載のデータ処理装置。
【0193】
(17)
前記質問及び前記回答は、調査を目的の1つとして行われ、
前記質問及び前記返答のうちの少なくとも1つは、前記調査のテーマに沿った内容を含む
(16)に記載のデータ処理装置。
【0194】
(18)
前記質問及び前記回答は、調査を目的の1つとして行われ、
前記質問は、調査のテーマに沿った内容を含む
(1)から(17)の何れか1つに記載のデータ処理装置。
【0195】
(19)
回答者に対する質問と、前記回答者からの前記質問に対する回答とを対話形式で実行する実行部と、
前記回答に基づいて前記回答者の感情を特定する特定部と、を備える
データ処理装置。
【0196】
(20)
前記実行部は、前記回答の音声を示す回答音声データを取得し、
前記特定部は、前記回答音声データの入力に応答して前記回答音声データに応じた前記感情に関する感情データを出力する感情特定モデルを用いることにより前記感情を特定する
(19)に記載のデータ処理装置。
【0197】
(21)
前記回答者は、チャットアプリケーションの利用者である
(1)から(20)の何れか1つに記載のデータ処理装置。
【符号の説明】
【0198】
10 データ処理システム
12 データ処理装置
14 スマートデバイス
16 調査実施企業
18 調査依頼企業
20 人物
22,36 コンピュータ
24 データベース
24A ID
24B 属性データ
24C 報酬データ
26,44 通信I/F
28,46 プロセッサ
28A 実行部
28B 生成部
28C 特定部
28D 取得部
28E 分析部
28F 出力部
28G 付与部
30,48 RAM
32,50 ストレージ
34,52 バス
38 受付装置
38A タッチパネル
38B マイクロフォン
40 出力装置
40A ディスプレイ
40B スピーカ
42 カメラ
46A 制御部
54 ネットワーク
56 調査実施プログラム
58 対話生成モデル
60 感情特定モデル
62 受付出力プログラム
64 テンプレート
66 調査依頼データ
66A 調査テーマ
66B 対象属性データ
68 第1指示データ
70 対話相手データ
70A 対話開始データ
70Aa 対話開始音声データ
70Ab 対話開始テキストデータ
70B 返答データ
70B1 質問入り返答データ
70B2 要約入り返答データ
70Ba 返答音声データ
70Bb 返答テキストデータ
70B2a 要約データ
70C 対話終了データ
70Ca 対話終了音声データ
70Cb 対話終了テキストデータ
72 回答音声データ
74 第2指示データ
76 感情特定データ
78 データセット
80 分析結果データ
A キャラクタ
図1
図2
図3
図4
図5
図6
図7
図8A
図8B
図9A
図9B
図10
図11