IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤフー株式会社の特許一覧

<>
  • 特許-出力プログラム、出力装置及び出力方法 図1
  • 特許-出力プログラム、出力装置及び出力方法 図2
  • 特許-出力プログラム、出力装置及び出力方法 図3
  • 特許-出力プログラム、出力装置及び出力方法 図4
  • 特許-出力プログラム、出力装置及び出力方法 図5
  • 特許-出力プログラム、出力装置及び出力方法 図6
  • 特許-出力プログラム、出力装置及び出力方法 図7
  • 特許-出力プログラム、出力装置及び出力方法 図8
  • 特許-出力プログラム、出力装置及び出力方法 図9
  • 特許-出力プログラム、出力装置及び出力方法 図10
  • 特許-出力プログラム、出力装置及び出力方法 図11
  • 特許-出力プログラム、出力装置及び出力方法 図12
  • 特許-出力プログラム、出力装置及び出力方法 図13
  • 特許-出力プログラム、出力装置及び出力方法 図14
  • 特許-出力プログラム、出力装置及び出力方法 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-25
(45)【発行日】2024-01-09
(54)【発明の名称】出力プログラム、出力装置及び出力方法
(51)【国際特許分類】
   G06F 3/0481 20220101AFI20231226BHJP
【FI】
G06F3/0481
【請求項の数】 21
(21)【出願番号】P 2019069877
(22)【出願日】2019-04-01
(65)【公開番号】P2020170239
(43)【公開日】2020-10-15
【審査請求日】2021-03-17
【審判番号】
【審判請求日】2022-12-13
(73)【特許権者】
【識別番号】500257300
【氏名又は名称】LINEヤフー株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】鍜治 伸裕
【合議体】
【審判長】篠塚 隆
【審判官】山澤 宏
【審判官】野崎 大進
(56)【参考文献】
【文献】特開2018-45532(JP,A)
【文献】特開2018-156473(JP,A)
【文献】国際公開第2018/057537(WO,A1)
【文献】特開2016-206469(JP,A)
【文献】特開2015-196218(JP,A)
【文献】特開2017-119336(JP,A)
【文献】特開2004-234492(JP,A)
【文献】特開2011-100425(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/048-3/04895
(57)【特許請求の範囲】
【請求項1】
物理センサによって取得されたユーザの位置情報に基づいて、前記ユーザに対して対話システムとは異なるサービスで提供されている文字情報を含む所定のコンテンツに対応する反応情報であって、前記所定のコンテンツとは異なる反応情報を出力するタイミングであるか否かを判定し、前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合、前記所定のコンテンツを取得し、文字情報を含む入力情報が入力された場合に、前記入力情報に含まれる文字情報の要約であるサマリ情報と、前記入力情報を参照した参照ユーザに対して前記入力情報に関する発言を促す文章である契機情報であって、前記サマリ情報とは異なる契機情報とを含む前記反応情報を出力情報として出力するよう学習された機械学習モデルを用いて、前記所定のコンテンツから、前記所定のコンテンツに対応する前記反応情報を生成する生成手順と、
前記ユーザの位置情報に基づいて前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合に、前記生成手順によって生成された前記反応情報を前記ユーザに対して出力する出力手順と、
をコンピュータに実行させることを特徴とする出力プログラム。
【請求項2】
前記生成手順は、
前記ユーザに対して非タスク志向型対話システムである前記対話システムとは異なるサービスで提供されている前記所定のコンテンツに対応する前記反応情報を出力するタイミングであると判定された場合、前記所定のコンテンツを取得し、前記反応情報を生成する
ことを特徴とする請求項1に記載の出力プログラム。
【請求項3】
前記生成手順は、
前記所定のコンテンツとして、ニュース記事を取得し、前記反応情報を生成する
ことを特徴とする請求項1または2に記載の出力プログラム。
【請求項4】
前記生成手順は、
前記所定のコンテンツとして、所定のSNS(Social Networking Service)における投稿情報を取得し、前記反応情報を生成する
ことを特徴とする請求項1または2に記載の出力プログラム。
【請求項5】
前記生成手順は、
前記所定のコンテンツとして、広告であるコンテンツを取得し、前記反応情報を生成する
ことを特徴とする請求項1または2に記載の出力プログラム。
【請求項6】
前記生成手順は、
前記ユーザとの前記所定のコンテンツに関連する対話の契機となる前記反応情報を生成する
ことを特徴とする請求項1~5のいずれか1項に記載の出力プログラム。
【請求項7】
前記生成手順は、
前記所定のコンテンツに対する意見を前記ユーザに要求する前記反応情報を生成する
ことを特徴とする請求項1~6のいずれか1項に記載の出力プログラム。
【請求項8】
前記生成手順は、
前記ユーザに前記所定のコンテンツに関連する行動を促す前記反応情報を生成する
ことを特徴とする請求項1~7のいずれか1項に記載の出力プログラム。
【請求項9】
前記生成手順は、
前記ユーザに前記反応情報への応答以外の行動を促す前記反応情報を生成する
ことを特徴とする請求項8に記載の出力プログラム。
【請求項10】
前記出力手順は、
前記対話システムに対する前記ユーザによる前記所定のコンテンツの要求以外のタイミングで、前記反応情報を出力する
ことを特徴とする請求項1~9のいずれか1項に記載の出力プログラム。
【請求項11】
前記出力手順は、
前記対話システムにおけるプッシュ通知に関するタイミングで、前記反応情報を出力する
ことを特徴とする請求項1~10のいずれか1項に記載の出力プログラム。
【請求項12】
前記出力手順は、
前記ユーザのコンテキストに基づくタイミングで、前記反応情報を出力する
ことを特徴とする請求項1~11のいずれか1項に記載の出力プログラム。
【請求項13】
前記出力手順は、
前記対話システムに対する前記ユーザの発話から所定の期間が経過したタイミングで、前記反応情報を出力する
ことを特徴とする請求項12に記載の出力プログラム。
【請求項14】
前記出力手順は、
前記対話システムに対する行動以外の前記ユーザの行動であって、前記所定のコンテンツに関連する前記ユーザの行動が行われたタイミングで、前記反応情報を出力する
ことを特徴とする請求項12または請求項13に記載の出力プログラム。
【請求項15】
前記出力手順は、
前記ユーザが前記所定のコンテンツに関連する検索を行ったタイミングで、前記反応情報を出力する
ことを特徴とする請求項14に記載の出力プログラム。
【請求項16】
前記生成手順は、
前記所定のコンテンツを所定のモデルに入力することにより、前記反応情報を生成する
ことを特徴とする請求項1~15のいずれか1項に記載の出力プログラム。
【請求項17】
前記生成手順は、
前記ユーザに応じて選択される前記所定のコンテンツに基づいて、前記反応情報を生成する
ことを特徴とする請求項1~16のいずれか1項に記載の出力プログラム。
【請求項18】
前記出力手順は、
前記反応情報を音声出力する
ことを特徴とする請求項1~17のいずれか1項に記載の出力プログラム。
【請求項19】
前記出力手順は、
前記サマリ情報を出力した後に前記契機情報を出力する
ことを特徴とする請求項18に記載の出力プログラム。
【請求項20】
物理センサによって取得されたユーザの位置情報に基づいて、前記ユーザに対して対話システムとは異なるサービスで提供されている文字情報を含む所定のコンテンツに対応する反応情報であって、前記所定のコンテンツとは異なる反応情報を出力するタイミングであるか否かを判定し、前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合、前記所定のコンテンツを取得し、文字情報を含む入力情報が入力された場合に、前記入力情報に含まれる文字情報の要約であるサマリ情報と、前記入力情報を参照した参照ユーザに対して前記入力情報に関する発言を促す文章である契機情報であって、前記サマリ情報とは異なる契機情報とを含む前記反応情報を出力情報として出力するよう学習された機械学習モデルを用いて、前記所定のコンテンツから、前記所定のコンテンツに対応する前記反応情報を生成する生成部と、
前記ユーザの位置情報に基づいて前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合に、前記生成部によって生成された前記反応情報を前記ユーザに対して出力する出力部と、
を備えることを特徴とする出力装置。
【請求項21】
コンピュータが実行する出力方法であって、
物理センサによって取得されたユーザの位置情報に基づいて、前記ユーザに対して対話システムとは異なるサービスで提供されている文字情報を含む所定のコンテンツに対応する反応情報であって、前記所定のコンテンツとは異なる反応情報を出力するタイミングであるか否かを判定し、前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合、前記所定のコンテンツを取得し、文字情報を含む入力情報が入力された場合に、前記入力情報に含まれる文字情報の要約であるサマリ情報と、前記入力情報を参照した参照ユーザに対して前記入力情報に関する発言を促す文章である契機情報であって、前記サマリ情報とは異なる契機情報とを含む前記反応情報を出力情報として出力するよう学習された機械学習モデルを用いて、前記所定のコンテンツから、前記所定のコンテンツに対応する前記反応情報を生成する生成工程と、
前記ユーザの位置情報に基づいて前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合に、前記生成工程によって生成された前記反応情報を前記ユーザに対して出力する出力工程と、
を含んだことを特徴とする出力方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、出力プログラム、出力装置及び出力方法に関する。
【背景技術】
【0002】
従来、人からの話しかけに応答する装置に関する技術が知られている。例えば、景色や風景から連想可能な発話で人と対話する装置に関する技術が提案されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2018-147145号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記の従来技術では、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるとは限らない。例えば、上記の従来技術では、あらかじめ登録された発話コンテンツの中から、景色や風景から連想可能な発話文を選択するにすぎず、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるとは限らない。
【0005】
本願は、上記に鑑みてなされたものであって、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができる出力プログラム、出力装置及び出力方法を提供することを目的とする。
【0006】
本願に係る出力プログラムは、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する取得手順と、前記取得手順により取得された前記反応情報を前記ユーザに対して出力する出力手順と、をコンピュータに実行させることを特徴とする。
【発明の効果】
【0007】
実施形態の一態様によれば、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるといった効果を奏する。
【図面の簡単な説明】
【0008】
図1図1は、実施形態に係る出力処理の一例を示す図である。
図2図2は、実施形態に係る出力装置の構成例を示す図である。
図3図3は、実施形態に係るセンサ情報記憶部の一例を示す図である。
図4図4は、実施形態に係るコンテンツ記憶部の一例を示す図である。
図5図5は、実施形態に係る反応情報記憶部の一例を示す図である。
図6図6は、実施形態に係るモデル情報記憶部の一例を示す図である。
図7図7は、実施形態に係るモデルの一例を示す図である。
図8図8は、実施形態に係る学習データ記憶部の一例を示す図である。
図9図9は、実施形態に係る出力処理手順を示すフローチャートである。
図10図10は、実施形態に係るコンテンツ配信装置の構成例を示す図である。
図11図11は、実施形態に係るユーザ情報記憶部の一例を示す図である。
図12図12は、実施形態に係るコンテンツ記憶部の一例を示す図である。
図13図13は、変形例に係る出力処理の一例を示す図である。
図14図14は、変形例に係る出力処理の一例を示す図である。
図15図15は、出力装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0009】
以下に、本願に係る出力プログラム、出力装置及び出力方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る出力プログラム、出力装置及び出力方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
【0010】
〔1.出力処理の一例〕
まず、図1を用いて、実施形態に係る出力処理の一例について説明する。図1は、実施形態に係る出力処理の一例を示す図である。図1に例示するように、出力処理システム1には、コンテンツ配信装置20と、出力装置100とが含まれる。これらの各種装置は、ネットワークN(例えば、インターネット)を介して、有線又は無線により通信可能に接続される。なお、図2に示した出力処理システム1には、任意の数のコンテンツ配信装置20と任意の数の出力装置100とが含まれていてもよい。
【0011】
コンテンツ配信装置20は、コンテンツを配信する情報処理装置である。図1に示す例において、コンテンツ配信装置20は、出力装置100からの配信要求に応じて、出力装置100において表示されるコンテンツの一例であるニュース記事を配信する。
【0012】
出力装置100は、ユーザとの雑談や他愛のない会話といった非タスク志向型の対話を行うシステムである非タスク志向型対話システム(non-task-oriented dialogue systems)である。なお、タスク志向型対話システムは、ユーザの要求に応じて、検索やニュース読み上げや予約代行などのタスクを行うシステムを指す。出力装置100は、テキストや音声を通じてユーザとの対話を自動的に行うプログラムであるチャットボット(chatbot)の一種である。出力装置100は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得し、取得した反応情報をユーザに対して出力する情報処理装置である。
【0013】
また、出力装置100は、周囲の音を取得するマイク等の取得装置と、任意の音を出力可能なスピーカー等の出力装置とを有する入出力装置とを有する入出力装置であり、例えば、スマートスピーカーと呼ばれるデバイスである。また、出力装置100は、音楽の出力や音声による情報提供を実現可能な装置である。また、出力装置100は、音の入力を受付ける受付機能を有しユーザが発した音声を取得すると、取得した音声の内容に応じた音を出力する出力機能を有する。なお、出力装置100は、スマートスピーカー以外にも、スマートフォンやタブレット等といった各種の情報処理装置であってもよい。図1では、出力装置100がスマートフォンである例を示す。また、出力装置100は、必ずしもスピーカー等の出力装置を有する必要はない。例えば、出力装置100は、音声に代えて、文字列等の情報を表示することで各種の情報をユーザに対して出力してもよい。
【0014】
また、出力装置100は、出力装置100を利用するユーザの物理的な状態を検知するセンサである物理センサを備える。例えば、出力装置100は、ジャイロセンサ、画像センサ、加速度センサ、温度センサ、音量センサ、明度センサ等、任意の物理センサを備える。出力装置100は、物理センサによって出力装置100を利用するユーザの物理的な状態を検知する。また、出力装置100は、物理センサによってユーザの物理的な状態に関する情報であるセンサ情報を取得する。出力装置100は、取得したセンサ情報に基づいて、ユーザに対して反応情報を出力するタイミングを判定する。図1に示す例では、出力装置100は、取得したセンサ情報に基づいて、ユーザに対して反応情報を音声によって出力するタイミングであるか否かを判定する。
【0015】
ここから、図1を用いて、出力処理の流れについて説明する。図1は、実施形態に係る出力処理の一例を示す図である。図1に示す例では、出力装置100は、音量センサによって、ユーザによる発話を示すユーザの音声に関する音声情報を取得する(ステップS11)。出力装置100は、音声情報を取得すると、取得した音声情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS12)。具体的には、出力装置100は、対話システムに対するユーザの発話から所定の期間が経過したタイミングであるか否かを判定する。例えば、出力装置100は、取得した音声情報に基づいて、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、出力装置100は、ユーザに対して反応情報を出力するタイミングであると判定した場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS13)。
【0016】
コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から受け付ける。コンテンツ配信装置20は、コンテンツの配信要求を受け付けると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS14)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、ネット通販会社であるA社で労働組合が結成されたことに関するニュース記事であるコンテンツ#1を出力装置100に配信する。
【0017】
出力装置100は、コンテンツ配信装置20からコンテンツ#1を取得する(ステップS15)。出力装置100は、コンテンツ#1を取得すると、取得したコンテンツ#1をモデルM1に入力することにより、コンテンツ#1に対する反応を示す文字情報である反応情報#1を生成する(ステップS16)。具体的には、出力装置100は、コンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を生成する。また、出力装置100は、ユーザとのコンテンツ#1に関連する対話の契機となる文字情報である契機情報R12を生成する。より具体的には、出力装置100は、コンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を生成する。出力装置100は、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する。出力装置100は、反応情報#1を生成すると、生成した反応情報#1を取得する。なお、図1では、反応情報#1がサマリ情報R11と契機情報R12の両方を含む文字情報である例について説明したが、反応情報#1はサマリ情報R11を含まなくてもよい。すなわち、反応情報#1が契機情報R12であってもよい。
【0018】
出力装置100は、反応情報#1を取得すると、反応情報#1を音声出力する(ステップS17)。具体的には、出力装置100は、サマリ情報R11を音声出力した後に契機情報R12を音声出力する。
【0019】
上述したように、出力装置100は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。また、出力装置100は、取得した反応情報をユーザに対して出力する。これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。すなわち、出力装置100は、装置から人へ自発的に適切に話しかけることができる。したがって、出力装置100は、対話システムへのユーザによる入力に寄らずに適切な情報を出力するができる。
【0020】
〔2.出力装置の構成〕
次に、図2を用いて、実施形態に係る出力装置100の構成について説明する。図2は、実施形態に係る出力装置100の構成例を示す図である。図2に示すように、出力装置100は、通信部110と、記憶部120と、入力部130と、表示部140と、物理センサ150と、制御部160とを有する。
【0021】
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、コンテンツ配信装置20との間で情報の送受信を行う。
【0022】
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、出力プログラム等を記憶する。また、記憶部14は、図2に示すように、センサ情報記憶部121とコンテンツ記憶部122と反応情報記憶部123とモデル情報記憶部124と学習データ記憶部125とを有する。
【0023】
(センサ情報記憶部121)
センサ情報記憶部121は、物理センサによる検知に関する各種情報を記憶する。例えば、センサ情報記憶部121は、物理センサにより検知されたセンサ情報を記憶する。図3を用いて、実施形態に係るセンサ情報記憶部の一例について説明する。図3は、実施形態に係るセンサ情報記憶部の一例を示す図である。図3に示す例では、センサ情報記憶部121は、「ログID」、「種別」、「センサ情報」、「日時」、「位置」といった項目を有する。
【0024】
「ログID」は、取得されたセンサ情報を識別するための識別情報を示す。「種別」は、検知されたセンサ情報の種別に関する情報を示す。「センサ情報」は、検知されたセンサ情報を示す。図3では「センサ情報」に「SN11」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。
【0025】
例えば、センサ情報の種別「画像」である場合、「センサ情報」には、ユーザの姿をとらえた静止画像や動画像、または、これらの格納場所を示すファイルパス名などが格納される。また、例えば、センサ情報の種別「発話」である場合、「センサ情報」には、ユーザの発話を示す音声データや音声データを変換後の文字情報、または、これらの格納場所を示すファイルパス名などが格納される。
【0026】
「日時」は、センサ情報が検知された日時を示す。図3では「日時」を「dt11」等のように抽象的に図示するが、「2019年3月23日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2019年3月23日22時31分」や「2019年3月23日22時30-31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、図3では「位置」を「LC11」といった抽象的な符号で図示するが、緯度や経度を示す情報や「X県Y市Z町B交差点」等のような住所を示す情報が記憶されてもよい。
【0027】
(コンテンツ記憶部122)
コンテンツ記憶部122は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ記憶部122は、コンテンツ配信装置20から取得したコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部122は、ニュース記事、SNS(Social Networking Service)における投稿情報、広告、映画等のレビューであるコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部122は、コンテンツを形成するHTMLファイルや、コンテンツに表示される文字情報や静止画像や動画像を記憶する。図4を用いて、実施形態に係るコンテンツ記憶部の一例について説明する。図4は、実施形態に係るコンテンツ記憶部の一例を示す図である。図4に示す例では、コンテンツ記憶部122は、「コンテンツID」、「コンテンツ」、「取得日時」といった項目を有する。
【0028】
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等のコンテンツに含まれる文字情報を示す。図4では「コンテンツ」に「コンテンツ#11」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「取得日時」は、コンテンツが取得された日時を示す。
【0029】
(反応情報記憶部123)
反応情報記憶部123は、反応情報に関する各種情報を記憶する。例えば、反応情報記憶部123は、出力装置100が生成した反応情報を記憶する。図5を用いて、実施形態に係る反応情報記憶部の一例について説明する。図5は、実施形態に係る反応情報記憶部の一例を示す図である。図5に示す例では、反応情報記憶部123は、「反応ID」、「反応情報」、「ユーザによる応答」、「生成日時」、「コンテンツID」といった項目を有する。
【0030】
「反応ID」は、反応情報を識別するための識別情報を示す。「反応情報」は、コンテンツIDで識別されるコンテンツに対する反応を示す文字情報を示す。「コンテンツID」は、反応の対象となるコンテンツを識別するための識別情報を示す。「ユーザによる応答」は、反応情報に対するユーザの応答の有無を示す。具体的には、反応情報に対するユーザによる応答があった場合は「1」を、反応情報に対するユーザによる応答がなかった場合は「0」が格納される。「生成日時」は、反応情報が生成された日時を示す。
【0031】
(モデル情報記憶部124)
モデル情報記憶部124は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応を示す文字情報である反応情報を生成するモデルに関する各種情報を記憶する。例えば、モデル情報記憶部124は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するモデルを記憶する。図6を用いて、実施形態に係るモデル情報記憶部の一例について説明する。図6は、実施形態に係るモデル情報記憶部の一例を示す図である。図6に示す例では、モデル情報記憶部124は、「モデルID」、「モデルデータ」といった項目を有する。
【0032】
「モデルID」は、反応情報を生成するモデルを識別するための識別情報を示す。「モデルデータ」は、モデルのモデルデータを示す。例えば、「モデルデータ」には、対話システムにユーザにより入力される第1情報以外の第2情報から第2情報に対する反応を示す文字情報である反応情報を生成するためのデータが格納される。
【0033】
ここで、図7を用いて、実施形態に係るモデルの一例について説明する。図7に、実施形態に係るモデルの一例を示す。図7では、対話システムにユーザにより入力される第1情報以外の第2情報から第2情報に対する反応を示す文字情報である反応情報を生成するモデルM1がSeq2Seq(Sequence to Sequence Model)である例について説明する。Seq2Seqは、語句の並び(文字列)を入力して、別の語句の並び(文字列)を出力するルールを学習するモデルである。具体的には、Seq2Seqは、RNN(Recurrent Neural Network)の一種であるLSTM(Long Short Term Memory)を構成要素とするEncoder-Decoderモデルである。
【0034】
図7に示す例では、「ABC」という文字列を入力して、「WXYZ」という文字列を出力する例を示す。図1に示す例に当てはめると、「ABC」は、「ネット通販大手A社で労働組合が結成された。「恣意的な人事評価」の廃止を訴えている。」というニュース記事であるコンテンツ#1の文字情報である。また、「WXYZ」は、「A社で労働組合が結成されたみたいです。ストが起きますかね?」というコンテンツ#1に対する反応を示す文字情報である。このような「ABC」(ニュース記事であるコンテンツ#1)と「WXYZ」(コンテンツ#1に対する応答を示す反応情報#1)の組があった場合、Seq2SeqであるモデルM1は、図7の「ABC」が入力されているEncoder側で「ABC」をベクトル化し、図7の「WXYZ」が出力されているDecoder側で「WXYZ」を生成するようにRNNの学習を行う。
【0035】
モデルデータMDT1は、第2情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された第2情報に応じて、入力層に入力された第2情報に対する反応を示す反応情報を出力層から出力するよう、出力装置100を機能させてもよい。
【0036】
ここで、モデルデータMDT1が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、モデルデータMDT1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。
【0037】
また、モデルデータMDT1がDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、モデルデータMDT1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。
【0038】
出力装置100は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、反応情報の出力を行う。具体的には、モデルデータMDT1は、第2情報が入力された場合に、第2情報に対する反応を示す反応情報を出力するように係数が設定される。出力装置100は、このようなモデルデータMDT1を用いて、第2情報に対する反応を示す反応情報を出力する。
【0039】
なお、上記例では、モデルデータMDT1が、第2情報が入力された場合に、第2情報に対する反応を示す反応情報を出力するモデル(以下、モデルXという。)である例を示した。しかし、実施形態に係るモデルデータMDT1は、モデルXにデータの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルデータMDT1は、第2情報を入力とした際に、モデルXが出力した第2情報に対する反応を示す反応情報を入力して学習されたモデル(以下、モデルYという。)であってもよい。または、モデルデータMDT1は、第2情報を入力とし、モデルYの出力値を出力とするよう学習されたモデルであってもよい。
【0040】
また、出力装置100がGAN(Generative Adversarial Networks)を用いた推定処理を行う場合、モデルデータMDT1は、GANの一部を構成するモデルであってもよい。
【0041】
(学習データ記憶部125)
学習データ記憶部125は、モデルの学習データ(正解データ)に関する各種情報を記憶する。例えば、学習データ記憶部125は、コンテンツと、そのコンテンツに対する反応を示す文字情報である反応情報を記憶する。図8を用いて、実施形態に係る学習データ記憶部の一例について説明する。図8は、実施形態に係る学習データ記憶部の一例を示す図である。図8に示す例では、学習データ記憶部125は、「学習データID」、「コンテンツ」、「反応情報」、「日時」といった項目を有する。
【0042】
「学習データID」は、学習データを識別するための識別情報を示す。「コンテンツ」は、ニュース記事、SNS(Social Networking Service)における投稿情報、広告、映画のレビュー等のコンテンツに含まれる文字情報を示す。図8では「コンテンツ」に「コンテンツ#1-1」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「反応情報」は、コンテンツに対する反応を示す文字情報を示す。「日時」は、モデルが学習データを学習した日時を示す。
【0043】
(入力部130)
入力部130は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部130は、キーボードやマウスや操作キー等によって実現される。
【0044】
(表示部140)
表示部140は、各種情報を表示するための表示装置であり、すなわち、画面である。例えば、表示部140は、液晶ディスプレイ等によって実現される。なお、出力装置100にタッチパネルが採用される場合には、入力部130と表示部140とは一体化される。また、以下の説明では、表示部140を画面と記載する場合がある。
【0045】
(物理センサ150)
物理センサ150は、出力装置100を利用するユーザの物理的な状態を検知するセンサである。例えば、物理センサ150は、出力装置100の3軸方向の傾きを測定するジャイロセンサ、画像センサ、加速度センサ、温度センサ、音量センサ、明度センサ等、任意のセンサが適用可能である。
【0046】
物理センサ150は、出力装置100を利用するユーザの物理的な状態に関する情報であるセンサ情報を取得する。物理センサ150は、センサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部121に格納する。具体的には、音量センサである物理センサ150は、ユーザによる発話を示すユーザの音声に関する音声情報を取得する。音量センサである物理センサ150は、音声情報を取得すると、取得した音声情報をセンサ情報記憶部121に格納する。また、画像センサである物理センサ150は、ユーザの画像に関する画像情報を取得する。画像センサである物理センサ150は、画像情報を取得すると、取得した画像情報をセンサ情報記憶部121に格納する。また、加速度センサである物理センサ150は、ユーザの動きに伴う加速度に関する加速度情報を取得する。加速度センサである物理センサ150は、加速度情報を取得すると、取得した加速度情報をセンサ情報記憶部121に格納する。
【0047】
(制御部160)
制御部160は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、出力装置100内部の記憶装置に記憶されている各種プログラム(出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、ウェブブラウザと呼ばれるアプリケーションプログラムに該当する。また、制御部160は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
【0048】
図2に示すように、制御部160は、判定部161と、要求部162と、生成部163と、取得部164と、出力部165とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部160の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
【0049】
(判定部161)
判定部161は、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。具体的には、判定部161は、センサ情報記憶部121を参照して、出力装置100を利用するユーザの物理的な状態に関する情報であるセンサ情報を取得する。続いて、判定部161は、センサ情報を取得すると、取得したセンサ情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。
【0050】
また、判定部161は、対話システムに対するユーザによる第2情報の要求以外のタイミングであるか否かを判定する。より具体的には、出力部165は、ユーザのコンテキストに基づくタイミングであるか否かを判定する。図1に示す例では、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングであるか否かを判定する。図1に示す例では、判定部161は、センサ情報記憶部121を参照して、ログLG1等の音声情報を取得する。続いて、判定部161は、音声情報を取得すると、取得した音声情報に基づいて、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであるか否かを判定する。判定部161は、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。
【0051】
なお、判定部161は、ユーザの位置情報に基づいてユーザに対して反応情報を出力するタイミングであるか否かを判定してもよい。例えば、判定部161は、センサ情報記憶部121の「位置」に格納された位置情報を参照して、出力装置100を利用するユーザの位置情報を取得する。続いて、判定部161は、取得した位置情報に基づいて、ユーザが屋内にいるか屋外にいるかを判定する。例えば、判定部161は、ユーザがユーザの自宅にいると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定してもよい。また、判定部161は、ユーザが公園にいると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定してもよい。
【0052】
(要求部162)
要求部162は、コンテンツの配信を要求する。具体的には、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する。また、要求部162は、コンテンツ配信装置20からコンテンツを受信する。要求部162は、コンテンツを受信すると、受信したコンテンツをコンテンツ記憶部122に格納する。
【0053】
(生成部163)
生成部163は、第2情報から反応情報を生成する。具体的には、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を取得する。より具体的には、生成部163は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報を取得する。また、生成部163は、ユーザに応じて選択される第2情報を取得する。例えば、生成部163は、所定のコンテンツである第2情報を取得する。図1に示す例では、生成部163は、ニュース記事である第2情報を取得する。より具体的には、生成部163は、コンテンツ記憶部122を参照して、ニュース記事であるコンテンツ#1を取得する。
【0054】
続いて、生成部163は、第2情報を取得すると、取得した第2情報を所定のモデルに入力することにより、反応情報を生成する。生成部163は、反応情報を生成すると、生成した反応情報を反応情報記憶部123に格納する。より具体的には、生成部163は、第2情報を取得すると、モデル情報記憶部124を参照して、モデルM1を取得する。例えば、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するモデルM1を取得する。例えば、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するSeq2SeqであるモデルM1を取得する。続いて、生成部163は、モデルM1を取得すると、取得したモデルM1に第2情報を入力する。生成部163は、モデルM1の出力情報を反応情報として取得する。このようにして、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応を示す文字情報である反応情報を生成する。より具体的には、生成部163は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を生成する。また、生成部163は、ユーザに応じて選択される第2情報に対する反応情報を生成する。例えば、生成部163は、所定のコンテンツである第2情報に対する反応情報を生成する。図1に示す例では、生成部163は、ニュース記事である第2情報に対する反応情報を生成する。より具体的には、生成部163は、コンテンツ配信装置20によってユーザに応じて選択されたニュース記事であるコンテンツ#1に対する反応を示す反応情報を生成する。
【0055】
また、生成部163は、第2情報の要約であるサマリ情報を生成する。図1に示す例では、生成部163は、ニュース記事であるコンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を生成する。また、生成部163は、ユーザとの第2情報に関連する対話の契機となる反応情報を生成する。例えば、生成部163は、第2情報に対する意見をユーザに要求する反応情報を取得する。図1に示す例では、生成部163は、ニュース記事であるコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を生成する。生成部163は、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する。なお、図1では、生成部163が、サマリ情報R11と契機情報R12の両方を含む反応情報#1を生成する例について説明したが、サマリ情報R11を含まない反応情報#1を生成してもよい。すなわち、生成部163は、契機情報R12である反応情報#1を生成してもよい。
【0056】
(取得部164)
取得部164は、生成部163により生成された反応情報を取得する。具体的には、取得部164は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。より具体的には、取得部164は、具体的には、取得部164は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を取得する。例えば、取得部164は、所定のコンテンツである第2情報に対する反応情報を取得する。また、取得部164は、ユーザに応じて選択される第2情報に対する反応情報を取得する。図1に示す例では、取得部164は、ニュース記事である第2情報に対する反応情報を取得する。より具体的には、取得部164は、コンテンツ配信装置20によってユーザに応じて選択されたニュース記事であるコンテンツ#1に対する反応を示す反応情報を取得する。
【0057】
また、取得部164は、第2情報の要約であるサマリ情報を取得する。図1に示す例では、取得部164は、ニュース記事であるコンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を取得する。また、取得部164は、ユーザとの第2情報に関連する対話の契機となる反応情報を取得する。例えば、取得部164は、第2情報に対する意見をユーザに要求する反応情報を取得する。図1に示す例では、取得部164は、ニュース記事であるコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を取得する。取得部164は、サマリ情報R11と契機情報R12とを含む反応情報#1を取得する。なお、図1では、取得部164が、サマリ情報R11と契機情報R12の両方を含む反応情報#1を取得する例について説明したが、サマリ情報R11を含まない反応情報#1を取得してもよい。すなわち、取得部164は、契機情報R12である反応情報#1を取得してもよい。
【0058】
(出力部165)
出力部165は、取得部164により取得された反応情報をユーザに対して出力する。具体的には、出力部165は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合に、取得部164により取得された反応情報をユーザに対して出力する。より具体的には、出力部165は、対話システムに対するユーザによる第2情報の要求以外のタイミングで、反応情報を出力する。例えば、出力部165は、ユーザのコンテキストに基づくタイミングで、反応情報を出力する。図1に示す例では、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングで、反応情報を出力する。
【0059】
また、出力部165は、サマリ情報と反応情報とを出力する。より具体的には、出力部165は、サマリ情報を出力した後に反応情報を出力する。また、出力部165は、反応情報を音声出力する。図1に示す例では、出力部165は、サマリ情報R11を音声出力した後に契機情報R12を音声出力する。
【0060】
〔3.出力処理のフロー〕
次に、図9を用いて、実施形態に係る出力処理の手順について説明する。図9は、第1の実施形態に係る出力処理手順を示すフローチャートである。図9に示す例では、出力装置100は、センサ情報に基づいて、反応情報を出力するタイミングであるか否かを判定する(ステップS101)。出力装置100は、反応情報を出力するタイミングでないと判定した場合(ステップS101;No)、処理を終了する。
【0061】
一方、出力装置100は、反応情報を出力するタイミングであると判定した場合(ステップS101;Yes)、コンテンツ配信装置20から所定のコンテンツを取得する(ステップS102)。続いて、出力装置100は、所定のコンテンツを取得すると、所定のコンテンツに対する反応情報を生成する(ステップS103)。続いて、出力装置100は、反応情報を生成すると、生成した反応情報を出力する(ステップS104)。
【0062】
〔4.コンテンツ配信装置の構成〕
次に、図10を用いて、実施形態に係るコンテンツ配信装置20の構成について説明する。図10は、実施形態に係るコンテンツ配信装置20の構成例を示す図である。図10に示すように、コンテンツ配信装置20は、通信部21と、記憶部22と、制御部23とを有する。
【0063】
(通信部21)
通信部21は、例えば、NIC等によって実現される。そして、通信部21は、ネットワークNと有線または無線で接続され、出力装置100との間で情報の送受信を行う。
【0064】
(記憶部22)
記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部14は、図10に示すように、ユーザ情報記憶部221とコンテンツ記憶部222とを有する。
【0065】
(ユーザ情報記憶部221)
ユーザ情報記憶部221は、ユーザに関する各種情報を記憶する。図11を用いて、実施形態に係るユーザ情報記憶部の一例について説明する。図11は、実施形態に係るユーザ情報記憶部の一例を示す図である。図11に示す例では、ユーザ情報記憶部221は、「ユーザID」、「ユーザ情報」といった項目を有する。
【0066】
「ユーザID」は、ユーザを識別するための識別情報を示す。「ユーザ情報」は、ユーザに関する情報を示す。例えば、「ユーザ情報」は、ユーザが興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードである。なお、「ユーザ情報」には、ユーザの年齢、性別、居住地、家族のライフサイクル、所得、職業といったユーザのデモグラフィック情報が含まれてもよい。また、「ユーザ情報」は、ユーザの価値観、ライフスタイル、性格、好みなどのサイコグラフィック情報が含まれてもよい。
【0067】
(コンテンツ記憶部222)
コンテンツ記憶部222は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ記憶部222は、ニュース記事、SNSにおける投稿情報、広告、映画等のレビューであるコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部222は、コンテンツを形成するHTMLファイルや、コンテンツに表示される静止画像や動画像を記憶する。図12を用いて、実施形態に係るコンテンツ記憶部の一例について説明する。図12は、実施形態に係るコンテンツ記憶部の一例を示す図である。図12に示す例では、コンテンツ記憶部222は、「コンテンツID」、「コンテンツ」、「種別」といった項目を有する。
【0068】
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等のコンテンツに含まれる文字情報を示す。図12では「コンテンツ」に「コンテンツ#1」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「種別」は、コンテンツの種別を示す。例えば、「種別」は、そのコンテンツがニュース記事であるか、SNSにおける投稿情報であるか、広告であるか、映画のレビューであるかといった種別を示す。
【0069】
(制御部23)
制御部23は、例えば、CPUやMPU等によって、コンテンツ配信装置20内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部23は、例えば、ASICやFPGA等の集積回路により実現される。
【0070】
図10に示すように、制御部23は、受付部231と、選択部232と、配信部233とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部23の内部構成は、図10に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
【0071】
(受付部231)
受付部231は、コンテンツの配信要求を受け付ける。受付部231は、コンテンツの配信要求を受信する。具体的には、受付部231は、出力装置100からコンテンツの配信要求を受信する。
【0072】
(選択部232)
選択部232は、ユーザに応じたコンテンツを選択する。具体的には、選択部232は、受付部231によってコンテンツの配信要求が受け付けられると、要求元の出力装置100を利用するユーザを特定する。例えば、選択部232は、ユーザ情報記憶部221を参照して、要求元の出力装置100を利用するユーザを特定する。続いて、選択部232は、ユーザを特定すると、ユーザ情報記憶部221を参照して、特定したユーザに紐づくユーザ情報を取得する。選択部232は、ユーザ情報を取得すると、取得したユーザ情報に基づいて、ユーザに応じたコンテンツを選択する。例えば、選択部232は、ユーザ情報に基づいて、ユーザが興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードを取得する。続いて、選択部232は、コンテンツ記憶部222を参照して、取得したキーワードが設定されたコンテンツをユーザに応じたコンテンツとして選択する。
【0073】
図1に示す例では、選択部232は、ユーザU1を特定すると、ユーザ情報記憶部221を参照して、特定したユーザU1に紐づくユーザ情報#1を取得する。続いて、選択部232は、ユーザ情報#1を取得すると、取得したユーザ情報#1に基づいて、ユーザU1が興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードを取得する。続いて、選択部232は、コンテンツ記憶部222を参照して、取得したキーワードが設定されたニュース記事であるコンテンツ#1をユーザU1に応じたコンテンツとして選択する。
【0074】
(配信部233)
配信部233は、選択部232によって選択されたコンテンツを配信する。具体的には、配信部233は、選択部232によって選択されたコンテンツを出力装置100に配信する。図1に示す例では、配信部233は、選択部232によって選択されたコンテンツ#1を出力装置100に配信する。
【0075】
〔5.変形例〕
上述した実施形態に係る出力処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、出力処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
【0076】
〔5-1.対話システムの感想を示す反応情報の出力処理〕
図1では、出力装置100がコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を出力する例について説明したが、反応情報はコンテンツに対する意見をユーザに要求する文字情報に限られない。図13では、出力装置100が対話システムの第2情報に対する感想を示す反応情報を出力する例について説明する。図13に示す例では、取得部164は、対話システムの第2情報に対する感想を示す反応情報を取得する。
【0077】
ここから、図13を用いて、変形例に係る出力処理の一例について説明する。図13は、変形例に係る出力処理の一例を示す図である。図13に示す例では、判定部161は、センサ情報記憶部121を参照して、ユーザの画像に関する画像情報を取得する(ステップS21)。判定部161は、画像情報を取得すると、取得した画像情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS22)。具体的には、判定部161は、取得した画像情報に基づいて、所定時間以上(例えば、5分以上)ユーザが静止状態であると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS23)。
【0078】
コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から取得する。コンテンツ配信装置20は、コンテンツの配信要求を取得すると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS24)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、政府が被災地の全避難所を対象にタブレット端末を配布することに関するニュース記事であるコンテンツ#2を出力装置100に配信する。
【0079】
生成部163は、コンテンツ配信装置20からコンテンツ#2を取得する(ステップS25)。生成部163は、コンテンツ#2を取得すると、取得したコンテンツ#2をモデルM1に入力することにより、コンテンツ#2に対する反応を示す文字情報である反応情報#2を生成する(ステップS26)。具体的には、生成部163は、コンテンツ#2の要約に相当する文字情報である「政府は全避難所を対象にタブレット端末を配布するそうです。」というサマリ情報R21を生成する。また、生成部163は、ユーザとのコンテンツ#2に関連する対話の契機となる文字情報である契機情報R22を生成する。より具体的には、生成部163は、対話システムのコンテンツ#2に対する感想を示す文字情報である「停電しても使えるようなものであってほしいです。」という契機情報R22を生成する。生成部163は、サマリ情報R21と契機情報R22とを含む反応情報#2を生成する。取得部164は、生成部163によって生成された反応情報#2を取得する。なお、図13では、生成部163が、サマリ情報R21と契機情報R22の両方を含む反応情報#2を生成する例について説明したが、サマリ情報R21を含まない反応情報#2を生成してもよい。すなわち、生成部163は、契機情報R22である反応情報#2を生成してもよい。
【0080】
出力部165は、取得部164によって取得された反応情報#2を音声出力する(ステップS27)。具体的には、出力装置100は、サマリ情報R21を音声出力した後に契機情報R22を音声出力する。
【0081】
〔5-2.ユーザの行動を促す反応情報の出力処理〕
図1では、出力装置100がコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を含む反応情報#1を出力する例について説明したが、反応情報はコンテンツに対する意見をユーザに要求する文字情報に限られない。図14では、出力装置100がユーザに第2情報に関連する行動を促す反応情報を出力する例について説明する。図14に示す例では、取得部164は、ユーザに第2情報に関連する行動を促す反応情報を取得する。具体的には、取得部164は、ユーザに反応情報への応答以外の行動を促す反応情報を取得する。
【0082】
また、図1では、出力装置100がニュース記事であるコンテンツ#1に対する反応情報#2を取得する例について説明したが、出力装置100が広告である第2情報に対する反応情報を取得してもよい。図14に示す例では、取得部164は、広告である第2情報に対する反応情報を取得する。
【0083】
ここから、図14を用いて、変形例に係る出力処理の一例について説明する。図14は、変形例に係る出力処理の一例を示す図である。図14に示す例では、判定部161は、センサ情報記憶部121を参照して、ユーザの動きに伴う加速度に関する加速度情報を取得する(ステップS31)。判定部161は、加速度情報を取得すると、取得した加速度情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS32)。具体的には、判定部161は、取得した加速度情報に基づいて、所定時間以上(例えば、5分以上)ユーザが静止状態であると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS33)。
【0084】
コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から取得する。コンテンツ配信装置20は、コンテンツの配信要求を取得すると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS34)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、商品Cが新発売されたことに関する広告であるコンテンツ#3を出力装置100に配信する。
【0085】
生成部163は、コンテンツ配信装置20からコンテンツ#3を取得する(ステップS35)。生成部163は、コンテンツ#3を取得すると、取得したコンテンツ#3をモデルM1に入力することにより、コンテンツ#3に対する反応を示す文字情報である反応情報#3を生成する(ステップS36)。具体的には、生成部163は、コンテンツ#3の要約に相当する文字情報である「商品Cが発売されたみたいですね。」というサマリ情報R31を生成する。また、生成部163は、ユーザとのコンテンツ#3に関連する対話の契機となる文字情報である契機情報R32を生成する。より具体的には、生成部163は、ユーザにコンテンツ#3に関連する行動を促す文字情報である契機情報R32を生成する。例えば、生成部163は、ユーザに反応情報#3への応答以外の行動を促す文字情報である「今度一緒に買いに行ってみませんか?」という契機情報R32を生成する。生成部163は、サマリ情報R31と契機情報R32とを含む反応情報#2を生成する。取得部164は、生成部163によって生成された反応情報#3を取得する。なお、図14では、生成部163が、サマリ情報R31と契機情報R32の両方を含む反応情報#3を生成する例について説明したが、サマリ情報R31を含まない反応情報#3を生成してもよい。すなわち、生成部163は、契機情報R32である反応情報#3を生成してもよい。
【0086】
出力部165は、取得部164によって取得された反応情報#3を音声出力する(ステップS37)。具体的には、出力装置100は、サマリ情報R31を音声出力した後に契機情報R32を音声出力する。
【0087】
なお、図14では、出力装置100がニュース記事以外のコンテンツとして、広告であるコンテンツ#2に対する反応情報#2を取得する例について説明したが、ニュース記事以外のコンテンツは広告に限られない。具体的には、取得部164は、所定のSNS(Social Networking Service)における投稿情報である第2情報に対する反応情報を取得する。
【0088】
〔5-3.プッシュ通知に関するタイミングでの出力〕
出力部165は、対話システムにおけるプッシュ通知に関するタイミングで、反応情報を出力する。具体的には、判定部161は、対話システムにおけるプッシュ通知に関する情報を取得する。例えば、判定部161は、対話システムにおけるプッシュ通知に関する情報として、あらかじめプログラムされた所定の期間毎にプッシュ通知を行うという情報を取得する。続いて、判定部161は、プッシュ通知に関する情報を取得すると、取得したプッシュ通知に関する情報に基づいて、対話システムにおけるプッシュ通知に関するタイミングであるか否かを判定する。出力部165は、判定部161によって対話システムにおけるプッシュ通知に関するタイミングであると判定された場合、反応情報を出力する。
【0089】
〔5-4.検索が行われたタイミングでの出力〕
出力部165は、対話システムに対する行動以外のユーザの行動であって、第2情報に関連するユーザの行動が行われたタイミングで、反応情報を出力する。具体的には、出力部165は、ユーザが第2情報に関連する検索を行ったタイミングで、反応情報を出力する。より具体的には、判定部161は、ユーザの検索行動に関する検索情報を検索サーバ(図示略)から取得する。続いて、判定部161は、検索情報を取得すると、取得した検索情報に基づいて、ユーザが第2情報に関連する検索を行ったタイミングであるか否かを判定する。出力部165は、判定部161によってユーザが第2情報に関連する検索を行ったタイミングであると判定された場合、反応情報を出力する。
【0090】
〔5-5.コンテンツ取得後のタイミング判定〕
図1では、判定部161によってユーザに対して反応情報を出力するタイミングであるか否かを判定した後に、要求部162がコンテンツの配信要求をコンテンツ配信装置20に送信する例について説明したが、これに限られない。具体的には、出力部165は、所定時間(例えば、60分)毎に反応情報を出力する。また、要求部162は、所定時間(例えば、30分)毎にコンテンツの配信要求をコンテンツ配信装置20に送信する。例えば、要求部162は、ある時刻t1にコンテンツの配信要求をコンテンツ配信装置20に送信する。コンテンツ配信装置20は、配信要求を受け付けると、第1コンテンツを出力装置100に配信する。続いて、要求部162は、コンテンツ配信装置20から第1コンテンツを取得する。要求部162は、第1コンテンツを取得すると、取得した第1コンテンツをコンテンツ記憶部122に格納する。続いて、生成部163は、コンテンツ記憶部122を参照して第1コンテンツを取得する。生成部163は、第1コンテンツを取得すると、取得した第1コンテンツを所定のモデルに入力することにより、第1反応情報を生成する。生成部163は、第1反応情報を生成すると、生成した第1反応情報を反応情報記憶部123に格納する。
【0091】
続いて、要求部162は、時刻t1から30分後の時刻t2にコンテンツの配信要求をコンテンツ配信装置20に送信する。コンテンツ配信装置20は、配信要求を受け付けると、第2コンテンツを出力装置100に配信する。続いて、要求部162は、コンテンツ配信装置20から第2コンテンツを取得する。要求部162は、第2コンテンツを取得すると、取得した第2コンテンツをコンテンツ記憶部122に格納する。続いて、生成部163は、第2コンテンツを所定のモデルに入力することにより、第2反応情報を生成する。生成部163は、第2反応情報を生成すると、生成した第2反応情報を反応情報記憶部123に格納する。続いて、生成部163は、第2反応情報を生成すると、コンテンツ記憶部122を参照して、時刻t1に配信を要求した第1コンテンツと時刻t2に配信を要求した第2コンテンツとを取得する。続いて、生成部163は、第1コンテンツと第2コンテンツを取得すると、第1コンテンツと第2コンテンツとの類似度を判定する。生成部163は、第1コンテンツと第2コンテンツとの類似度が所定の閾値を超える場合には、第1コンテンツが古くなり、新しい第2コンテンツに更新されたとみなして、コンテンツ記憶部122から第1コンテンツを削除する。続いて、判定部161は、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。出力部165は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、第2反応情報を出力する。
【0092】
〔5-6.レビューに対する反応情報〕
生成部163は、映画レビューであるコンテンツに対する反応情報として、対話システムがレビューの書き手の立場で述べられる文字情報である反応情報を生成する。例えば、生成部163は、ホラー映画の映画レビューであるコンテンツに対する反応情報として、「××(映画タイトル)怖かったですね!今夜は眠れなさそうです。」といったレビューの書き手の立場で述べられる文字情報である反応情報を生成する。
【0093】
〔5-7.モデルの更新〕
生成部163は、ユーザによる応答をフィードバックして更新されたモデルを用いて反応情報を生成する。具体的には、生成部163は、反応情報記憶部123の「ユーザによる応答の有無」の項目を参照して、ユーザによる応答の有無に応じて更新されたモデルを用いて反応情報を生成する。例えば、生成部163は、ユーザによる応答があった反応情報とコンテンツとのセットデータに対する学習の重みをユーザによる応答がなかった反応情報とコンテンツとのセットデータに対する学習の重みよりも大きくして学習されたモデルを用いて反応情報を生成する。
【0094】
〔5-8.要約生成モデルと反応生成モデル〕
図1に示す例では、生成部163がコンテンツ#1を一つのモデルM1に入力して、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する例について説明したが、サマリ情報R11と契機情報R12とを別のモデルで生成してもよい。具体的には、生成部163は、第2情報を入力すると、第2情報の要約であるサマリ情報を出力するモデルM11を用いて、サマリ情報を生成する。また、生成部163は、第2情報を入力すると、第2情報に対する反応を示す反応情報を出力するモデルM12を用いて、反応情報を生成する。図1に示す例では、生成部163は、コンテンツ#1を入力すると、コンテンツ#1の要約であるサマリ情報R11を出力するモデルM11を用いて、サマリ情報R11を生成する。また、生成部163は、コンテンツ#1を入力すると、コンテンツ#1に対する反応を示す契機情報R12を出力するモデルM12を用いて、契機情報R12を生成する。
【0095】
この場合、出力処理システム1は、サマリ役の出力装置100と、反応役の出力装置100という複数の出力装置100を含んでもよい。例えば、サマリ役の出力装置100が、コンテンツ#1の要約であるサマリ情報R11を音声出力する。続いて、反応役の出力装置100が、コンテンツ#1に対する反応を示す契機情報R12をサマリ役の出力装置100とは異なる音声によって音声出力する。なお、出力処理システム1は、サマリ役の出力装置100と、反応役の出力装置100の他にも、対話を進行させる役の出力装置100と、対話の進行を補助する役の出力装置100といった複数の出力装置100を含んでもよい。
【0096】
〔5-9.画面への出力〕
出力部165は、音声に代えて、文字情報を画面に表示することで反応情報をユーザに対して出力してもよい。また、出力部165は、音声に代えて、画像情報を出力してもよい。この場合、出力部165は、反応情報をユーザが一見して理解できる画像を表示する。画像情報は動画、静止画どちらでもよい。さらに、出力装置100が人型のロボットである場合、出力部165は、ロボットの身振りや手振りで反応情報を出力してもよい。
【0097】
〔6.効果〕
上述してきたように、実施形態に係る出力装置100は、取得部164と出力部165とを備える。取得部164は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。出力部165は、取得部164により取得された反応情報をユーザに対して出力する。
【0098】
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。すなわち、出力装置100は、装置から人へ自発的に適切に話しかけることができる。したがって、出力装置100は、対話システムへのユーザによる入力に寄らずに適切な情報を出力するができる。
【0099】
また、取得部164は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を取得する。
【0100】
これにより、出力装置100は、非タスク志向型対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。
【0101】
また、取得部164は、所定のコンテンツである第2情報に対する反応情報を取得する。
【0102】
これにより、出力装置100は、所定のコンテンツに関連する対話の契機となる文字情報を自発的に出力することができる。
【0103】
また、取得部164は、ニュース記事である第2情報に対する反応情報を取得する。
【0104】
これにより、出力装置100は、ニュース記事に関連する対話の契機となる文字情報を自発的に出力することができる。
【0105】
また、取得部164は、所定のSNS(Social Networking Service)における投稿情報である第2情報に対する反応情報を取得する。
【0106】
これにより、出力装置100は、SNSにおける投稿情報に関連する対話の契機となる文字情報を自発的に出力することができる。
【0107】
また、取得部164は、広告である第2情報に対する反応情報を取得する。
【0108】
これにより、出力装置100は、広告に関連する対話の契機となる文字情報を自発的に出力することができる。
【0109】
また、取得部164は、ユーザとの第2情報に関連する対話の契機となる反応情報を取得する。
【0110】
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。
【0111】
また、取得部164は、対話システムの第2情報に対する感想を示す反応情報を取得する。
【0112】
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報に対する感想を対話の契機として自発的に適切な対話を始めることができる。
【0113】
また、取得部164は、第2情報に対する意見をユーザに要求する反応情報を取得する。
【0114】
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報に対するに対する意見をユーザに要求することを対話の契機として自発的に適切な対話を始めることができる。
【0115】
また、取得部164は、ユーザに第2情報に関連する行動を促す反応情報を取得する。例えば、取得部164は、ユーザに反応情報への応答以外の行動を促す反応情報を取得する。
【0116】
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報関連する行動を促すことを対話の契機として自発的に適切な対話を始めることができる。
【0117】
また、出力部165は、対話システムに対するユーザによる第2情報の要求以外のタイミングで、反応情報を出力する。
【0118】
これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、自発的に適切な対話を始めることができる。
【0119】
また、出力部165は、対話システムにおけるプッシュ通知に関するタイミングで、反応情報を出力する。
【0120】
これにより、出力装置100は、対話システムにおけるプッシュ通知に関するタイミングで、自発的に適切な対話を始めることができる。
【0121】
また、出力部165は、ユーザのコンテキストに基づくタイミングで、反応情報を出力する。
【0122】
これにより、出力装置100は、ユーザのコンテキストに応じて、自発的に適切な対話を始めることができる。
【0123】
また、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングで、反応情報を出力する。
【0124】
これにより、出力装置100は、ユーザとの対話が途切れたタイミングで、自発的に適切な対話を始めることができる。
【0125】
また、出力部165は、対話システムに対する行動以外のユーザの行動であって、第2情報に関連するユーザの行動が行われたタイミングで、反応情報を出力する。例えば、出力部165は、ユーザが第2情報に関連する検索を行ったタイミングで、反応情報を出力する。
【0126】
これにより、出力装置100は、ユーザによる検索が行われたタイミングで、自発的に適切な対話を始めることができる。
【0127】
また、実施形態に係る出力装置100は、生成部163をさらに備える。生成部163は、第2情報から反応情報を生成する。取得部164は、生成部163により生成された反応情報を取得する。具体的には、生成部163は、第2情報を所定のモデルに入力することにより、反応情報を生成する。
【0128】
これにより、出力装置100は、あらかじめ登録された反応情報以外の反応情報を、自発的に適切に出力することができる。
【0129】
また、取得部164は、ユーザに応じて選択される第2情報に対する反応情報を取得する。
【0130】
これにより、出力装置100は、ユーザに応じた内容の対話を自発的に適切に始めることができる。
【0131】
また、出力部165は、反応情報を音声出力する。さらに、出力部165は、音声に代えて、画像情報を出力してもよい。この場合、出力部165は、反応情報をユーザが一見して理解できる画像を表示する。画像情報は動画、静止画どちらでもよい。
【0132】
これにより、出力装置100は、タイムリーな反応情報を自発的に適切に出力することができる。
【0133】
また、取得部164は、第2情報の要約であるサマリ情報を取得する。また、出力部165は、サマリ情報と反応情報とを出力する。また、出力部165は、サマリ情報を出力した後に反応情報を出力する。
【0134】
これにより、出力装置100は、サマリ情報を出力することにより、ユーザとの共通の話題を共有することを可能にする。また、出力装置100は、反応情報を出力することにより、サマリ情報に対するユーザの応答を引き出すきっかけを作ることができる。
【0135】
〔7.ハードウェア構成〕
また、上述してきた実施形態に係る出力装置100およびコンテンツ配信装置20は、例えば図15に示すような構成のコンピュータ1000によって実現される。図15は、出力装置100およびコンテンツ配信装置20の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
【0136】
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
【0137】
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
【0138】
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
【0139】
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
【0140】
例えば、コンピュータ1000が出力装置100およびコンテンツ配信装置20として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部160または制御部23の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
【0141】
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【0142】
〔8.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
【0143】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0144】
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
【0145】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。
【符号の説明】
【0146】
1 出力処理システム
100 出力装置
110 通信部
120 記憶部
121 センサ情報記憶部
122 コンテンツ記憶部
123 反応情報記憶部
124 モデル情報記憶部
125 学習データ記憶部
130 入力部
140 表示部
150 物理センサ
160 制御部
161 判定部
162 要求部
163 生成部
164 取得部
165 出力部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15