【文献】
栗山 進,Social Context-aware Information System:初対面時の「きまずさ」解消を目的とした実空間ソーシャルネットワーキングシステム,インタラクション2006予稿集,情報処理学会,2006年 3月 2日,pp.195-196
【文献】
吉野 孝,SNS内の情報を用いた話題提供支援の効果,マルチメディア,分散,協調とモバイル(DICOM2008)シンポジウム論文集,情報処理学会,2008年 7月,第2008巻,pp.1549-1557
(58)【調査した分野】(Int.Cl.,DB名)
前記情報出力処理部は、前記対話者関係情報と同じグループ識別情報を有し、かつ対話に参加していない前記ユーザに関する前記提供情報を出力できるように、前記評価値を修正する、
請求項1から3のいずれか1つに記載の情報提供システム。
【発明を実施するための形態】
【0008】
(実施形態)
(構成)
以下、図面を参照して実施形態を説明する。
【0009】
図1は、実施形態に関わる、情報提供システム1の構成例を説明する図である。
【0010】
情報提供システム1は、端末装置2及びセンター装置3を有する。端末装置2は、インターネット、有線LAN、無線LAN等のネットワークを介し、センター装置3と接続される。センター装置3は、ネットワークを介し、検索サービス、SNS(ソーシャルネットワーキングサービス)又はクラウドサービス処理等を提供する外部サーバ4と接続される。なお、外部サーバ4は、1つのサーバによって構成しても構わないし、複数のサーバ群によって構成しても構わない。
【0011】
情報提供システム1は、端末装置2を介し、
図1に例示されるユーザU1、U2、U3、U4、U5、U6、U7に話題等の情報を提供する。以下、ユーザU1、U2、U3、U4、U5、U6、U7の全て、又は、一部を示すとき、ユーザUという。なお、実施形態のユーザUは、例示であり、これに限定されない。
【0012】
図2は、実施形態に関わる、情報提供システム1の端末装置2の構成例を示すブロック図である。
【0013】
端末装置2は、例えば、ユーザUと対話可能なロボットである。端末装置2は、人感センサ11と、カメラ12と、マイクロホン13と、スピーカ14と、通信部15と、制御部16と、を有する。人感センサ11、カメラ12、マイクロホン13、スピーカ14及び通信部15の各々は、制御部16と接続される。
【0014】
人感センサ11は、例えば、赤外線、可視光、超音波等によってユーザUを検知することができるように構成される。ユーザUを検知すると、人感センサ11は、ユーザUの検知情報を制御部16に出力する。
【0015】
カメラ12は、CMOS等の光電変換素子を有し、被写体を撮像できるように構成される。被写体を撮像すると、カメラ12は、被写体の画像情報を制御部16に出力する。
【0016】
マイクロホン13は、ユーザUの音声を集音することができるように構成される。外部から音声が入力されると、マイクロホン13は、音声情報を制御部16に出力する。
【0017】
スピーカ14は、外部に音声を出力できるように構成される。制御部16から音声情報が入力されると、スピーカ14は、外部に音声を出力する。
【0018】
通信部15は、ネットワークを介し、センター装置3と通信を行うことができるように構成される。通信部15は、ネットワークを介し、制御部16から入力された情報をセンター装置3に送信し、また、センター装置3から受信した情報を制御部16に出力する。
【0019】
制御部16は、CPU16aと、RAM及びROMを含むメモリ16bとを有し、端末装置2内の各部の制御を行うことができるように構成される。制御部16の機能は、CPU16aがメモリ16b内に記憶された各種プログラムを読み出して実行することによって実現される。
【0020】
例えば、制御部16は、人感センサ11、カメラ12、マイクロホン13及びスピーカ14の制御を行い、通信部15を介し、ユーザUの検知情報、被写体の画像情報及び音声情報をセンター装置3に出力し、また、センター装置3から入力された音声情報に基づいて、スピーカ14によって外部に音声を出力する。
【0021】
なお、端末装置2は、人や動物を模し、図示しない頭や胴を有し、図示しない歩行機構によって歩行可能に構成しても構わない。
【0022】
図3は、実施形態に関わる、情報提供システム1のセンター装置3の構成例を示すブロック図である。
【0023】
センター装置3は、後述する情報提供処理を実行することができるように構成される。センター装置3は、例えば、ネットワークに接続されたサーバである。センター装置3は、通信部21と、制御部31と、情報提供処理部41、画像音声処理部51、記憶部61とを有する。
【0024】
通信部21は、端末装置2の通信部15と通信を行うことができるように構成される。通信部21は、ネットワークを介し、制御部31から入力された情報を端末装置2に送信し、また、端末装置2から受信した情報を制御部31に出力する。
【0025】
制御部31は、センター装置3内の各部の制御を行う。
【0026】
情報提供処理部41は、ユーザUに対して情報提供処理を行う処理部である。情報提供処理部41は、ユーザ検出処理部42と、関係検出処理部43と、情報出力処理部44と、語句収集処理部45と、SNS情報収集処理部46とを有する。
【0027】
ユーザ検出処理部42は、カメラ12によって取得された画像情報に基づいて、対話に参加しているユーザUを検出する処理部である。
【0028】
関係検出処理部43は、対話に参加しているユーザU間の関係を検出し、ユーザU間の関係に応じた対話者関係情報を出力する処理部である。ユーザU間の関係とは、例えば、血縁、親密度などによる、社会集団を構成するための人間関係を示す。
【0029】
情報出力処理部44は、対話に参加しているユーザUに、対話者関係情報に応じた提供情報を出力する処理部である。より具体的には、情報出力処理部44は、提供情報生成処理部44aの処理によって生成された、対話者関係情報に応じた提供情報を出力する。また、情報出力処理部44は、クラウドサービス処理部44bの処理によってインターネット検索、又は、インターネット予約等のクラウドサービス処理を実行し、実行結果に応じて生成された提供情報を出力する。また、情報出力処理部44は、評価処理部44cの処理によってユーザUに出力した提供情報の評価処理も実行する。情報出力処理部44は、提供情報をスピーカ14から出力する処理を行う。
【0030】
語句収集処理部45は、マイクロホン13によって取得された音声情報に基づいて、対話に参加しているユーザUの対話情報を収集し、対話情報から語句を抽出し、対話者関係情報に対応付けて語句を語句記憶部66に記憶させる処理部である。
【0031】
SNS情報収集処理部46は、SNSを利用しているユーザUのSNSから記事情報を収集し、記事情報から語句を抽出し、SNSを示すグループ識別情報に対応付けて語句を語句記憶部66に記憶させる処理部である。
【0032】
画像音声処理部51は、画像情報及び音声情報に対して各種処理を行う処理部である。画像音声処理部51は、画像処理部52と、音声処理部53とを有する。
【0033】
画像処理部52は、顔等の画像情報からユーザUを検出する処理部である。画像処理部52は、カメラ12から入力された画像情報と、後述するユーザ画像記憶部62に記録されているユーザ識別情報に対応付けられたユーザUの画像情報とのマッチング処理を行い、カメラ12によって撮像されたユーザUのユーザ識別情報を特定する。
【0034】
画像処理部52は、所定の画像認識処理により、画像情報に含まれる対象物又は背景の画像を認識し、対象物又は背景を示す文字列も出力する。
【0035】
画像処理部52は、所定の画像認識処理により、画像情報に含まれる顔の表情からユーザUの関心度を示す特徴量も算出する。
【0036】
音声処理部53は、音声情報を文字列に変換し、また、文字列を音声情報に変換する処理部である。
【0037】
音声処理部53は、音声情報からユーザUが誰であるかも特定する。音声処理部53は、マイクロホン13から入力された音声情報と、後述するユーザ音声記憶部63に記憶されているユーザ識別情報に対応付けられたユーザUの音声情報とのマッチング処理を行い、ユーザ識別情報を特定する。
【0038】
音声処理部53は、入力された音声情報の音声周波数、発話速度、音量に基づいて、所定の演算処理により、ユーザUの関心度を示す特徴量も算出する。
【0039】
なお、画像音声処理部51の機能は、情報提供システム1に接続した外部サーバ4によって実現されても構わない。
【0040】
図4から
図7は、データ記憶部61に含まれる各記憶部の構成を例示する表である。
図4がユーザ情報記憶部64を示し、
図5が優先度記憶部65を示し、
図6が語句記憶部66を示し、
図7がアドレス記憶部67を示す。なお、
図4から
図7に示す各記憶部の構成は、例示であり、これに限定されない。
【0041】
データ記憶部61は、情報提供処理部41及び画像音声処理部51によって使用されるデータを記憶する。データ記憶部61は、例えば、データベースによって構成される。データ記憶部61は、ユーザ画像記憶部62と、ユーザ音声記憶部63と、ユーザ情報記憶部64と、優先度記憶部65と、語句記憶部66と、アドレス記憶部67とを有する。
【0042】
ユーザ画像記憶部62は、ユーザUを識別するための画像情報を記憶する。図示は省略するが、具体的には、画像情報は、ユーザUの識別情報であるユーザ識別情報と、ユーザ識別情報に対応付けられたユーザUの画像情報である。
【0043】
ユーザ音声記憶部63は、ユーザUを識別するための音声情報を記憶する。図示は省略するが。具体的には、音声情報は、ユーザ識別情報と、ユーザ識別情報に対応付けられたユーザUの音声情報である。
【0044】
ユーザ情報記憶部64は、ユーザ識別情報とユーザ識別情報に対応付けられたグループ識別情報を有する。ユーザ情報記憶部64は、ユーザ識別情報とグループ識別情報の他、ユーザ名、趣味等の属性情報を有しても構わない。
【0045】
ユーザ識別情報は、ユーザUを一意に識別する。
【0046】
グループ識別情報は、ユーザUが属するグループを識別する情報であり、ユーザUが複数のグループに属するとき、1つのユーザ識別情報に対して複数のグループ識別情報を設定可能である。
【0047】
グループ識別情報は、例えば、家族クラス、学校クラス、地域クラス及びSNSクラス等、所定のクラスのいずれかに属する。なお、クラスは、家族クラス、学校クラス、地域クラス及びSNSクラスに限定されず、他のクラスを含んでも構わないし、これらの一部のクラスであっても構わない。
【0048】
図1及び
図4は、ユーザU1、U2、U3、U7とユーザU4、U5の各々が家族クラス内の互いに異なるグループに属し、ユーザU1〜U6が学校クラスのグループに属し、ユーザU1〜U6とU7の各々が地域クラス内の互いに異なるグループに属し、ユーザU5、U6がSNSクラスのグループに属する例である。なお、ユーザU1、U2がユーザU3の保護者であり、ユーザU4がユーザU5の保護者であるが、保護者も含めてユーザU1〜U6を学校クラスのグループとしている。
【0049】
より具体的には、家族クラスでは、ユーザU1、U2、U3、U7のグループ識別情報がF1であり、ユーザU4、U5のグループ識別情報がF2である。また、学校クラスでは、ユーザU1〜U6のグループ識別情報がG1である。また、地域クラスでは、ユーザU1〜U6のグループ識別情報がL1であり、ユーザU7のグループ識別情報がL2である。また、SNSクラスでは、ユーザU5、U6のグループ識別情報がW1である。
【0050】
なお、
図1及び
図4の例では、グループ識別情報の左側一字は、クラスを識別する。より具体的には、「F」が家族クラスを示し、「G」が学校クラスを示し、「L」が地域クラスを示し、「W」がSNSクラスを示す。また、グループ識別情報の右側一字は、各クラス内のグループを識別する。
【0051】
優先度記憶部65は、クラスの優先度を記憶する。クラスの優先度は、グループ内のユーザU間の関係の強さに応じて設定される。上述の通り、ユーザU間の関係とは、社会集団を構成するための人間関係を示すものであり、ここでは、ユーザ識別情報に対応付けて記憶するグループ識別情報をユーザU間の関係を示す情報として利用している。すなわち、所定のクラスは、ユーザU間の関係の強さを示す。
図5の例では、ユーザU間の関係の強い「家族クラス」の優先度が高く設定され、続いて、「学校クラス」「SNSクラス」「地域クラス」の順に、優先度が低く設定される。
【0052】
語句記憶部66は、対話者関係情報と対応付けて語句情報を記憶する。より具体的には、語句記憶部66は、ユーザ識別情報と対話者関係情報に対応付け、語句、評価値及び最終更新日を記憶する。
【0053】
例えば、語句記憶部66には、ユーザ識別情報「U1」、グループ識別情報「F1」、語句「釣り」、評価値「50」、最終更新日「YYYYMMDD」(YYYYMMDDは、日付情報を示す)であるレコードが記憶される。
【0054】
アドレス記憶部67は、ユーザUが利用しているSNSのアドレス情報を記憶する。例えば、
図7の例では、ユーザU4のSNSサービスのアドレス情報がXXXXXであり、ユーザU5のSNSサービスのアドレス情報がYYYYYである。
【0055】
(動作)
続いて、情報提供システム1の動作について説明をする。
【0056】
図8は、実施形態に関わる、情報提供システム1の情報提供処理の流れを示すフローチャートである。
【0057】
端末装置2において、人感センサ11が、ユーザUを検知すると、制御部16は、通信部15を介し、センター装置3にユーザUの検知情報を出力する。センター装置3において、通信部21を介して検知情報が入力されると、制御部31による制御のもと、情報提供処理部41によって情報提供処理を開始する。
【0058】
情報提供処理部41のユーザ検出処理部42が対話に参加しているユーザUを検出すると(S1)、情報提供処理部41は、関係検出処理部43によってユーザU間の関係を検出し、ユーザU間の関係に応じた対話者関係情報を出力し(S2)、情報出力処理部44によってユーザUに対話者関係情報に応じた提供情報を出力する(S3)。また、S3の処理と並列し、情報提供処理部41は、語句収集処理部45によってユーザUの対話情報を収集し、対話情報から語句を抽出し、対話者関係情報に対応付けて語句を記憶する(S4)。また、S1からS4の処理と並列し、情報提供処理部41は、SNS情報収集処理部46によってSNSを利用しているユーザUのSNSから記事情報を収集し、記事情報から語句を抽出し、SNSのグループを示すグループ識別情報に対応付けて語句を記憶する(S5)。
【0059】
次に、ユーザ検出処理について、具体的に説明をする。
【0060】
図9は、実施形態に関わる、情報提供システム1のユーザ検出処理の流れを示すフローチャートである。
【0061】
端末装置2は、対話に参加しているユーザUの画像情報を取得する(S11)。端末装置2において、カメラ12が、ユーザUを撮像すると、制御部16は、通信部15を介し、センター装置3にユーザUの画像情報を出力する。
【0062】
画像処理部52は、画像情報に基づいてユーザ識別情報を特定する(S12)。通信部21を介して画像情報が入力されると、制御部31の制御のもと、画像処理部52は、ユーザ画像記憶部62を参照してマッチング処理を行う。マッチング処理によってユーザ識別情報が特定された場合には、画像処理部52は、ユーザ識別情報を制御部31を介してユーザ検出処理部42に出力する。一方、新規ユーザである場合等、ユーザ識別情報の特定がされなかった場合には、画像処理部52は、ユーザ識別情報が特定されなかったことを示す情報を制御部31を介してユーザ検出処理部42に出力する。
【0063】
ユーザ検出処理部42は、ユーザ識別情報が特定されたか否かを判定する(S13)。S12の処理によって画像処理部52からユーザ識別情報が入力された場合には、処理はS16に進む。一方、ユーザ識別情報が特定されなかった場合には、処理はS14に進む。
【0064】
ユーザ検出処理部42は、制御部31の制御のもと、音声処理部53によってユーザUにメッセージを出力してユーザ情報を収集する(S14)。音声処理部53は、ユーザUにユーザ情報を問い合わせるためのメッセージを出力する。音声処理部53は、例えば、「こんにちは、お名前は?」「家族のお名前は?」「学校のお友達の名前は?」「住んでいる場所はどこ?」「SNSのお友達の名前は?」等の所定の文字列を音声情報に変換し、制御部31と通信部21を介し、変換された音声情報を端末装置2に出力する。端末装置2は、通信部15を介して入力された音声情報をスピーカ14によって外部に出力する。ユーザUが返答をすると、マイクロホン13、制御部16及び通信部15を介し、ユーザUの音声情報がセンター装置3に入力される。通信部21を介して音声情報が入力されると、制御部31の制御のもと、音声処理部53は、音声情報を文字列に変換する。
【0065】
ユーザ検出処理部42は、ユーザ情報記憶部64にユーザ情報を記憶する(S15)。ユーザ検出処理部42は、新規にユーザ識別情報を採番し、ユーザUの返答内容に基づいて、ユーザ識別情報及びユーザ名等のユーザ情報をユーザ情報記憶部64に記憶する。ユーザ検出処理部42は、ユーザUの返答内容に応じ、所定のグループ決定処理によってグループ識別情報も決定する。
【0066】
例えば、メッセージ「家族のお名前は?」に対して、ユーザUが「A」と返答した場合、所定のグループ決定処理は、ユーザ情報記憶部64から、ユーザ名「A」に対応付けられた家族クラスのグループ識別情報を抽出し、グループ識別情報をF1であると決定する。また、メッセージ「学校のお友達の名前は?」に対して、ユーザUが「C」と返答した場合、所定のグループ決定処理は、ユーザ情報記憶部64から、ユーザ名「C」に対応付けられた学校クラスのグループ識別情報を抽出し、グループ識別情報をG1であると決定する。また、メッセージ「住んでいる場所はどこ?」に対して、ユーザUがL1に対応する地域を返答した場合、所定のグループ決定処理は、グループ識別情報をL1であると決定する。また、メッセージ「SNSのお友達の名前は?」に対して、ユーザUが「E」と返答した場合、所定のグループ決定処理は、ユーザ情報記憶部64から、ユーザ名「E」に対応付けられたSNSクラスのグループ識別情報を抽出し、グループ識別情報をW1であると決定する。
【0067】
ユーザ検出処理部42は、全てのユーザUに対して処理が終了したか否かを判定する(S16)。全てのユーザUの処理が終了していない場合(S16:No)、処理はS12に戻る。一方、全てのユーザUの処理が終了した場合(S16:Yes)、処理はS17に進む。S12からS16の処理は、画像情報に含まれる全てのユーザUのユーザ識別情報を特定するまで繰り返す。
【0068】
ユーザ検出処理部42は、ユーザ識別情報を関係検出処理部43に出力する(S17)。
【0069】
すなわち、ユーザ検出処理部42は、検出したユーザUが、ユーザU間の関係を検出できない新規ユーザを含む場合、ユーザU間の関係を検出するためのユーザ情報を問い合わせるメッセージを出力し、ユーザ情報を取得する。
【0070】
次に、関係検出処理について具体的に説明する。
【0071】
図10は、実施形態に関わる、情報提供システム1の関係検出処理の流れを示すフローチャートである。
【0072】
制御部31の制御のもと関係検出処理部43は、対話に参加しているユーザUに共通したグループ識別情報を抽出する(S21)。関係検出処理部43は、S17において入力されたユーザ識別情報に基づいて、ユーザ情報記憶部64から対話に参加している全てのユーザUのグループ識別情報を取得する。続いて、関係検出処理部43は、全てのユーザUに共通したグループ識別情報のみを抽出する。例えば、ユーザU1、U2、U3が対話に参加している場合は、F1、G1、L1がユーザU1、U2、U3に共通したグループ識別情報として抽出される。
【0073】
次に関係検出処理部43は、対話者関係情報を決定する(S22)。関係検出処理部43は、優先度記憶部65から優先度情報を取得し、最も優先度の高いクラスに属するグループ識別情報によって対話者関係情報を決定する。例えば、ユーザU1、U2、U3では、最も優先度の高いクラスが家族クラスであり、ユーザU1、U2、U3が家族関係であることが検出され、対話者関係情報は、F1に決定される。
【0074】
関係検出処理部43は、対話者関係情報を情報出力処理部44と語句収集処理部45に出力する(S23)。
【0075】
すなわち、関係検出処理部43は、ユーザ情報に基づいて、ユーザU間の関係を検出する。より具体的には、関係検出処理部43は、ユーザUに共通したグループ識別情報によってユーザU間の関係を検出する。また、関係検出処理部43は、クラスの優先度情報に基づいて、ユーザU間の関係を検出する。
【0076】
次にユーザUへの情報提供の処理について説明する。
【0077】
図11は、実施形態に関わる、情報提供システム1の情報出力処理の流れを示すフローチャートである。
【0078】
端末装置2は、音声情報を取得する(S31)。端末装置2は、マイクロホン13によってユーザUの音声情報を取得し、通信部15を介してセンター装置3に出力する。
【0079】
制御部31の制御のもと、音声処理部53は、音声情報を文字列に変換する(S32)。
【0080】
情報出力処理部44は、入力された音声情報に基づき、ユーザUによってクラウドサービス処理の開始指示がされているか否かを判定する(S33)。情報出力処理部44は、S32によって変換された文字列を取得し、例えば、天気予報の検索指示、又は、病院の予約指示等、クラウドサービス処理の開始指示がユーザUによってされているか否かを判定する。開始指示がされていない場合(S34:No)、処理はS34aに進む。一方、開始指示がされている場合(S34:Yes)、処理はS34bに進む。
【0081】
S34aでは、後述する提供情報生成処理により、ユーザUに提供する提供情報の生成が行われる。S34aの処理が終了すると、処理はS35に進む。
【0082】
S34bでは、後述するクラウドサービス処理が行われる。S34bの処理が終了すると、処理はS35に進む。
【0083】
情報出力処理部44は、提供情報を出力可能なタイミングか否かを判定する(S35)。端末装置2から入力されたユーザUの検知情報、画像情報、音声情報に基づいて、ユーザU間の対話が停滞状態にある、又は、ユーザUが情報提供システム1の発話を待っている状態にある等、提供情報を出力可能なタイミングか否かを判定する。提供情報を出力可能なタイミングではないと判定した場合、処理はS31に戻る。一方、提供情報を出力可能なタイミングであると判定した場合、処理はS36に進む。
【0084】
音声処理部53は、情報出力処理部44の処理によりユーザUに対して出力する提供情報を、音声情報に変換する(S36)。
【0085】
音声処理部53は、変換された音声情報を、制御部31及び通信部21を介して端末装置2に出力する(S37)。
【0086】
最後に、評価処理部44cは、後述する評価処理によって提供した情報の評価を行う(S38)。
【0087】
次に前述のS34aのユーザUに提供する情報の生成処理について説明する。
【0088】
図12は、実施形態に関わる、情報提供システム1の提供情報生成処理の流れを示すフローチャートである。
【0089】
提供情報生成処理部44aは、語句記憶部66から対話者関係情報に対応付けられた語句情報を取得する(A11)。
【0090】
提供情報生成処理部44aは、評価値に所定の重み付け係数を乗算し、修正評価値を算出する(A12)。所定の重み付け係数は、経験的又は実験的に、ユーザUにとって関心度の高い情報が提供できるように、調整し、設定される。
【0091】
例えば、重み付け係数は、対話者関係情報と同じクループ識別情報を有し、かつ対話に参加していないユーザUに関する提供情報を出力できるように、対話に参加していないユーザ識別情報の修正評価値が高くなるように設定されても構わない。
【0092】
別の例では、重み付け係数は、ユーザUの記憶に新しい情報を提供できるように、最終更新日の新しい語句の修正評価値が高くなるように設定されても構わない。
【0093】
提供情報生成処理部44aは、修正評価値の高い語句を抽出する(A13)。
【0094】
続いて、提供情報生成処理部44aは、抽出された語句に基づく情報をインターネットで検索する(A14)。なお、検索する語句は、1つに限定されず、修正評価値が上位にある複数の語句を含んでも構わないし、ユーザ情報記憶部64に記憶された、地域、趣味等のユーザ情報を含んでも構わない。
【0095】
提供情報生成処理部44aは、検索結果に基づく所定の言い換え処理によって提供情報を生成する(A15)。
【0096】
例えば、ユーザU3、U5、U6が対話をし、対話者関係情報がG1であるとき、制御部31は、「運動会」「徒競走」に関する語句情報を語句記憶部66から取得する(A11)。所定の重み付け係数が1であり、所定の重み付け係数によって重み付けされないときの修正評価値の高い語句は、「運動会」「徒競走」である(A12)。「運動会」「徒競走」をインターネットの検索サービスによって検索すると、「徒競走で速く走る方法」等の情報が得られる(A14)。所定の言い換え処理により、例えば、「徒競走で速く走る方法知ってる?」という提供情報が生成される(A15)。
【0097】
次に前述のS34bのクラウドサービス処理について説明する。
【0098】
図13は、実施形態に関わる、情報提供システム1のクラウドサービス処理の流れを示すフローチャートである。
図14は、実施形態に関わる、情報提供システム1の構成例を説明する図である。
【0099】
クラウドサービス処理部44bは、ユーザUの指示に基づく所定のクラウドサービス処理を実行する(A21)。
【0100】
続いて、クラウドサービス処理部44bは、クラウドサービス処理の実行結果により、提供情報を生成する(A22)。
【0101】
クラウドサービス処理部44bは、生成した提供情報から語句を抽出し、対話者関係情報と語句情報を語句記憶部66に記憶する(A23)。
【0102】
例えば、ユーザU7による病院の予約指示がある場合は、クラウドサービス処理部44bは、外部サーバ4にアクセスし、病院の予約処理を行う(A21)。続いて、クラウドサービス処理部44bは、予約処理の結果に基づいて、「W病院をX月Y日Z時に予約したよ」等の提供情報を生成する。続いて、クラウドサービス処理部44bは、対話者関係情報と語句「病院」「予約」に関する語句情報を語句記憶部66に記憶する(A23)。
【0103】
語句情報が語句記憶部66に記憶されることにより、クラウドサービス処理の結果に関する情報もユーザUに提供される。例えば、
図14に示すように、別居しているユーザU7が端末装置2bによって病院の予約処理を行うと、端末装置2aは、ユーザU1、U2、U3に対し、例えば、「L2の地域に、評判のよい病院があるみたい」という話題を提供し、それとなく、ユーザU7の体調が優れないことを知らせる。
【0104】
次に、前述のS38の評価処理について説明する。
【0105】
図15は、実施形態に関わる、情報提供システム1の評価処理の流れを示すフローチャートである。
【0106】
評価処理部44cは、通信部21と制御部31を介して端末装置2からユーザUの音声情報を取得する(A31)。
【0107】
評価処理部44cは、通信部21と制御部31を介して端末装置2からユーザUの画像情報を取得する(A32)。
【0108】
評価処理部44cは、ユーザUの音声情報と画像情報に基づいて、評価値を算出する(A33)。評価処理部44cは、端末装置2から取得したユーザUの画像情報から、画像処理部52でユーザUの関心度を示す特徴量を算出する。また、評価処理部44cは、端末装置2から取得したユーザUの音声情報から、音声処理部53でユーザUの関心度を示す特徴量を算出する。続いて、評価処理部44cは、画像処理部52と音声処理部53の各々から入力された特徴量に基づいて、所定の演算により、語句の評価値を算出する。
【0109】
評価処理部44cは、評価値を語句記憶部66に記憶する(A34)。評価処理部44cは、ユーザ識別情報、対話者関係情報及び語句に対応付けて語句の評価値を語句記憶部66に記憶する。
【0110】
次にユーザUの対話情報からの語句を抽出する処理について説明する。
【0111】
図16は、実施形態に関わる、情報提供システム1の語句収集処理の流れを示すフローチャートである。
【0112】
S41とS42は、前述のS31とS32と同じため、説明を省略する。
【0113】
語句収集処理部45は、音声処理部53で処理(S41、42)されたユーザUからの音声情報の文字列から語句を抽出する(S43)。語句収集処理部45は、所定の抽出処理により、文字列によって構成される文を複数の語句に分割し、語句を抽出する。
【0114】
語句収集処理部45は、S43で抽出された語句情報を語句記憶部66に記憶する(S44)。語句収集処理部45は、ユーザ識別情報と対話者関係情報に対応付け、語句情報を語句記憶部66に記憶する。評価値には、所定値がセットされる。
【0115】
次に、ユーザUに関連する情報を外部のSNSサーバから取得する処理について説明する。
【0116】
図17は、実施形態に関わる、情報提供システム1のSNS情報収集処理の流れを示すフローチャートである。
【0117】
SNS情報収集処理部46は、SNSを利用しているユーザUのユーザ識別情報をユーザ情報記憶部64から取得する(S51)。
【0118】
続いて、SNS情報収集処理部46は、ユーザ識別情報に対応付けられたアドレス情報をアドレス記憶部67から取得する(S52)。
【0119】
制御部31の制御のもとSNS情報収集処理部46は、SNSサイト(外部サーバ4)にアクセスをし、記事情報を取得する(S53)。SNS情報収集処理部46は、アドレス情報に基づいてSNSサイトにアクセスを行い、文字列又は画像情報によって構成される記事情報を取得する。
【0120】
SNS情報収集処理部46は、S53で取得した記事情報から語句を抽出する(S54)。SNS情報収集処理部46は、所定の抽出処理により、文字列によって構成される文を複数の語句に分割し、語句を抽出する。また、SNS情報収集処理部46は、所定の画像認識処理により、画像情報から対象物又は背景を示す語句を抽出する。
【0121】
SNS情報収集処理部46は、S54で抽出した語句情報を語句記憶部66に記憶する(S55)。SNS情報収集処理部46は、対話者関係情報に、ユーザUが属するSNSクラスのグループ識別情報をセットし、評価値に所定値をセットし、ユーザ識別情報と対話者関係情報に対応付け、語句情報を語句記憶部66に記憶する。
【0122】
例えば、
図4では、SNS情報収集処理部46は、ユーザ識別情報であるU5を取得し(S51)、アドレス記憶部67からアドレス情報であるXXXXXを取得し(S52)、SNSサイトにアクセスをし、SNSに掲載された海の画像情報から所定の画像認識処理によって語句「海」を抽出する(S54)。続いて、
図6に示すように、SNS情報収集処理部46は、ユーザ識別情報「U5」、グループ識別情報「W1」、語句「海」、評価値「20」(所定値)である語句情報を語句記憶部66に記憶する。
【0123】
例えば、ユーザU5、U6が対話をし、関係検出処理部43が対話者関係情報をW1に決定すると、情報提供システム1は、語句「海」に基づいて、「きれいな海知ってる?」等の話題をユーザU5、U6に提供する。
【0124】
これにより、例えば、情報提供システム1は、家族の対話にも話題を提供する。ユーザU1、U2、U3が「釣りに行きたい」「今週末の天気はどうだろう」等の対話をすると、情報提供システム1が、端末装置2a(
図14)を介し、「キスが岬で釣れ始めたみたい」等の話題を提供する。また、情報提供システム1は、端末装置2bを介し、ユーザU7にも「キスの天ぷら去年の今頃作っていたね」等の話題を提供する。端末装置2bを介してユーザU7の「キスの天ぷら食べたいね」等の対話を検出すると、情報提供システム1は、端末装置2aを介し、ユーザU1、U2、U3に「おばあちゃん(ユーザU7)がキスの天ぷらを食べたいみたい」等の話題を提供する。さらに、情報提供システム1は、クラウドサービス処理によって天気予報を検索し、端末装置2aを介し、ユーザU1、U2、U3に「今週末は天気がよさそうだよ」等の情報を提供する。
【0125】
また、ユーザU1、U2、U3が家族内の対話をしているとき、ユーザU3の学校の友人であるユーザU6が対話に加わると、情報提供システム1は、関係検出処理部43によって対話者関係情報をG1に決定し、「運動会楽しかった?」等の学校に関係した話題を提供する。
【0126】
すなわち、対話に参加しているユーザUが変わると、ユーザ検出処理部42によってユーザUが検出され、関係検出処理部43によってユーザU間の関係に応じた対話者関係情報が出力され、対話者関係情報に応じた提供情報がユーザUに提供される。
【0127】
上述の実施形態によれば、情報提供システム1及び情報提供方法は、対話しているユーザUが変わった場合においても、対話しているユーザUに共通し、かつ関心度の高い情報を提供することができる。
【0128】
なお、実施形態では、端末装置2がロボットである例を説明したが、これに限定されない。端末装置2は、携帯電話等の携帯情報端末であっても構わないし、パソコン等の情報処理装置であっても構わない。
【0129】
なお、実施形態では、人感センサ11によってユーザUを検知するが、人感センサ11に代えて、カメラ12又はマイクロホン13によってユーザUを検知しても構わない。
【0130】
なお、実施形態では、関係検出処理部43がユーザUのグループ識別情報に基づいて、ユーザU間の関係を検出するが、これに限定されない。例えば、関係検出処理部43は、ユーザ情報記憶部64に記憶される図示しない属性情報によってユーザU間の関係を検出しても構わない。
【0131】
なお、実施形態におけるS11及びS12では、画像処理部52の処理によってユーザ識別情報を特定するが、ユーザ識別情報の特定は、S11とS12の処理に加え、マイクロホン13によってユーザUの音声を集音し、音声処理部53の処理によって行われても構わない。
【0132】
なお、実施形態では、優先度記憶部65がクラスの優先度情報を有し、関係検出処理部43がクラスの優先度情報に基づいて、ユーザU間の関係を検出するが、優先度記憶部65がグループ識別情報の優先度を有し、関係検出処理部43が、グループ識別情報の優先度情報に基づいてユーザU間の関係を検出しても構わない。
【0133】
以上、本実施形態の情報提供システム1のセンター装置3の各機能は、プログラムとして構成することができる。例えば、コンピュータの不図示の補助記憶装置に格納され、CPU等の制御部31が補助記憶装置に格納された情報提供システム1のセンター装置3の各機能毎のプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部31が実行し、コンピュータに本発明の各部の機能を動作させることができる。すなわち、本実施形態の情報提供システム1のセンター装置3の各機能毎のプログラムがインストールされたコンピュータは、本実施形態の情報提供システム1のセンター装置3の各機能を遂行するコンピュータ装置として動作することが可能である。
【0134】
また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コン
ピュータに提供することも可能である。コンピュータ読取可能な記録媒体としては、CD
−ROM等の光ディスク、DVD−ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。
【0135】
本発明の実施形態を説明したが、これらの実施形態は、例として示したものであり、本発明の範囲を限定することは意図していない。これら新規の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。