IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パイオニア株式会社の特許一覧

特開2022-143513音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム
<>
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図1
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図2
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図3
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図4
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図5
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図6
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図7
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図8
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図9
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図10
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図11
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図12
  • 特開-音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022143513
(43)【公開日】2022-10-03
(54)【発明の名称】音出力制御装置、データ構造、音出力制御方法および音出力制御プログラム
(51)【国際特許分類】
   G06F 16/635 20190101AFI20220926BHJP
   G06F 3/16 20060101ALI20220926BHJP
   G10L 13/10 20130101ALI20220926BHJP
【FI】
G06F16/635
G06F3/16 540
G10L13/10 114
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2021044053
(22)【出願日】2021-03-17
(71)【出願人】
【識別番号】000005016
【氏名又は名称】パイオニア株式会社
(74)【代理人】
【識別番号】100112656
【弁理士】
【氏名又は名称】宮田 英毅
(72)【発明者】
【氏名】田淵 大将
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175DA05
5B175HA01
(57)【要約】
【課題】現在出力されている音声コンテンツが属するカテゴリをユーザが適切に把握できるようサポートすること。
【解決手段】音出力制御装置100は、ユーザに提供する情報として、複数の異なるカテゴリそれぞれに属するエージェント情報を出力可能なエージェント装置から、出力対象のエージェント情報を取得する情報取得部133と、出力対象のエージェント情報に対応する音声メッセージを報知部より出力させる報知制御部135とを備える。また、報知制御部135は、出力対象のエージェント情報が属するカテゴリに応じて、音声メッセージの態様を変化させて報知部より報知させる。
【選択図】図2
【特許請求の範囲】
【請求項1】
ユーザに提供する情報として、複数の異なるカテゴリのそれぞれに属するエージェント情報を出力可能なエージェント装置から、出力対象のエージェント情報を取得する情報取得部と、
前記出力対象のエージェント情報に対応する音声メッセージを報知部より出力させる報知制御部と、
を備え、
前記報知制御部は、前記出力対象のエージェント情報が属するカテゴリに応じて、前記音声メッセージの態様を変化させて前記報知部より報知させる
ことを特徴とする音出力制御装置。
【請求項2】
前記情報取得部は、それぞれがエージェント情報を提供可能な複数のアプリケーションを含む前記エージェント装置から、前記出力対象のエージェント情報を取得し、
前記報知制御部は、前記出力対象のエージェント情報が、前記複数のアプリケーションのうちいずれのアプリケーションから提供されたエージェント情報であるかに拘わらず、前記出力対象のエージェント情報が属するカテゴリに応じて、前記音声メッセージの態様を変化させる
ことを特徴とする請求項1に記載の音出力制御装置。
【請求項3】
前記報知制御部は、前記複数の異なるカテゴリのうち、前記出力対象のエージェント情報が属するカテゴリに応じた音効果が付加された状態で前記音声メッセージが報知されるよう前記報知部を制御する
ことを特徴とする請求項1または2に記載の音出力制御装置。
【請求項4】
前記報知制御部は、前記複数の異なるカテゴリのうち、前記出力対象のエージェント情報が属するカテゴリに応じて、前記音声メッセージの声の音色を変化させる
ことを特徴とする請求項1または2に記載の音出力制御装置。
【請求項5】
前記エージェント装置から取得される各エージェント情報には、当該エージェント情報が属するカテゴリを識別するカテゴリ識別情報が付与され、
前記報知制御部は、前記出力対象のエージェントに付与された前記カテゴリ識別情報が示すカテゴリに応じて、前記音声メッセージの態様を変化させる
ことを特徴とする請求項1~4のいずれか1つに記載の音出力制御装置。
【請求項6】
前記複数のアプリケーション間では、態様の異なる音効果が設定され、
前記報知制御部は、前記複数のアプリケーション間で異なる前記音効果のうち、前記出力対象のエージェント情報を提供した提供元のアプリケーションに応じた音効果が付加された状態で前記音声メッセージが報知されるよう前記報知部を制御する
ことを特徴とする請求項2に記載の音出力制御装置。
【請求項7】
前記エージェント装置から取得される各エージェント情報には、当該エージェント情報を提供した提供元のアプリケーションを識別するアプリ識別情報が付与され、
前記報知制御部は、前記複数のアプリケーションのうち、前記出力対象のエージェント情報に付与された前記アプリ識別情報が示すアプリケーションに応じた音効果が付加された状態で前記音声メッセージが報知されるよう前記報知部を制御する
ことを特徴とする請求項6に記載の音出力制御装置。
【請求項8】
ユーザに提供する情報として、複数の異なるカテゴリのそれぞれに属するエージェント情報を出力可能なエージェント装置から出力され、且つ音出力制御装置が前記ユーザへの報知処理を行う際に用いられるエージェント情報のデータ構造であって、
前記ユーザに報知すべき内容を示すメッセージ情報と、
前記カテゴリのうち、前記メッセージ情報に対応するカテゴリを識別するための識別情報と、
を有し、
前記識別情報は、前記音出力制御装置が前記メッセージ情報に対応する音声メッセージを出力させる際に、当該音声メッセージの出力態様を設定する処理に使用可能である
ことを特徴とするデータ構造。
【請求項9】
音出力制御装置が実行する音出力制御方法であって、
ユーザに提供する情報として、複数の異なるカテゴリのそれぞれに属するエージェント情報を出力可能なエージェント装置から、出力対象のエージェント情報を取得する情報ステップと、
前記出力対象のエージェント情報に対応する音声メッセージを報知部より出力させる報知制御ステップと、
を含み、
前記報知制御ステップは、前記出力対象のエージェント情報が属するカテゴリに応じて、前記音声メッセージの態様を変化させて前記報知部より報知させる
ことを特徴とする音出力制御方法。
【請求項10】
コンピュータを備える音出力制御装置によって実行される音出力制御プログラムであって、
前記コンピュータを、
ユーザに提供する情報として、複数の異なるカテゴリそれぞれに属するエージェント情報を出力可能なエージェント装置から、出力対象のエージェント情報を取得する情報取得手段と、
前記出力対象のエージェント情報に対応する音声メッセージを報知部より出力させる報知制御手段、
として機能させ、
前記報知制御手段は、前記出力対象のエージェント情報が属するカテゴリに応じて、前記音声メッセージの態様を変化させて前記報知部より報知させる
ことを特徴とする音出力制御プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、音出力制御装置、データ構造、音出力制御方法および音出力制御プログラムに関する。
【背景技術】
【0002】
従来、タスクの種別ごとに音色や口調が異なるエージェントが応答する技術が知られている。また、複数の要求処理装置ごとにエージェントの声色を変える技術が知られている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平8-339288号公報
【特許文献2】特開2020-67785号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記に従来技術では、ユーザは、現在出力されている音声コンテンツが所望するカテゴリに属する音声コンテンツであるのか否かを適切に認識することが困難な場合がある、という問題が一例として挙げられる。
【0005】
本発明は、上記に鑑みてなされたものであって、例えば現在出力されている音声コンテンツが属するカテゴリをユーザが適切に把握できるようサポートすることができる音出力制御装置、データ構造、音出力制御方法および音出力制御プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
請求項1に記載の音出力制御装置は、ユーザに提供する情報として、複数の異なるカテゴリのそれぞれに属するエージェント情報を出力可能なエージェント装置から、出力対象のエージェント情報を取得する情報取得部と、前記出力対象のエージェント情報に対応する音声メッセージを報知部より出力させる報知制御部と、を備え、前記報知制御部は、前記出力対象のエージェント情報が属するカテゴリに応じて、前記音声メッセージの態様を変化させて前記報知部より報知させることを特徴とする。
【0007】
また、請求項8に記載のデータ構造は、ユーザに提供する情報として、複数の異なるカテゴリのそれぞれに属するエージェント情報を出力可能なエージェント装置から出力され、且つ音出力制御装置が前記ユーザへの報知処理を行う際に用いられるエージェント情報のデータ構造であって、前記ユーザに報知すべき内容を示すメッセージ情報と、前記カテゴリのうち、前記メッセージ情報に対応するカテゴリを識別するための識別情報と、を有し、前記識別情報は、前記音出力制御装置が前記メッセージ情報に対応する音声メッセージを出力させる際に、当該音声メッセージの出力態様を設定する処理に使用可能であることを特徴とする。
【0008】
また、請求項9に記載の音出力制御方法は、音出力制御装置が実行する音出力制御方法であって、ユーザに提供する情報として、複数の異なるカテゴリのそれぞれに属するエージェント情報を出力可能なエージェント装置から、出力対象のエージェント情報を取得する情報取得ステップと、前記出力対象のエージェント情報に対応する音声メッセージを報知部より出力させる報知制御ステップと、を含み、前記報知制御ステップは、前記出力対象のエージェント情報が属するカテゴリに応じて、前記音声メッセージの態様を変化させて前記報知部より報知させることを特徴とする。
【0009】
また、請求項10に記載の音出力制御プログラムは、コンピュータを備える音出力制御装置によって実行される音出力制御プログラムであって、前記コンピュータを、ユーザに提供する情報として、複数の異なるカテゴリそれぞれに属するエージェント情報を出力可能なエージェント装置から、出力対象のエージェント情報を取得する情報取得手段と、前記出力対象のエージェント情報に対応する音声メッセージを報知部より出力させる報知制御手段、として機能させ、前記報知制御ステップは、前記出力対象のエージェント情報が属するカテゴリに応じて、前記音声メッセージの態様を変化させて前記報知部より報知させることを特徴とする。
【図面の簡単な説明】
【0010】
図1図1は、実施形態に係る情報処理の全体像を示す図である。
図2図2は、第1の実施形態に係る音出力制御装置の構成例を示す図である。
図3図3は、第1の実施形態に係るカテゴリ分類データベースの一例を示す図である。
図4図4は、第1の実施形態に係るコンテンツバッファの一例を示す図である。
図5図5は、第1の実施形態に係る音出力制御方法の一例を示す図である。
図6図6は、第1の実施形態に係る情報処理手順を示すフローチャートである。
図7図7は、第2の実施形態に係る音出力制御装置の構成例を示す図である。
図8図8は、第2の実施形態に係るアプリ分類データベースの一例を示す図である。
図9図9は、第2の実施形態に係る音出力制御方法の一例を示す図である。
図10図10は、第2の実施形態に係る情報処理手順を示すフローチャートである。
図11図11は、第3の実施形態に係る音出力制御装置の構成例を示す図である。
図12図12は、第3の情報処理の一例を示す図である。
図13図13は、音出力制御装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0011】
以下に、図面を参照しつつ、本発明を実施するための形態(以下、実施形態)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付している。
【0012】
(実施形態の概要)
〔1.はじめに〕
車両に設置される端末装置(ナビゲーション端末)や、ユーザ(例えば、車両の搭乗者)が所有するスマートフォン等の端末装置を介して、各種のコンテンツを提供するアプリケーション(以下、「アプリ」と略す)が知られている。例えば、ユーザをアシストするエージェント機能を有することで、車両の走行状態や車両を運転しているユーザの状況に応じて運転をアシストしたり、各種入力(例えば、文字入力や音声入力)に従って道案内をアシストしたりするアプリが存在する。また、車両の走行に合わせて観光案内や店舗案内あるいはその他のお役立ち情報等といった各種コンテンツを提供することでより快適な運転をアシストするアプリも存在する。
【0013】
また、係るアプリの多くは、出力先のユーザが車両の搭乗者であることを考慮して、安全面から音声エージェント機能による音声コンテンツを用いてユーザをアシストしようとする。このような場合、例えば、乗車中のユーザについて複数のアプリが紐づき、また、様々なカテゴリの音声コンテンツが提供されることになるため、以下のような問題が発生する場合がある。
【0014】
例えば、第1の課題として、様々なカテゴリの音声コンテンツが出力されると、所望しているカテゴリの音声コンテンツが出力されることをユーザが待機しているといった場合に、ユーザは、現在出力されている音声コンテンツが所望しているカテゴリの音声コンテンツであるのか否かを把握することが困難になることが挙げられる。
【0015】
また、第2の課題として、様々なアプリ種別の音声コンテンツが出力されると、例えば、複数アプリのうち特定のアプリにより提供された音声コンテンツが出力されることをユーザが待機しているといった場合に、ユーザは、現在出力されている音声コンテンツが所望している種別の音声コンテンツであるのか否かを把握することが困難になることが挙げられる。
【0016】
また、第3の課題として、複数のアプリを利用する場合に、音声コンテンツの提供元がいずれのアプリであるかの区別がしづらいために、ユーザは、自分の嗜好に応じたアプリを特定することが困難になることが挙げられる。
【0017】
そこで、本発明は、上記の課題を解決することができる音出力制御装置、データ構造、音出力制御方法および音出力制御プログラムを提供することを目的とする。以下では、本発明に相当する音出力制御装置、データ構造、音出力制御方法および音出力制御プログラムによって実現される情報処理として、3つの情報処理(第1の情報処理、第2の情報処理、第3の情報処理)について詳細に説明する。具体的には、第1の実施形態に係る情報処理として第1の情報処理を説明し、第2の実施形態に係る情報処理として第2の情報処理を説明する。また、第3の実施形態に係る情報処理として第3の情報処理を説明する。
【0018】
〔2.実施形態に係る情報処理の全体像〕
各実施形態の説明に先立って、図1を用いて、実施形態に係る情報処理の全体像について説明する。図1は、実施形態に係る情報処理の全体像を示す図である。図1に示す情報処理システム1(実施形態に係る情報処理システムの一例)は、第1の実施形態、第2の実施形態および第3の実施形態について共通するものである。また、以降の説明において、第1の実施形態、第2の実施形態、第3の実施形態を区別する必要がない場合には、単に「実施形態」と表記する場合がある。
【0019】
図1の例によれば、実施形態に係る情報処理システム1は、端末装置10と、状況把握装置30と、エージェント装置60-xと、音出力制御装置100とを含む。また、情報処理システム1に含まれるこれら各装置は、ネットワークを介して有線または無線により通信可能に接続される。
【0020】
(端末装置について)
端末装置10は、ユーザによって利用される情報処理端末である。端末装置10は、例えば、車両に設置される据え置き型のナビゲーション装置であってもよいし、ユーザが所有する携帯型端末装置(例えば、スマートフォン、タブレット型端末、ノート型PC、デスクトップPC、PDA等)であってよい。本実施形態では、端末装置10は、車両に設置されるナビゲーション装置であるものとする。
【0021】
また、図1の例では、端末装置10には、複数のアプリが紐づいているものとする。例えば、端末装置10には、複数のアプリがユーザによってインストールされていることにより紐付けられていてもよいし、インストールの有無に拘わらず各種コンテンツをプッシュ通知可能なアプリが情報処理システム1に含まれることにより紐付けが行われていてもよい。
【0022】
また、端末装置10は、報知部(出力部)を有しており、この報知部から各アプリによって提供される音声コンテンツが出力される。このようなことから、報知部とは、例えば、スピーカーであってよい。また、ここでいうユーザとは、端末装置10が設置される車両の搭乗者(例えば、運転手)であってよい。すなわち、図1の例では、端末装置10は、車両VE1に設置されるとともに、当該端末装置10のユーザが車両VE1を運転中のユーザU1である例が示される。
【0023】
(エージェント装置について)
エージェント装置60-xは、端末装置10に紐づくアプリごとに存在し、当該アプリの機能や役割を実現する情報処理装置であってよい。図1では、エージェント装置60-xがサーバ装置である例が示されるが例えばクラウドシステムによって実現されてもよい。
【0024】
また、端末装置10に紐づくアプリは、音声コンテンツを用いてユーザをアシストするアプリケーションであってよく、エージェント装置60-xは、このアシスト機能に対応する音声エージェント機能を有する。また、このようなことから端末装置10に紐づくアプリは、所謂、音声エージェントアプリといえる。
【0025】
また、以下の実施形態において、アプリAPxに対応するエージェント装置60-x、エージェント装置60-xが有する処理部(例えば、アプリ制御機能631-x、エージェント情報生成部632-x)を区別して表記する場合には、「x」に対して任意の値を用いることにする。
【0026】
例えば、図1には、エージェント装置60-xの一例としてエージェント装置60-1が示される。エージェント装置60-1は、アプリAP1(危険察知アプリ)に対応するエージェント装置であり、運転における危険を察知し注意や警告を示す音声コンテンツをユーザに提供する。また、図1の例によれば、エージェント装置60-xは、アプリ制御機能631-1と、エージェント情報生成部632-1とを有する。
【0027】
また、図1には、エージェント装置60-xの他の一例としてエージェント装置60-2が示される。エージェント装置60-2は、アプリAP2(ナビアプリ)に対応するエージェント装置であり、経路案内に関する音声コンテンツをユーザに提供する。図1では不図示であるが、エージェント装置60-2は、アプリ制御機能631-2と、エージェント情報生成部632-2とを有してよい。
【0028】
なお、端末装置10に紐づくアプリは、上記例に限定されず、例えば、観光案内に関する音声コンテンツ、店舗案内に関する音声コンテンツ、あるいは、各種のお役立ち情報を提供するものが他にも挙げられる。また、「アプリが提供する」との表現は、このアプリに対応する「エージェント装置60-xが提供する」との概念を含むものとする。
【0029】
続いて、エージェント装置60-xの機能について説明する。図1の例によれば、エージェント装置60-xは、アプリ制御機能631-x、エージェント情報生成部632-xを有する。
【0030】
アプリ制御機能631-xは、アプリAPxに関する各種制御を実行する。例えば、アプリ制御機能631-xは、ユーザによる利用履歴に基づいて、ユーザごとに提供するコンテンツのパーソナライズ化を行う。また、アプリ制御機能631-xは、ユーザとの対話を実現できるよう、ユーザに入力された音声が示す発話内容に基づき、どのような内容の音声メッセージで応答すべきかを判定する処理を行う。また、アプリ制御機能631-xは、ユーザの状況に基づき、ユーザに提供するコンテンツや、ユーザに応答する音声メッセージの内容を決定することもできる。
【0031】
エージェント情報生成部632-xは、音声コンテンツ(エージェント情報の一例)を生成する生成処理を行う。例えば、エージェント情報生成部632-xは、後述する状況把握装置30から受け付けたデータに基づいて、どのようなカテゴリに属する音声コンテンツを出力させるべきかを決定し、決定したカテゴリに属する内容の音声コンテンツを生成する。例えば、エージェント情報生成部632-xは、状況把握装置30によって把握された車両の走行状態や車両を運転しているユーザの状況に応じた内容のメッセージ情報を生成する。なお、メッセージ情報は、最終的にユーザU1に報知される音声コンテンツの基となる例えばテキストデータであって、後に音声データに変換されて得られる音声の内容を定義するものである。すなわち、エージェント情報生成部632-xは、音声コンテンツとして音声データを生成することに限定されず、音声コンテンツとして、音声メッセージの基となる他の形式のデータを生成してもよい。また、エージェント情報生成部632-xは、生成したメッセージ情報が示す内容に基づいて、メッセージ情報が属するカテゴリを識別するカテゴリ識別情報(カテゴリID)を決定する。なお、メッセージ情報が属するカテゴリとは、メッセージ情報を含む音声コンテンツが属するカテゴリともいえる。
【0032】
また、エージェント情報生成部632-xは、エージェント装置60-xに対応するアプリAPxを識別するアプリ識別情報(アプリID)を音声コンテンツに付与する。
【0033】
エージェント装置60-1を例に挙げると、エージェント情報生成部632-1は、エージェント装置60-1に対応するアプリAP1を識別するアプリID(例えば、「AP1」)を音声コンテンツに付与する。また、エージェント情報生成部632-1は、生成したこの音声コンテンツがカテゴリ「エンタメ」に属する場合には、カテゴリ「エンタメ」を示すカテゴリIDを音声コンテンツに付与する。すなわち、エージェント情報生成部632-1は、生成したメッセージ情報に、当該メッセージ情報の生成元を識別するためのアプリIDと、当該メッセージ情報の内容を識別するためのカテゴリIDを付加することで音声コンテンツとしてのエージェント情報を生成する。言い換えれば、エージェント情報生成部632-1により生成される音声コンテンツとしてのエージェント情報には、当該エージェント情報を提供した提供元のアプリケーションを識別するアプリ識別情報、及び当該エージェント情報が属するカテゴリを識別するカテゴリ識別情報が付与されている。
【0034】
また、エージェント情報生成部632-xは、上記例に限らず、例えば端末装置10を介して発話による音声入力がユーザによって行われた場合には、入力された音声に応答する内容のメッセージ情報を生成してもよい。これにより、エージェント装置60-xは、ユーザとの対話を実現可能な音声コンテンツを生成することができるようになる。
【0035】
また、さらにエージェント情報生成部632-xは、音声コンテンツを出力させるタイミングも指定することができる。例えば、エージェント情報生成部632-xは、時刻範囲、車両の走行距離範囲、車両の通過エリア、車両の速度等を用いて、音声コンテンツの出力を許容する時間的範囲、または地理的範囲を指定する許容範囲情報を生成することができる。また、係る場合、エージェント情報生成部632-xは、音声コンテンツと許容範囲情報とを音出力制御装置SVに送信することにより、許容範囲情報で示される条件に合致した車両の端末装置10に音声コンテンツを出力させるよう音出力制御装置SVにリクエスト(予約)する。タイミング指定やリクエストについては、エージェント情報生成部632-x以外の処理部によって行われてもよい。
【0036】
(状況把握装置について)
状況把握装置30は、車両の走行状態や車両を運転しているユーザの状況を把握するための分析処理を行う。図1では、状況把握装置30がサーバ装置である例が示されるが例えばクラウドシステムによって実現されてもよい。また、図1の例によれば、係る分析処理は、状況把握装置30に搭載される状況把握エンジンE30によって行われる。例えば、状況把握エンジンE30は、各種センサから得られたセンサ情報に基づき、走行状態やユーザ状況のセンシングを行う。なお、ここでいうセンサは、例えば、車両に備えられたセンサや端末装置10が有するセンサであってよく、加速度センサ、ジャイロセンサ、磁気センサ、GPS、カメラ、マイク等が一例として挙げられる。
【0037】
例えば、状況把握エンジンE30は、次のような一連の分析処理を行うことができる。例えば、状況把握エンジンE30は、上記のセンサから取得したセンサ情報に基づき、センシングを行うとともに、センシング結果をコア要素として用いることで、ベース分析を行う。ベース分析では、状況把握エンジンE30は、コア要素を情報源として必要なデータを抽出し、抽出したデータの変換および加工を行う。続いて、状況把握エンジンE30は、変換および加工後のデータを用いて高次分析を行う。高次分析では、状況把握エンジンE30は、変換および加工後のデータに基づいて、具体的な状況の分析を行う。例えば、状況把握エンジンE30は、変換および加工後のデータから、車両にかかる衝撃の状況、車両照明の状況、走行状態の変化、ユーザ自身の状況等といった各種の状況把握を行う。また、状況把握エンジンE30は、状況把握として、ユーザの行動予測(例えば、立ち寄り地の予測)を行うこともできる。
【0038】
(音出力制御装置について)
音出力制御装置SVは、実施形態に係る情報処理を行う。具体的には、音出力制御装置SVは、実施形態に係る情報処理として、後述する、第1の実施形態に係る情報処理(第1の情報処理)、第2の実施形態に係る情報処理(第2の情報処理)、第3の実施形態に係る情報処理(第3の情報処理)をそれぞれ行う。また、実施形態に係る情報処理とは、端末装置10が有する報知部より音声メッセージを出力させる報知制御に関する処理である。図1では、音出力制御装置SVがサーバ装置である例が示されるが例えばクラウドシステムによって実現されてもよい。
【0039】
また、図1に示すように、実施形態に係る各情報処理は、音出力制御装置SVに搭載される情報整合エンジンESVによって行われる。情報整合エンジンESVには、図1に示すように、リクエストマネージャ機能ESV1、レスポンスマネージャ機能ESV2といった機能が含まれる。
【0040】
リクエストマネージャ機能ESV1は、エージェント装置60-xからリクエストを受け付けて、受け付けたリクエストに応じたキューイングを行う。なお、ここでいうリクエストとは、生成した音声コンテンツをユーザに向けて出力するよう要求する出力要求であってよく、例えば音声コンテンツを含んだ状態で送信される。また、リクエストマネージャ機能ESV1は、受け付けた音声コンテンツをコンテンツバッファ122内(図4)でキューイングする。
【0041】
レスポンスマネージャ機能ESV2は、状況把握装置30によって把握された状況に関するデータ(例えば、分析処理の結果を示すデータ)や、リスエストに含まれる許容範囲情報に基づいて、出力予約された音声コンテンツを実際にどのような順で出力させるか優先順位を決定する。そして、レスポンスマネージャ機能ESV2は、決定した優先順位で各音声コンテンツを出力するよう端末装置10に対して出力制御する。なお、端末装置10に対する出力制御は、端末装置10が有する報知部に対する出力制御の概念を含むものとする。
【0042】
〔3.実施形態に係る情報処理の流れ〕
ここまで、情報処理システム1に含まれる各装置にフォーカスして説明してきた。続いて、情報処理システム1内で行われる実施形態に係る情報処理の全体的な流れについて説明する。ここでは、車両VE1を運転中のユーザU1に対して、車両VE1に設置される端末装置10を介して音声コンテンツが出力される場面を想定する。
【0043】
係る場面では、端末装置10は、自装置が有するセンサにより検出されたセンサ情報を随時、状況把握装置30に送信している(ステップS11)。
【0044】
状況把握装置30の状況把握エンジンE30は、端末装置10から送信されたセンサ情報が取得されると、車両VE1の走行状態や車両VE1を運転しているユーザU1の状態をはじめとする各種状況を把握するための分析処理を行う(ステップS12)。例えば、状況把握エンジンE30は、センサ情報を用いたセンシング、センシング結果をコア要素として用いたベース分析、ベース分析の結果得られたデータを用いた高次分析、といった一連の分析処理を行うことで詳細な状況把握を行う。
【0045】
また、状況把握装置30は、分析処理が終了すると、状況把握エンジンE30によって把握された状況に関するデータ(例えば、分析処理の結果を示すデータ)をエージェント装置60-xに送信する(ステップS13)。図1の例では、状況把握装置30は、エージェント装置60-1、エージェント装置60-2等の各エージェント装置60-xに対して状況に関するデータを送信する。
【0046】
エージェント装置60-xのエージェント情報生成部632-xは、状況把握装置30から状況に関するデータが取得されると、係るデータに基づいて、出力対象の音声コンテンツを生成する生成処理を行う(ステップS14)。例えば、エージェント情報生成部632-xは、取得されたデータに基づいて、自装置が対応可能なカテゴリのうち、いずれのカテゴリに属する音声コンテンツを出力させるべきかを決定し、決定したカテゴリに属する内容の音声コンテンツを生成する。例えば、エージェント情報生成部632-xは、取得されたデータが示す状況に応じた内容のメッセージ情報(テキストデータ)を生成する。
【0047】
また、エージェント情報生成部632-xは、生成した音声コンテンツに対して、音声コンテンツが属するカテゴリ(メッセージ情報が属するカテゴリ)を識別するカテゴリID、および、自装置に対応するアプリAPxを識別するアプリIDを付与した状態で音出力制御装置SVに送信する(ステップS15)。
【0048】
図1の例では、ステップS14の生成処理がエージェント装置60-1、エージェント装置60-2等の各エージェント装置60-xによって行われたことで、ステップS15では各エージェント装置60-xが自己の音声コンテンツを音出力制御装置SVに送信する例が示される。
【0049】
続いて、音出力制御装置SVの情報整合エンジンESVは、出力対象の音声コンテンツが取得されると、出力対象の音声コンテンツに対して報知制御処理を行う(ステップS16)。例えば、情報整合エンジンESVは、出力対象の音声コンテンツに含まれるメッセージ情報を音声データ(音声メッセージ)に変換する際に、当該音声コンテンツが属するカテゴリに応じて音声の態様を変化させつつ変換し、変換後の音声データが報知されるよう報知制御する。また、例えば、情報整合エンジンESVは、出力対象の音声コンテンツがどのようなアプリに属するかアプリ種別に応じた音効果(例えば背景音)を、変換後の音声データ(音声メッセージ)に付加した状態で報知されるよう報知制御する。このような報知制御処理について、後述する第1の実施形態および第2の実施形態で詳細に説明する。
【0050】
最後に、音出力制御装置SVは、情報整合エンジンESVによる報知制御に応じて、端末装置10に対して音出力制御を行う(ステップS17)。具体的には、音出力制御装置SVは、情報整合エンジンESVによって報知制御された音声データが端末装置10の報知部により出力されるよう端末装置10を制御する。
【0051】
(第1の実施形態)
〔1.第1の実施形態の概要〕
ここからは、第1の実施形態について説明する。第1の実施形態に係る情報処理(すなわち第1の情報処理)は、上述した第1の課題を解決することを目的として行われる。具体的には、第1の情報処理は、図1に示した音出力制御装置SVに対応する音出力制御装置100によって行われる。音出力制御装置100は、第1の実施形態に係る音出力制御プログラムに従って、第1の情報処理を行う。また、音出力制御装置100は、カテゴリ分類データベース121(図3)およびコンテンツバッファ122(図4)から成る構造を有する。
【0052】
〔2.第1の実施形態に係る音出力制御装置の構成〕
次に、図2を用いて、第1の実施形態に係る音出力制御装置100について説明する。図2は、第1の実施形態に係る音出力制御装置100の構成例を示す図である。図2に示すように、音出力制御装置100は、通信部110と、記憶部120と、制御部130とを有する。
【0053】
(通信部110について)
通信部110は、例えば、NIC等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば、端末装置10、状況把握装置30、エージェント装置60-xとの間で情報の送受信を行う。
【0054】
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、カテゴリ分類データベース121と、コンテンツバッファ122とを有する。
【0055】
(カテゴリ分類データベース121について)
カテゴリ分類データベース121は、アプリAPxによって提供される音声コンテンツ(エージェント情報)が属するカテゴリに関する情報を記憶する。ここで、図3に第1の実施形態に係るカテゴリ分類データベース121の一例を示す。図3の例では、カテゴリ分類データベース121は、「カテゴリID」と、「カテゴリ」と、「音色特徴」といった項目を有する。
【0056】
「カテゴリID」は、アプリAPx側から提供された出力対象の音声コンテンツがいずれのカテゴリに属するかを特定するために用いられる候補の「カテゴリ」を識別する識別情報を示す。
【0057】
「カテゴリ」は、アプリ側から提供された出力対象の音声コンテンツがいずれのカテゴリに属するかを特定するために用いられる候補の「カテゴリ」である。図3の例では、候補の「カテゴリ」には、「注意」、「警告」、「エンタメ」、「広告」、「案内」、「ニュース」等が存在する。なお、出力対象の音声コンテンツを提供した提供元のアプリが異なる場合であっても、この出力対象の音声コンテンツ自体はそれぞれ同一のカテゴリに属している状況が存在する。一例を挙げると、アプリAP1およびアプリAP5といったそれぞれ異なるアプリが出力対象の音声コンテンツを提供した場合であっても、この出力対象の音声コンテンツが、いずれもカテゴリ「エンタメ」に属する場合がある。
【0058】
「音色特徴」は、出力対象の音声コンテンツが属するカテゴリに応じて、この音声コンテンツに対応する音声を端末装置10の報知部から出力させる際の、音声の音色を変化させる報知制御処理で用いられる候補の音色パラメータを示す。
【0059】
図3の例では、カテゴリID「CT1」で識別されるカテゴリ「注意」に対して、音色特徴「男性の声+ゆっくり」が対応付けられている。係る例は、出力対象の音声コンテンツがカテゴリ「注意」に属する場合には、端末装置10の報知部から出力させる音声メッセージを「男性の声+ゆっくり」という特徴の音色に変えるよう規定されている例を示す。したがって、係る例での音色パラメータは、「男性の声+ゆっくり」を示すパラメータに相当する。
【0060】
また、図3の例では、カテゴリID「CT3」で識別されるカテゴリ「エンタメ」に対して、音色特徴「女性の声+早口」が対応付けられている。係る例は、出力対象の音声コンテンツがカテゴリ「エンタメ」に属する場合には、端末装置10の報知部から出力させる音声メッセージを「女性の声+早口」という特徴の音色に変えるよう規定されている例を示す。したがって、係る例での音色パラメータは、「女性の声+早口」を示すパラメータに相当する。
【0061】
(コンテンツバッファ122)
コンテンツバッファ122は、エージェント装置60-xから送信された音声コンテンツに関する情報をキューイングするための記憶領域として機能する。ここで、図4に第1の実施形態に係るコンテンツバッファ122に記憶されるデータの一例を示す。図4の例では、コンテンツバッファ122は、「提供先ユーザID」、「アプリID」、「カテゴリID」、「音声コンテンツ」といった項目を有する。
【0062】
「提供先ユーザID」は、「音声コンテンツ」が出力(報知)される出力先のユーザ(または当該ユーザの端末装置10)を識別する識別情報を示す。「アプリID」は、出力対象の「音声コンテンツ」を提供した提供元のアプリケーション(または、当該アプリケーションに対応するエージェント装置60-x)を識別する識別情報を示す。なお、提供元のアプリケーションは、出力対象の「音声コンテンツ」を生成した生成元のアプリケーションと言い換えることができる。
【0063】
「カテゴリID」は、「アプリID」で識別されるアプリケーションから提供された出力対象の「音声コンテンツ」が属するカテゴリを識別する識別情報を示す。「カテゴリID」は、「アプリID」で識別されるアプリケーションに対応するエージェント装置60-xによって出力対象の「音声コンテンツ」に付与されたものである。
【0064】
「音声コンテンツ」は、「アプリID」で識別されるアプリケーションにより提供された出力対象の「音声コンテンツ」に関する情報である。「音声コンテンツ」は、例えば、メッセージ情報としてテキストデータを含む。
【0065】
すなわち、図4の例では、アプリID「AP1」で識別されるアプリケーション(アプリAP1)により提供されたメッセージ情報♯11の内容は、カテゴリID「CT3」で識別されるカテゴリに属するものであり、ユーザID「U1」で識別されるユーザ(ユーザU1)に対して出力されることになっている例を示す。
【0066】
(制御部130について)
図2に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、音出力制御装置100内部の記憶装置に記憶されている各種プログラム(例えば、音出力制御プログラム)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
【0067】
図2に示すように、制御部130には、情報整合エンジンE100が搭載される。情報整合エンジンE100は、図1で説明した情報整合エンジンESVに対応する。情報整合エンジンE100には、リクエストマネージャ機能E101(図1で説明したリクエストマネージャ機能ESV1に対応)と、レスポンスマネージャ機能E102(図1で説明したレスポンスマネージャ機能ESV2に対応)とが含まれる。
【0068】
また、図2に示すように、リクエストマネージャ機能E101は、リクエスト受付部131と、キューイング部132とを有する。また、レスポンスマネージャ機能E102は、情報取得部133と、決定部134と、報知制御部135を有する。
【0069】
(リクエスト受付部131について)
リクエスト受付部131は、エージェント装置60-xからリクエストを受け付ける。具体的には、リクエスト受付部131は、出力対象の音声コンテンツをユーザに対して出力するよう要求するリクエストをエージェント装置60-xから受け付ける。また、係るリクエストには、出力対象の音声コンテンツ、提供先のユーザを識別するユーザID、音声コンテンツの出力を許容する期間やタイミングを条件付ける許容範囲情報等が含まれてよい。
【0070】
(キューイング部132について)
キューイング部132は、リクエスト受付部131により受け付けられたリクエストに応じて、出力対象の音声コンテンツをキューイングする。例えば、キューイング部132は、リクエストに対応付けられた音声コンテンツをコンテンツバッファ122内にキューイングする。
【0071】
(情報取得部133について)
情報取得部133は、ユーザに提供する情報として、複数の異なるカテゴリのそれぞれに属する音声コンテンツ(エージェント情報)を出力可能なエージェント装置60-xから、出力対象の音声コンテンツ(エージェント情報)を取得する。具体的には、情報取得部133は、複数のアプリケーションのそれぞれから提供されるエージェント情報を出力可能なエージェント装置60-xであって、当該アプリケーションが有するエージェント機能に対応するエージェント装置60-xのそれぞれから、複数の異なるカテゴリに属する音声コンテンツを取得してキューイング部132に引き渡す。
【0072】
(決定部134について)
決定部134は、リクエスト受付部131により受け付けられたリクエストに含まれる許容範囲情報に基づいて、出力予約された音声コンテンツを実際にどのような順で出力させるか優先順位を決定し、出力させるべきタイミングとなった音声コンテンツをコンテンツバッファ122から読み出す。
【0073】
(報知制御部135について)
報知制御部135は、エージェント装置60-xから送信された音声コンテンツ(エージェント情報)に含まれるメッセージ情報を音声データに変換する。例えば、報知制御部135は、決定部134により出力することが決定された音声コンテンツについて、Text to Speech(TTS)の技術を用いて、テキストデータを基に音声合成することで、メッセージ情報を音声データへ変換する。そして、メッセージ情報を変換することで得られた音声データ(音声メッセージ)を端末装置10の報知部より出力させる。
【0074】
また、報知制御部135は、出力対象の音声コンテンツが属するカテゴリに応じて、音声メッセージの態様を変化させて報知部より報知させる。例えば、報知制御部135は、出力対象の音声コンテンツが、複数のアプリケーションのうちいずれのアプリケーションから提供された音声コンテンツであるかに拘わらず、出力対象の音声コンテンツが属するカテゴリに応じて音声合成の音色パラメータを変えることにより、変換する音声データの態様を変化させる。
【0075】
また、これまで説明したように、エージェント装置60-xから取得される各音声コンテンツには、当該音声コンテンツが属するカテゴリを識別するカテゴリ識別情報(カテゴリID)が付与される。したがって、報知制御部135は、出力対象の音声コンテンツに付与されたカテゴリ識別情報が示すカテゴリに応じて、音声メッセージの態様を変化させる。
【0076】
例えば、報知制御部135は、複数の異なるカテゴリのうち、出力対象の音声コンテンツが属するカテゴリに応じて、音声メッセージの音色を変化させる。
【0077】
また、報知制御部135は、複数の異なるカテゴリのうち、出力対象の音声コンテンツが属するカテゴリに応じた音効果を付加した状態で音声データを報知部から報知させるようにしてもよい。なお、ここでいう音効果とは、音声メッセージの冒頭や末尾等に付加する効果音や、音声メッセージに重畳するバックグラウンドミュージック(BGM)等の背景音を示す。
【0078】
一方で、複数のアプリケーション間では、態様の異なる音効果が設定されてよく、係る場合、報知制御部135は、複数のアプリケーション間で異なる音効果のうち、出力対象の音声コンテンツを提供した提供元のアプリケーションに応じた音効果が付加された状態で音声メッセージが報知部から報知されるようにしてもよい。具体的には、エージェント装置60-xから取得される各音声コンテンツには、当該音声コンテンツを提供した提供元のアプリケーションを識別するアプリ識別情報(アプリID)が付与される。したがって、報知制御部135は、複数のアプリケーションのうち、出力対象の音声コンテンツに付与されたアプリ識別情報が示すアプリケーションに応じた音効果が付加された状態で音声メッセージが報知部から報知されるようにする。この点については、第2の実施形態で詳細に説明する。
【0079】
〔3.音出力制御方法の具体例〕
続いて、図5を用いて、第1の情報処理で行われる音出力制御方法の具体的な一例について説明する。図5は、第1の実施形態に係る音出力制御方法の一例を示す図である。
【0080】
図5には、複数のアプリとして、アプリAP1、アプリAP2、アプリAP3、アプリAP4、アプリAP5(アプリAP1~AP5)といった5つのアプリケーションが示される。また、図5には、アプリAP1~AP5それぞれから提供される音声コンテンツを報知部に出力させることが可能なエージェント装置60-xとして、エージェント装置60-1、エージェント装置60-2、エージェント装置60-3、エージェント装置60-4、エージェント装置60-5が示される。具体的には、図5の例によれば、エージェント装置60-1が、アプリAP1に対応する音声コンテンツがユーザに提供されるようこれを出力させることが可能なエージェント装置である。また、エージェント装置60-2が、アプリAP2に対応する音声コンテンツがユーザに提供されるようこれを出力させることが可能なエージェント装置である。また、エージェント装置60-3が、アプリAP3に対応する音声コンテンツがユーザに提供されるようこれを出力させることが可能なエージェント装置である。また、エージェント装置60-4が、アプリAP4に対応する音声コンテンツがユーザに提供されるようこれを出力させることが可能なエージェント装置である。また、エージェント装置60-5が、アプリAP5に対応する音声コンテンツがユーザに提供されるようこれを出力させることが可能なエージェント装置である。
【0081】
また、図5の例によれば、エージェント装置60-1は、カテゴリ「エンタメ」に属する音声コンテンツ、および、カテゴリ「広告」に属する音声コンテンツを出力させることが可能な装置である。また、エージェント装置60-2は、カテゴリ「注意」に属する音声コンテンツ、および、カテゴリ「警告」に属する音声コンテンツを出力させることが可能な装置である。また、エージェント装置60-3は、カテゴリ「案内」に属する音声コンテンツを出力させることが可能な装置である。また、エージェント装置60-4は、カテゴリ「ニュース」に属する音声コンテンツ、および、カテゴリ「広告」に属する音声コンテンツを出力させることが可能な装置である。また、エージェント装置60-5は、カテゴリ「注意」に属する音声コンテンツ、および、カテゴリ「エンタメ」に属する音声コンテンツを出力させることが可能な装置である。
【0082】
ここで、例えば、エージェント装置60-1のエージェント情報生成部632-1は、状況把握装置30から取得された状況に関するデータに基づき、カテゴリ「エンタメ」に属する内容のメッセージ情報に対応する音声コンテンツA-1を生成したとする。係る場合、エージェント装置60-1は、音声コンテンツA-1がユーザU1に対して出力されるよう、図5に示すように、カテゴリ「エンタメ」を識別するカテゴリID「CT3」を音声コンテンツA-1に付与した状態で、音出力制御装置100に送信する。また、このとき、エージェント装置60-1は、音声コンテンツA-1を提供する提供元のアプリケーションであるアプリAP1を識別するアプリID「AP1」をさらに付与してもよい。
【0083】
音出力制御装置100の情報取得部133は、カテゴリID「CT3」が付与された音声コンテンツA-1を出力対象の音声コンテンツとしてエージェント装置60-1から取得する。続いて、キューイング部132、決定部134による処理により、音声コンテンツA-1が、端末装置10の報知部より出力させる音声コンテンツとして決定されると、報知制御部135は、決定された出力対象の音声コンテンツA-1に含まれるメッセージ情報について、音声コンテンツA-1が属するカテゴリに応じた音色パラメータを使用して音声合成を行うといった報知制御処理を行う。
【0084】
図5の例によれば、報知制御部135は、音声コンテンツA-1に付与されるカテゴリID「CT3」を、カテゴリ分類データベース121と照らし合わせることで、音声コンテンツA-1が属するカテゴリが「エンタメ」であることを特定することができる。また、報知制御部135は、カテゴリ分類データベース121を参照し、端末装置10の報知部から出力させる音声メッセージを「女性の声+早口」という特徴の音色に変えるよう規定されていることを認識する。そして、報知制御部135は、音声コンテンツA-1に含まれる音声データについて、「女性の声+早口」を示すパラメータを使用して音声合成を行うことで、音声の音色を変化させる。
【0085】
続いて、報知制御部135は、音声コンテンツA-1の音声合成後の音声メッセージがユーザU1の端末装置10の報知部より報知されるよう音出力制御を行う。例えば、報知制御部135は、ユーザU1の端末装置10に対して、音声コンテンツA-1の音声合成後の音声メッセージを送信することで、音声コンテンツA-1に対応する音声メッセージを出力するよう制御する。端末装置10は、報知制御部135からの音出力制御に応じて、当該音声メッセージを報知部より報知する。これにより、ユーザU1は、現在出力されている音声コンテンツがカテゴリ「エンタメ」に属するものであることを容易に把握することができるようになる。
【0086】
なお、報知制御部135は、音声コンテンツA-1がカテゴリ「エンタメ」に属することに応じて音声コンテンツA-1に対応する音声メッセージの音色を変えるだけでなく、音声コンテンツA-1がカテゴリ「エンタメ」に属することに応じた音効果(例えば、効果音やBGM等の背景音)を当該音声メッセージに付与してもよい。係る場合、例えば、図3に示すカテゴリ分類データベース121において、「カテゴリID」ごとに当該カテゴリIDが示すカテゴリに応じた音効果のデータが対応付けられるようにしておけばよい(図示せず)。
【0087】
次に、出力対象の音声コンテンツが、複数のアプリケーションのうちいずれのアプリケーションから提供された音声コンテンツであるかに拘わらず、出力対象の音声コンテンツが属するカテゴリに応じて、音声データの態様が変化させられる点について、音声コンテンツA-2およびD-3の例を用いて説明する。
【0088】
例えば、エージェント装置60-1のエージェント情報生成部632-1は、状況把握装置30から取得された状況に関するデータに基づき、カテゴリ「広告」に属する内容のメッセージ情報に対応する音声コンテンツA-2を生成したとする。係る場合、エージェント装置60-1は、音声コンテンツA-2がユーザU1に対して出力されるよう、図5に示すように、カテゴリ「広告」を識別するカテゴリID「CT4」を音声コンテンツA-2に付与した状態で、音出力制御装置100に送信する。このとき、エージェント装置60-1は、音声コンテンツA-2を提供する提供元のアプリケーションであるアプリAP1を識別するアプリID「AP1」をさらに付与してもよい。
【0089】
情報取得部133は、カテゴリID「CT4」が付与された音声コンテンツA-2を出力対象の音声コンテンツとしてエージェント装置60-1から取得する。続いて、キューイング部132、決定部134による処理により、音声コンテンツA-2が、端末装置10の報知部より出力させる音声コンテンツとして決定されると、報知制御部135は、決定された出力対象の音声コンテンツA-2に含まれるメッセージ情報について、音声コンテンツA-2が属するカテゴリに応じた音色パラメータを使用して音声合成を行うといった報知制御処理を行う。
【0090】
図5の例によれば、報知制御部135は、音声コンテンツA-2に付与されるカテゴリID「CT4」を、カテゴリ分類データベース121と照らし合わせることで、音声コンテンツA-2が属するカテゴリが「広告」であることを特定することができる。また、報知制御部135は、カテゴリ分類データベース121を参照し、端末装置10の報知部から出力させる音声メッセージを「ロボットの声+ゆっくり」という特徴の音色に変えるよう規定されていることを認識する。そして、報知制御部135は、音声コンテンツA-2に含まれる音声データについて、「ロボットの声+ゆっくり」を示すパラメータを使用して音声合成を行うことで、音声の音色を変化させる。
【0091】
続いて、報知制御部135は、音声コンテンツA-2の音声合成後の音声メッセージがユーザU1の端末装置10の報知部より報知されるよう音出力制御を行う。例えば、報知制御部135は、ユーザU1の端末装置10に対して、音声コンテンツA-2の音声合成後の音声メッセージを送信することで、音声コンテンツA-2に対応する音声メッセージを出力するよう制御する。端末装置10は、報知制御部135からの音出力制御に応じて、当該音声メッセージを報知部より報知する。これにより、ユーザU1は、現在出力されている音声コンテンツがカテゴリ「広告」に属するものであることを容易に把握することができるようになる。
【0092】
また、例えば、エージェント装置60-4のエージェント情報生成部631-4は、状況把握装置30から取得された状況に関するデータに基づき、カテゴリ「広告」に属する内容のメッセージ情報に対応する音声コンテンツD-3を生成したとする。係る場合、エージェント装置60-4は、音声コンテンツD-3がユーザU1に対して出力されるよう、図5に示すように、カテゴリ「広告」を識別するカテゴリID「CT4」を音声コンテンツD-3に付与した状態で、音出力制御装置100に送信する。このとき、エージェント装置60-1は、音声コンテンツD-3を提供する提供元のアプリケーションであるアプリAP4を識別するアプリID「AP4」をさらに付与してもよい。
【0093】
情報取得部133は、カテゴリID「CT4」が付与された音声コンテンツD-3を出力対象の音声コンテンツとしてエージェント装置60-4から取得する。続いて、キューイング部132、決定部134による処理により、音声コンテンツD-3が、端末装置10の報知部より出力させる音声コンテンツとして決定されると、報知制御部135は、決定された出力対象の音声コンテンツD-3に含まれるメッセージ情報について、音声コンテンツD-3が属するカテゴリに応じた音色パラメータを使用して音声合成を行うといった報知制御処理を行う。
【0094】
図5の例によれば、報知制御部135は、音声コンテンツD-3に付与されるカテゴリID「CT4」を、カテゴリ分類データベース121と照らし合わせることで、音声コンテンツD-3が属するカテゴリが「広告」であることを特定することができる。また、報知制御部135は、カテゴリ分類データベース121を参照し、端末装置10の報知部から出力させる音声メッセージを「ロボットの声+ゆっくり」という特徴の音色に変えるよう規定されていることを認識する。そして、報知制御部135は、音声コンテンツD-3に含まれる音声データについて、「ロボットの声+ゆっくり」を示すパラメータを使用して音声合成を行うことで、音声の音色を変化させる。
【0095】
続いて、報知制御部135は、音声コンテンツD-3の音声合成後の音声メッセージがユーザU1の端末装置10の報知部より報知されるよう音出力制御を行う。例えば、報知制御部135は、ユーザU1の端末装置10に対して、音声コンテンツD-3の音声合成後の音声メッセージを送信することで、音声コンテンツD-3に対応する音声メッセージを出力するよう制御する。端末装置10は、報知制御部135からの音出力制御に応じて、当該音声メッセージを報知部より報知する。これにより、ユーザU1は、現在出力されている音声コンテンツがカテゴリ「広告」に属するものであることを容易に把握することができるようになる。
【0096】
ここで、上記2例によれば、音声コンテンツを提供した提供元のアプリがアプリAP1、アプリAP4といったように異なる。しかしながら、双方から提供される各音声コンテンツは、共に同一カテゴリ(広告)に属することから、アプリの種別に拘わらず同一の態様(ロボットの声+ゆっくり)に変化させられた状態で出力される。
【0097】
また、出力対象の音声コンテンツが、複数のアプリケーションのうちいずれのアプリケーションから提供された音声コンテンツであるかに拘わらず、出力対象の音声コンテンツが属するカテゴリに応じた音効果(例えば、効果音やBGM等の背景音)を当該音声コンテンツに付与してもよい。
【0098】
ここまで、図5に示される一部の音声コンテンツを例に挙げて、第1の情報処理で行われる音出力制御方法の具体的な一例を説明してきた。図5に示されるその他の音声コンテンツについても、一部の音声コンテンツの例に倣って説明可能であるため詳細な説明については省略する。
【0099】
〔4.処理手順〕
次に、図6を用いて、第1の実施形態に係る情報処理の手順について説明する。図6は、第1の実施形態に係る情報処理手順を示すフローチャートである。なお、図6のフローチャートに示すフローは、例えば、ユーザU1が車両VE1を運転している間、繰り返し実行される。
【0100】
まず、音出力制御装置100の制御部130は、エージェント装置60-xからエージェント情報を取得したか否かを判定する(ステップS101)。制御部130は、新たなエージェント情報を取得したと判定された場合には(ステップS101;Yes)、取得されたエージェント情報についてのキューイング処理を行う(ステップS102)。ステップS102においては、新たに取得したエージェント情報を既に取得済みのエージェント情報と共にキューイングし、音声メッセージとして出力させる優先順位を決定してステップS103に進む。一方、ステップS101において、エージェント装置60-xから新たなエージェント情報を取得できていないと判定した場合は(ステップS101;No)、直接、ステップS103に進む。
【0101】
次に、制御部130は、エージェント装置60-xから取得したエージェント情報(音声コンテンツ)のうち、出力すべきタイミングとなったエージェント情報が存在するか否かを判定する(ステップS103)。制御部130は、出力すべきタイミングとなったエージェント情報が存在しないと判定した場合は(ステップS103;No)、フローを一旦終了し、またフローをはじめから繰り返す。
【0102】
一方、制御部130は、出力すべきタイミングとなったエージェント情報が存在すると判定した場合には(ステップS103;Yes)、出力すべきエージェント情報に付与されるカテゴリIDに基づき、このエージェント情報が属するカテゴリを特定する(ステップS104)。例えば、制御部130は、出力すべきエージェント情報に付与されるカテゴリIDを、カテゴリ分類データベース121と照らし合わせることで、出力対象のエージェント情報が属するカテゴリを特定する。
【0103】
また、制御部130は、図3に示すカテゴリ分類データベース121の例のように、カテゴリ間で異なるよう設定される音色特徴(音色パラメータ)のうち、特定したカテゴリに対応する音色特徴を特定する(ステップS105)。
【0104】
そして、制御部130は、出力すべきエージェント情報に含まれるメッセージ情報を音声データに変換する際の音声合成のパラメータを、特定した音色パラメータ(出力すべきエージェント情報が属するカテゴリに応じた音色パラメータ)へと変更して音声変換を行う(ステップS106)。
【0105】
最後に、制御部130は、出力すべきエージェント情報に対応する音声データが当該エージェント情報の提供先として指定されているユーザの端末装置10の報知部より報知されるよう音出力制御を行う(ステップS107)。その後、制御部130はフローをはじめから繰り返す。
【0106】
なお、図6のフローチャートにおいては、出力すべきタイミングとなったエージェント情報を特定した後に、当該特定されたエージェント情報に含まれるメッセージ情報を音声データに変換するという手順を説明したが、メッセージ情報を音声データに変換するタイミングはこれに限定されない。例えば、情報取得部133が新たなエージェント情報を取得したらすぐに、ステップS104~ステップS106に相当する音声データへの変換処理を実施してしまい、変換後の音声データを含む音声コンテンツについて、ステップS102及びステップS103に相当する、出力の優先順位の決定及び出力すべきタイミングの判定処理を行うようにしてもよい。
【0107】
〔5.まとめ〕
第1の実施形態に係る音出力制御装置100は、ユーザに提供する情報として、複数の異なるカテゴリそれぞれに属するエージェント情報を出力可能なエージェント装置から、出力対象のエージェント情報を取得する。そして、音出力制御装置100は、出力対象のエージェント情報に対応する音声メッセージを報知部より出力させる。具体的には、音出力制御装置100は、出力対象のエージェント情報が属するカテゴリに応じて、音声メッセージの態様を変化させて報知部より報知させる。このような音出力制御装置100によれば、ユーザは、現在出力されている音声コンテンツが所望しているカテゴリの音声コンテンツであるのか否かを容易に把握することができるようになる。
【0108】
(第2の実施形態)
〔1.第2の実施形態の概要〕
ここからは、第2の実施形態について説明する。第2の実施形態に係る情報処理(すなわち第2の情報処理)は、上述した第2の課題を解決することを目的として行われる。具体的には、第2の情報処理は、図1に示した音出力制御装置SVに対応する音出力制御装置200によって行われる。音出力制御装置200は、第2の実施形態に係る音出力制御プログラムに従って、第2の情報処理を行う。また、音出力制御装置200は、カテゴリ分類データベース121(図3)およびコンテンツバッファ122(図4)に加えて、アプリ分類データベース233から成る構造を有する。
【0109】
〔2.第2の実施形態に係る音出力制御装置の構成〕
次に、図7を用いて、第2の実施形態に係る音出力制御装置200について説明する。図7は、第2の実施形態に係る音出力制御装置200の構成例を示す図である。図7に示すように、音出力制御装置200は、通信部110と、記憶部220と、制御部130とを有する。以下の説明において、音出力制御装置100と同一符号が付された処理部については説明を省略する、もしくは、簡略化する場合がある。
【0110】
(記憶部220について)
記憶部220は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部220は、カテゴリ分類データベース121と、コンテンツバッファ122と、アプリ分類データベース233とを有する。
【0111】
(アプリ分類データベース233について)
アプリ分類データベース233は、音効果に関する情報を記憶する。ここで、図8に第2の実施形態に係るアプリ分類データベース233の一例を示す。図8の例では、アプリ分類データベース233は、「アプリID」、「アプリ種別」、「音効果」といった項目を有する。
【0112】
「アプリID」は、出力対象の「音声コンテンツ」を提供した提供元のアプリケーション(または、当該アプリケーションに対応するエージェント装置60-x)を識別する識別情報を示す。なお、提供元のアプリケーションは、出力対象の「音声コンテンツ」を生成した生成元のアプリケーションと言い換えることができる。「アプリ種別」は、「アプリID」により識別されるアプリケーションの種別に関する情報であって、例えば、アプリケーションの名称であってよい。また、「アプリ種別」は、「アプリID」により識別されるアプリケーションによって提供される出力対象の音声コンテンツ(エージェント情報)が属する種別に相当する。
【0113】
「音効果」は、出力対象の音声コンテンツを提供した提供元のアプリケーションに応じて、出力対象の音声コンテンツに対して重畳する背景音の候補であって、例えば、背景音は、効果音や音楽であってよい。
【0114】
図8の例では、アプリID「AP1」に対して音効果「効果音♯1」が対応付けられている。係る例は、出力対象の音声コンテンツを提供した提供元のアプリケーションがアプリAP1である場合には、出力対象の音声コンテンツに含まれる音声データ(音声メッセージ)に背景音として効果音♯1を重畳した状態で報知させるよう規定されている例を示す。
【0115】
(情報取得部133について)
情報取得部133は、ユーザに提供する情報として、当該情報の内容または当該情報の提供元により区別される複数の種別の音声コンテンツを出力可能なエージェント装置から、出力対象の音声コンテンツを取得する。
【0116】
例えば、情報取得部133は、複数のアプリケーションそれぞれから提供される音声コンテンツを出力可能なエージェント装置60-xであって、当該アプリケーションが有するエージェント機能に対応するエージェント装置60-xから、出力対象の音声コンテンツを取得する。
【0117】
(報知制御部135について)
報知制御部135は、出力対象の音声コンテンツに対応する音声データを報知部より出力させる。
【0118】
また、報知制御部135は、出力対象の音声コンテンツが属する種別に応じた背景音を音声データに付加して報知部より報知させる。
【0119】
例えば、報知制御部135は、出力対象の音声コンテンツが属する種別として、出力対象の音声コンテンツを提供した提供元のアプリケーションに応じた背景音を音声データに付加して報知部より報知させる。このような場合、エージェント装置60-xから取得される各音声コンテンツには、当該音声コンテンツを提供した提供元のアプリケーションを識別するアプリ識別情報が付与される。したがって、報知制御部135は、複数のアプリケーションのうち、出力対象の音声コンテンツに付与されたアプリ識別情報が示すアプリケーションに応じた背景音を音声データに付加して報知部より報知させる。
【0120】
また、複数の種別の音声コンテンツには、音声コンテンツの内容に基づき区別される複数の異なるカテゴリに属する音声コンテンツが含まれてよい。係る場合、情報取得部133は、複数の異なるカテゴリに属する音声コンテンツのうち、出力対象の音声コンテンツをエージェント装置60-xから取得する。そうすると、報知制御部135は、複数の異なるカテゴリ間で異なる背景音のうち、出力対象の音声コンテンツが属するカテゴリに応じた背景音を音声メッセージに付加して報知部より報知させる。具体的な一例として、情報取得部133は、複数のアプリケーションそれぞれから提供される音声コンテンツを出力可能なエージェント装置60-xであって、当該アプリケーションが有するエージェント機能に対応するエージェント装置60-xから、出力対象の音声コンテンツを取得する。そして、報知制御部135は、出力対象の音声コンテンツが、複数のアプリケーションのうちいずれのアプリケーションから提供されたエージェント情報であるかに拘わらず、出力対象の音声コンテンツが属するカテゴリに応じた背景音を音声データに付加して報知部より報知させる。
【0121】
また、第1の実施形態で説明したように、報知制御部135は、複数の異なるカテゴリのうち、出力対象の音声コンテンツが属するカテゴリに応じた音色で、音声メッセージが報知されるよう報知部を制御してよい。係る場合、エージェント装置60-xから取得される各音声コンテンツには、当該音声コンテンツが属するカテゴリを識別するカテゴリ識別情報が付与される。したがって、報知制御部135は、出力対象の音声コンテンツに付与されたカテゴリ識別情報が示すカテゴリに応じた音色で、音声データが報知されるよう報知部を制御する。
【0122】
〔3.音出力制御方法の具体例〕
続いて、図9を用いて、第2の情報処理で行われる音出力制御方法の具体的な一例について説明する。図9は、第2の実施形態に係る音出力制御方法の一例を示す図である。
【0123】
図9の多くは、図5の例に対応する。具体的には、図9には、複数のアプリとして、アプリAP1、アプリAP2、アプリAP3、アプリAP4、アプリAP5(アプリAP1~AP5)といった5つのアプリケーションが示される。また、図5には、アプリAP1~AP5それぞれから提供される音声コンテンツを報知部に出力させることが可能なエージェント装置60-xとして、エージェント装置60-1、エージェント装置60-2、エージェント装置60-3、エージェント装置60-4、エージェント装置60-5が示される。各エージェント装置60-xの説明についは省略する。
【0124】
ここで、例えば、エージェント装置60-1のエージェント情報生成部632-1は、状況把握装置30から取得された状況に関するデータに基づき、カテゴリ「エンタメ」に属する内容のメッセージ情報に対応する音声データを用いて音声コンテンツA-1を生成したとする。係る場合、エージェント装置60-1は、音声コンテンツA-1がユーザU1に対して出力されるよう、図9に示すように、カテゴリ「エンタメ」を識別するカテゴリID「CT3」を音声コンテンツA-1に付与する。また、エージェント装置60-1は、音声コンテンツA-1を提供する提供元のアプリケーションであるアプリAP1を識別するアプリID「AP1」を音声コンテンツA-1にさらに付与する。そして、エージェント装置60-1は、カテゴリIDおよびアプリIDを付与した音声コンテンツA-1を音出力制御装置200に送信する。
【0125】
音出力制御装置200の情報取得部133は、アプリID「AP1」およびカテゴリID「CT3」が付与された音声コンテンツA-1を出力対象の音声コンテンツとしてエージェント装置60-1から取得する。続いて、キューイング部132、決定部134による処理により、音声コンテンツA-1が、端末装置10の報知部より出力させる音声コンテンツとして決定されると、報知制御部135は、決定された出力対象の音声コンテンツA-1に含まれるメッセージ情報について、音声コンテンツA-1が属するカテゴリに応じた音色パラメータを使用して音声合成を行う。
【0126】
図9の例によれば、第1の実施形態と同様に、報知制御部135は、音声コンテンツA-1に付与されるカテゴリID「CT3」を、カテゴリ分類データベース121と照らし合わせることで、音声コンテンツA-1が属するカテゴリが「エンタメ」であることを特定することができる。また、報知制御部135は、カテゴリ分類データベース121を参照し、端末装置10の報知部から出力させる音声メッセージを「女性の声+早口」という特徴の音色に変えるよう規定されていることを認識する。そして、報知制御部135は、音声コンテンツA-1に含まれる音声データについて、「女性の声+早口」を示すパラメータを使用して音声合成を行うことで、音声の音色を変化させる。
【0127】
第2の実施形態においては、これに加えて、音出力制御装置200は音声コンテンツA-1を提供する提供元のアプリケーションに対応する背景音を音声メッセージに重畳して出力する。
【0128】
例えば、報知制御部135は、さらに、音声コンテンツA-1に付与されるアプリID「AP1」を、アプリ分類データベース223と照らし合わせることで、音声コンテンツA-1が属するアプリ種別が「アプリAP1」であることを特定する。
【0129】
また、報知制御部135は、音声コンテンツA-1が属するアプリ種別が「アプリAP1」であることに応じて、アプリ分類データベース223から効果音♯1を抽出する。そして、報知制御部135は、抽出した効果音♯1を背景音として音声合成後の音声メッセージに付加する。
【0130】
次に、報知制御部135は、上記のように音声合成および背景音の付加といった変換処理を行った後の音声コンテンツA-1がユーザU1の端末装置10の報知部より報知されるよう音出力制御を行う。例えば、報知制御部135は、ユーザU1の端末装置10に対して、変換処理後の音声コンテンツA-1を送信することで、変換処理後の音声コンテンツA-1を出力するよう制御する。端末装置10は、報知制御部135からの音出力制御に応じて、変換処理後の音声コンテンツA-1を報知部より報知する。これにより、ユーザU1には、例えば、「ピッピッピッピッ…」といった効果音(効果音♯1の一例)を背景音として、「女性の声+早口」の音声メッセージが出力される。すなわち、ユーザU1は、音声コンテンツのカテゴリに対応する音色の音声メッセージと、提供元のアプリケーションに対応する背景音を同時に聞くことができる。この結果、ユーザU1は、現在出力されている音声コンテンツがアプリAP1から提供された「エンタメ」に関するものであることを容易に把握することができるようになる。
【0131】
続いて、図9に示す他の一例について説明する。例えば、エージェント装置60-5のエージェント情報生成部631-5は、状況把握装置30から取得された状況に関するデータに基づき、カテゴリ「注意」に属する内容のメッセージ情報に対応する音声データを用いて音声コンテンツE-1を生成したとする。係る場合、エージェント装置60-5は、音声コンテンツE-1がユーザU1に対して出力されるよう、図9に示すように、カテゴリ「注意」を識別するカテゴリID「CT1」を音声コンテンツE-1に付与する。また、エージェント装置60-5は、音声コンテンツE-1を提供する提供元のアプリケーションであるアプリAP5を識別するアプリID「AP5」を音声コンテンツE-1にさらに付与する。そして、エージェント装置60-5は、カテゴリIDおよびアプリIDを付与した音声コンテンツA-1を音出力制御装置200に送信する。
【0132】
情報取得部133は、アプリID「AP5」およびカテゴリID「CT1」が付与された音声コンテンツE-1を出力対象の音声コンテンツとしてエージェント装置60-5から取得する。続いて、キューイング部132、決定部134による処理により、音声コンテンツE-1が、端末装置10の報知部より出力させる音声コンテンツとして決定されると、報知制御部135は、決定された出力対象の音声コンテンツE-1に含まれるメッセージ情報について、音声コンテンツE-1が属するカテゴリに応じた音色パラメータを使用して音声合成を行う。
【0133】
図9の例によれば、報知制御部135は、音声コンテンツE-1に付与されるカテゴリID「CT1」を、カテゴリ分類データベース121と照らし合わせることで、音声コンテンツE-1が属するカテゴリが「注意」であることを特定することができる。また、報知制御部135は、カテゴリ分類データベース121を参照し、端末装置10の報知部から出力させる音声メッセージを「男性の声+ゆっくり」という特徴の音色に変えるよう規定されていることを認識する。そして、報知制御部135は、音声コンテンツE-1に含まれる音声データについて、「男性の声+ゆっくり」を示すパラメータを使用して音声合成を行うことで、音声の音色を変化させる。
【0134】
さらに報知制御部135は、音声コンテンツE-1に付与されるアプリID「AP5」を、アプリ分類データベース223と照らし合わせることで、音声コンテンツE-1が属するアプリ種別が「アプリAP5」であることを特定することができる。
【0135】
また、報知制御部135は、音声コンテンツE-1が属するアプリ種別が「アプリAP5」であることに応じて、アプリ分類データベース223から音楽♯5を抽出する。そして、報知制御部135は、抽出した音楽♯5を背景音として音声合成後の音声メッセージに付加する。
【0136】
次に、報知制御部135は、上記のように音声合成および背景音の付加といった変換処理を行った後の音声コンテンツE-1がユーザU1の端末装置10の報知部より報知されるよう音出力制御を行う。例えば、報知制御部135は、ユーザU1の端末装置10に対して、変換処理後の音声コンテンツE-1を送信することで、変換処理後の音声コンテンツE-1を出力するよう制御する。端末装置10は、報知制御部135からの音出力制御に応じて、変換処理後の音声コンテンツE-1を報知部より報知する。これにより、ユーザU1には、音楽♯5を背景音として、「男性の声+ゆっくり」の音声メッセージが出力される。すなわち、ユーザU1は、音声コンテンツのカテゴリに対応する音色の音声メッセージと、提供元のアプリケーションに対応する背景音を同時に聞くことができる。この結果、ユーザU1は、現在出力されている音声コンテンツがアプリAP5から提供された「注意」に関するものであることを容易に把握することができるようになる。
【0137】
ここまで、図9に示される一部の音声コンテンツを例に挙げて、第2の情報処理で行われる音出力制御方法の具体的な一例を説明してきた。図9に示されるその他の音声コンテンツについても、一部の音声コンテンツの例に倣って説明可能であるため詳細な説明については省略する。
【0138】
〔4.処理手順〕
次に、図10を用いて、第2の実施形態に係る情報処理の手順について説明する。図10は、第2の実施形態に係る情報処理手順を示すフローチャートである。図10に示すステップS101~S106については、図6の例と共通であるため説明を省略し、第2の実施形態に係る情報処理で新たに追加されるステップS207~S210について説明する。
【0139】
制御部130は、出力すべきエージェント情報に付与されるアプリIDに基づき、出力対象のエージェント情報が属するアプリ種別を特定する(ステップS207)。例えば、制御部130は、アプリIDを、アプリ分類データベース223と照らし合わせることで、出力対象のエージェント情報が属するアプリ種別を特定する。
【0140】
また、制御部130は、図8に示すアプリ分類データベース223の例のように、アプリ間で異なるよう設定される背景音のうち、特定したアプリ種別に対応する背景音を抽出する(ステップS208)。
【0141】
また、制御部130は、音声変換後のエージェント情報に対して、抽出した背景音を付加する(ステップS209)。
【0142】
最後に、報知制御部135は、背景音の付加後のエージェント情報がユーザU1の端末装置10の報知部より報知されるよう音出力制御を行う(ステップS210)。
【0143】
なお、図10のフローチャートにおいては、出力すべきタイミングとなったエージェント情報を特定した後に、当該特定されたエージェント情報に含まれるメッセージ情報を音声データに変換し、その後に背景音を付加するという手順を説明したが、メッセージ情報を音声データに変換するタイミング及び背景音を付加するタイミングはこれに限定されない。例えば、情報取得部133が新たなエージェント情報を取得したらすぐに、ステップS104~ステップS106に相当する音声データへの変換処理、及び、ステップS207~ステップS209に相当する背景音の付加処理を実施してしまい、背景音付加後の音声データを含む音声コンテンツについて、ステップS102およびステップS103に相当する、出力の優先順位の決定及び出力すべきタイミングの判定処理を行うようにしてもよい。
【0144】
なお、ここまで第2の実施形態として、音出力制御装置200が、音声コンテンツのカテゴリに対応する音色の音声メッセージに、提供元のアプリケーションに対応する背景音を重畳して出力することを説明したが、他の例として、音出力制御装置200は、提供元のアプリケーションに対応する音色の音声メッセージに、音声コンテンツが属するカテゴリに対応する背景音を重畳して出力するようにしてもよい。例えば、報知制御部135は、音声コンテンツの提供元のアプリケーションがアプリAP1であり、且つ当該音声コンテンツに含まれるメッセージ情報がカテゴリ「エンタメ」に属する場合に、アプリA1に対応する音色パラメータを使用して音声合成を行い、且つカテゴリ「エンタメ」に対応する背景音を音声メッセージに付与してもよい。係る場合、例えば、図3に示すカテゴリ分類データベース121において、「カテゴリID」ごとに当該カテゴリIDが示すカテゴリに応じた背景音のデータが対応付けられ、また、図8に示すアプリ分類データベース223において、「アプリID」ごとに当該アプリIDが示すアプリ種別に応じた音声特徴(音声パラメータ)が対応付けられることとなる。
【0145】
この場合においても、ユーザU1は、提供元のアプリケーションに対応する音色の音声メッセージと、音声コンテンツのカテゴリに対応する背景音を同時に聞くことができる。この結果、ユーザU1は、現在出力されている音声コンテンツの提供元となるアプリケーションと、音声コンテンツのカテゴリを容易に把握することができるようになる。
【0146】
または、さらに他の例として、音出力制御装置200は、音声メッセージの音声の音色については常に標準の音色に固定しておき、音声コンテンツのカテゴリに対応させて背景音のみを変更するようにしてもよい。すなわち、出力対象の音声コンテンツが、複数のアプリケーションのうちいずれのアプリケーションから提供された音声コンテンツであるかに拘わらず、出力対象の音声コンテンツが属するカテゴリに応じた背景音を付与するようにしてもよい。この場合においても、ユーザU1は、音声メッセージと同時に音声コンテンツのカテゴリに対応する背景音を聞くことができる。この結果、ユーザU1は、現在出力されている音声コンテンツが属するカテゴリを容易に把握することができるようになる。
【0147】
〔5.まとめ〕
第2の実施形態に係る音出力制御装置200は、ユーザに提供する情報として、当該情報の内容または当該情報の提供元により区別される複数の種別のエージェント情報を出力可能なエージェント装置から、出力対象のエージェント情報を取得する。そして、音出力制御装置200は、出力対象のエージェント情報に対応する音声メッセージを報知部より出力させる。具体的には、音出力制御装置200は、出力対象のエージェント情報が属する種別に応じた背景音を音声メッセージに付加して報知部より報知させる。このような音出力制御装置200によれば、ユーザは、現在出力されている音声コンテンツが所望している種別の音声コンテンツであるのか否かを容易に把握することができるようになる。
【0148】
(第3の実施形態)
〔1.第3の実施形態の概要〕
ここからは、第3の実施形態について説明する。第3の実施形態に係る情報処理(すなわち第3の情報処理)は、上述した第3の課題を解決することを目的として行われる。具体的には、第3の情報処理は、図1に示した音出力制御装置SVに対応する音出力制御装置300によって行われる。音出力制御装置300は、第3の実施形態に係る音出力制御プログラムに従って、第3の情報処理を行う。
【0149】
〔2.第3の実施形態に係る音出力制御装置の構成〕
次に、図11を用いて、第3の実施形態に係る音出力制御装置300について説明する。図11は、第3の実施形態に係る音出力制御装置300の構成例を示す図である。図11に示すように、音出力制御装置300は、通信部110と、記憶部220と、制御部330とを有する。以下の説明において、音出力制御装置100および200と同一符号が付された処理部については説明を省略する、もしくは、簡略化する場合がある。
【0150】
(制御部330について)
制御部330は、CPUやMPU等によって、音出力制御装置300内部の記憶装置に記憶されている各種プログラム(例えば、音出力制御プログラム)がRAMを作業領域として実行されることにより実現される。また、制御部330は、例えば、ASICやFPGA等の集積回路により実現される。
【0151】
図11に示すように、制御部330は、提示制御部336と、音効果設定部337と、利用停止受付部338とをさらに有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部330の内部構成は、図11に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部330が有する各処理部の接続関係は、図11に示した接続関係に限られず、他の接続関係であってもよい。
【0152】
(提示制御部336について)
第2の実施形態で説明したように、報知制御部135は、複数のアプリケーションのうち、情報取得部133が取得した音声コンテンツの提供元であるアプリケーションに応じて、複数のアプリケーションの間で異なる音効果を付与した音声データを報知部より報知させる。そこで、提示制御部336は、複数のアプリケーションの各々に対応する音効果を示すアプリケーションリストをユーザに対して提示させるものである。
【0153】
例えば、提示制御部336は、アプリケーションリストを示す画像情報が表示部(端末装置10の表示画面)を介してユーザに提示されるよう制御する。
【0154】
また、提示制御部336は、アプリケーションリストに含まれるアプリケーションの名称を示す音声メッセージを、当該アプリケーションに対応する音効果を付加した状態で報知部より報知させる。
【0155】
(音効果設定部337について)
音効果設定部337は、アプリケーションごとに、音効果を設定するためのユーザ操作を受付ける。
【0156】
(利用停止受付部338について)
利用停止受付部338は、ユーザに利用されている複数のアプリケーションのうち、任意のアプリケーションの利用を停止するためのユーザ操作を受付ける。例えば、利用停止受付部338は、アプリケーションリストに含まれるアプリケーションのうち、ユーザに選択されたアプリケーションの利用を停止する。
【0157】
〔3.第3の情報処理の具体例〕
続いて、図12を用いて、提示制御部336、音効果設定部337、および、利用停止受付部338の間で行われる第3の情報処理の具体的な一例について説明する。図12は、第3の情報処理の一例を示す図である。
【0158】
図12には、ユーザU1の端末装置10に紐づく複数のアプリケーション(ユーザU1が利用中のアプリ)のそれぞれについて、各種の設定を行うことのできる設定画面C1が端末装置10に表示されている例が示される。設定画面C1は、例えば、ユーザU1からの要求に応じて提示制御部336によって提供されてよい。また、設定画面C1の態様(画面構成)は、図12の例に限定されない。
【0159】
例えば、ユーザU1の端末装置10に紐づくアプリケーションが、アプリAP1、アプリAP2、アプリAP3、アプリAP4およびアプリAP5であったとする。係る場合、図12に示すように、設定画面C1には、アプリAP1~AP5それぞれの名称を示すアプリ名が、「ご利用中のアプリケーション一覧」として表示される。また、このようなアプリケーションの一覧は、アプリケーションリストに対応する。
【0160】
また、設定画面C1では、ユーザU1の端末装置10に紐づくアプリケーションごとに、当該アプリケーションに対応する背景音を設定させることができるようになっている。この点について、図12には、アプリAP1を示すアプリ名の隣には、アプリAP1に対応する背景音の候補をプルダウン形式で一覧表示させるためのプルダウンボタンPD1が対応付けられている例が示される。これにより、ユーザU1は、プルダウンボタンPD1を用いてプルダウン表示させた背景音の候補の中から、任意の背景音を選択することで、選択した背景音を設定することができる。
【0161】
例えば、音効果設定部337は、図12に示すように、BGM「MUSIC♯3」が選択された場合には、係る選択操作に応じて、アプリAP1に対するBGM「MUSIC♯3」の設定を受け付ける。また、提示制御部336は、BGM「MUSIC♯3」の設定が受け付けられたことに応じて、アプリAP1のアプリ名を示す音声データ(音声メッセージ)が、BGM「MUSIC♯3」を付加された状態で報知部より出力されるよう例えば報知制御部135を制御する。係る場合、報知制御部135は、BGM「MUSIC♯3」のデータを記憶部から抽出し、アプリAP1のアプリ名を示す音声データに付加する。そして、報知制御部135は、BGM「MUSIC♯3」を付加した後の音声データがユーザU1の端末装置10の報知部より報知されるよう音出力制御を行う。
【0162】
これにより、ユーザU1は、例えば、BGM「MUSIC♯3」が流れる中で、アプリAP1のアプリ名を読み上げる音声メッセージ(例えば、「A社のエンタメ情報提供アプリ」です)を聞くことができるようになり、BGM「MUSIC♯3」の雰囲気やその雰囲気の中では音声メッセージがどのように聞こえるのかをイメージすることができるようになる。また、この結果、ユーザU1は、図12の例のように、複数のアプリを利用する場合に、音声コンテンツの提供元がいずれのアプリであるかを容易に区別することができるようになる。
【0163】
ここまで、第3の情報処理の具体例について、図12に示すアプリAP1の例を用いて説明してきたが、その他のアプリについても説明しておく。
【0164】
例えば、図12には、アプリAP3を示すアプリ名の隣には、アプリAP3に対応する背景音の候補をプルダウン形式で一覧表示させるためのプルダウンボタンPD3が対応付けられている例が示される。これにより、ユーザU1は、プルダウンボタンPD3を用いてプルダウン表示させた背景音の候補の中から、任意の背景音を選択することで、選択した背景音を設定することができる。
【0165】
例えば、音効果設定部337は、図12に示すように、BGM「MUSIC♯1」が選択された場合には、係る選択操作に応じて、アプリAP3に対するBGM「MUSIC♯1」の設定を受け付ける。また、提示制御部336は、BGM「MUSIC♯1」の設定が受け付けられたことに応じて、アプリAP3のアプリ名を示す音声データが、BGM「MUSIC♯1」を付加された状態で報知部より出力されるよう例えば報知制御部135を制御する。係る場合、報知制御部135は、BGM「MUSIC♯1」のデータを記憶部から抽出し、アプリAP3のアプリ名を示す音声データに付加する。そして、報知制御部135は、BGM「MUSIC♯1」を付加した後の音声データがユーザU1の端末装置10の報知部より報知されるよう音出力制御を行う。
【0166】
これにより、ユーザU1は、例えば、BGM「MUSIC♯1」が流れる中で、アプリAP3のアプリ名を読み上げる音声メッセージ(例えば、「C社の休暇施設情報提供アプリ」です)を聞くことができるようになり、BGM「MUSIC♯1」の雰囲気やその雰囲気の中では音声メッセージがどのように聞こえるのかをイメージすることができるようになる。また、この結果、ユーザU1は、図12の例のように、複数のアプリを利用する場合に、音声コンテンツの提供元がいずれのアプリであるかを容易に区別することができるようになる。
【0167】
ここからは、図12の例を用いて、アプリの利用停止(不要なアプリ)の削除について説明する。図12に示す設定画面C1では、アプリケーションリストに含まれるアプリのうち、選択されたアプリを削除することで、この選択されたアプリを利用停止の状態にする機能をさらに備える。
【0168】
例えば、ユーザU1は、利用中のアプリであるアプリAP1~AP5のうち、アプリAP1からの音声コンテンツの提供は不要であり、アプリAP1を利用停止の状態にしたいとする。係る場合、ユーザU1は、アプリケーションリストに含まれるアプリ名の中からアプリAP1を選択した状態で、削除実行ボタンBTを押下する。
【0169】
そうすると、利用停止受付部338は、アプリAP1の利用を停止するためのユーザ操作を受付ける。そして、利用停止受付部338は、アプリケーションリストに含まれるアプリのうち、ユーザU1より選択されたアプリAP1の利用を停止する。例えば、利用停止受付部338は、アプリケーションリストの中からアプリAP1を削除することによりアプリAP1の利用を停止する。これにより、ユーザU1は、例えば、自身が必要な音声コンテンツだけが出力されるような環境を設定することができるようになる。
【0170】
〔4.まとめ〕
第3の実施形態に係る音出力制御装置300は、音声エージェント機能を有する複数のアプリケーションの各々から提供されるエージェント情報を取得する。そして、音出力制御装置300は、複数のアプリケーションのうち、前取得したエージェント情報の提供元であるアプリケーションに応じて、複数のアプリケーションの間で異なる音効果を付与した音声メッセージを報知部より報知させる。また、音出力制御装置300は、複数のアプリケーションの各々に対応する音効果を示すアプリケーションリストをユーザに対して提示させる。このような音出力制御装置300によれば、ユーザは、複数のアプリを利用する場合に、音声コンテンツの提供元がいずれのアプリであるかを容易に区別することができるようになり、この結果、自分の嗜好に応じたアプリを特定することができるようになる。
【0171】
(その他)
〔1.ハードウェア構成〕
また、上述してきた第1の実施形態における音出力制御装置100、第2の実施形態に係る音出力制御装置200は、例えば、図13に示すような構成のコンピュータ1000によって実現される。以下、音出力制御装置100を例に挙げて説明する。図13は、音出力制御装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
【0172】
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
【0173】
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
【0174】
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
【0175】
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
【0176】
例えば、コンピュータ1000が第1の実施形態に音出力制御装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
【0177】
また、例えば、コンピュータ1000が第3の実施形態に音出力制御装置300として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部330の機能を実現する。
【0178】
〔2.その他〕
また、上記各実施形態において説明した処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
【0179】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0180】
また、上記各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
【0181】
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【0182】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、情報取得部は、情報取得手段や情報取得回路に読み替えることができる。
【符号の説明】
【0183】
1 情報処理システム
100 音出力制御装置
120 記憶部
121 カテゴリ分類データベース
122 コンテンツバッファ
130 制御部
133 情報取得部
135 報知制御部
200 音出力制御装置
220 記憶部
223 アプリ分類データベース
300 音出力制御装置
336 提示制御部
337 音効果設定部
338 利用停止受付部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13