(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024084006
(43)【公開日】2024-06-24
(54)【発明の名称】情報処理装置、情報処理方法及び情報処理用プログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20240617BHJP
G10L 13/08 20130101ALI20240617BHJP
G10L 13/10 20130101ALI20240617BHJP
H04S 7/00 20060101ALI20240617BHJP
G06F 3/16 20060101ALI20240617BHJP
【FI】
G06F3/01 510
G10L13/08 124
G10L13/10 114
H04S7/00 320
G06F3/16 660
G06F3/16 680
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022198150
(22)【出願日】2022-12-12
(71)【出願人】
【識別番号】000005016
【氏名又は名称】パイオニア株式会社
(74)【代理人】
【識別番号】110000958
【氏名又は名称】弁理士法人インテクト国際特許事務所
(74)【代理人】
【識別番号】100120189
【弁理士】
【氏名又は名称】奥 和幸
(72)【発明者】
【氏名】大橋 聡
【テーマコード(参考)】
5D162
5E555
【Fターム(参考)】
5D162AA07
5D162CC18
5D162CD13
5D162DA06
5E555AA46
5E555AA62
5E555BA23
5E555BA24
5E555BB23
5E555BB24
5E555BC04
5E555BE17
5E555CA42
5E555CC01
5E555DA23
5E555EA22
5E555FA00
(57)【要約】
【課題】ユーザから視認可能な地物があたかもユーザに報知すべきコンテンツを話しているかのような感覚をユーザに与えることができる情報処理装置等を提供すること。
【解決手段】ユーザの現在位置から現在の状況において視認可能な地物を擬人化地物として特定し、コンテンツに対応する音声を、ユーザから見て擬人化地物が存在する方向から聞こえるように音像定位させて出力させる。
【選択図】
図9
【特許請求の範囲】
【請求項1】
複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得するコンテンツ取得手段と、
前記ユーザの現在位置情報を取得するユーザ情報取得手段と、
複数の地物の中から、前記ユーザの現在位置から現在の状況において視認可能な前記地物を擬人化地物として特定する擬人化地物特定手段と、
前記コンテンツ取得手段が取得した前記コンテンツに対応する音声を、前記ユーザから見て前記擬人化地物が存在する方向から聞こえるように音像定位させて出力させる出力制御手段と、
を備えることを特徴とする情報処理装置。
【請求項2】
請求項1に記載の情報処理装置であって、
前記擬人化地物特定手段は、複数の地物について、それぞれ、発話を許可する時間条件及び発話を許可する天候条件の少なくとも何れかを含む環境条件情報、及び、位置情報を関連付ける地物関連情報に基づいて、前記ユーザの現在位置から所定距離内に存在し、且つ、その時点の時間及び天候での発話が許可されている前記地物を前記擬人化地物として特定する、ことを特徴とする情報処理装置。
【請求項3】
請求項2に記載の情報処理装置であって、
前記擬人化地物特定手段は、前記ユーザの現在位置から所定距離内に存在し、且つ、その時点の時間及び天候での発話が許可されている前記地物であって、更に、前記ユーザの向いている方向又は前記ユーザが進行している方向に存在する前記地物を前記擬人化地物として特定することを特徴とする情報処理装置。
【請求項4】
請求項1に記載の情報処理装置であって、
前記擬人化地物特定手段は、前記ユーザの現在位置から撮影した画像で認識可能な前記地物を前記擬人化地物として特定する、ことを特徴する情報処理装置。
【請求項5】
請求項4に記載の情報処理装置であって、
前記擬人化地物特定手段は、前記ユーザの現在位置から前記ユーザの向いている方向又は前記ユーザが進行している方向を撮影した画像で認識可能な前記地物を前記擬人化地物として特定する、ことを特徴する情報処理装置。
【請求項6】
請求項1乃至5の何れか一項に記載の情報処理装置であって、
前記複数の地物のそれぞれに対して関連付けられた音声特徴データに基づいて、前記音声に対応する音声データを生成する音声データ生成手段を更に備えることを特徴とする情報処理装置。
【請求項7】
請求項6に記載の情報処理装置であって、
前記音声データ生成手段は、前記擬人化地物特定手段が前記擬人化地物を特定できなかった場合に、所定の音声特徴データに基づいて、前記音声に対応する音声データを生成することを特徴とする情報処理装置。
【請求項8】
情報処理装置による情報処理方法であって、
複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得するコンテンツ取得工程と、
前記ユーザの現在位置情報を取得するユーザ情報取得工程と、
複数の地物の中から、前記ユーザの現在位置から現在の状況において視認可能な前記地物を擬人化地物として特定する擬人化地物特定工程と、
前記コンテンツ取得工程で取得した前記コンテンツに対応する音声を、前記ユーザから見て前記擬人化地物が存在する方向から聞こえるように音像定位させて出力させる出力制御工程と、
を含むことを特徴とする情報処理方法。
【請求項9】
情報処理装置に含まれるコンピュータを、
複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得するコンテンツ取得手段、
前記ユーザの現在位置情報を取得するユーザ情報取得手段、
複数の地物の中から、前記ユーザの現在位置から現在の状況において視認可能な前記地物を擬人化地物として特定する擬人化地物特定手段、
前記コンテンツ取得手段が取得した前記コンテンツに対応する音声を、前記ユーザから見て前記擬人化地物が存在する方向から聞こえるように音像定位させて出力させる出力制御手段、
として機能させることを特徴とする情報処理用プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、地物を擬人化させてニュース等のコンテンツに対応する音声を出力させる情報処理装置等の技術分野に関する。
【背景技術】
【0002】
特許文献1には、物体を擬人化した場合の人間の類型を設定し、当該類型の人間が話すことが想定される言葉で当該物体の説明を音声出力する発明が開示されている。具体的には、物体を物体の製品名や名称、製造年月日、生産国(生産地)、機能・用途、材質等に基づいて、例えば60代の紳士的な男性を人間の類型として設定し、60代の紳士的な男性が話すことが想定される言葉で当該物体の説明を音声出力する。これにより、説明を聞いたユーザは、あたかも物体自身の声を聞いているような気持ちになることができる。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、ユーザの移動中に周囲に存在する地物に仮想的に話をさせようとする場合において、ユーザが当該地物を視認できない状況の場合、予期せず地物からの音声が出力されてユーザを困惑させるおそれがある。
【0005】
そこで、本発明は、こうした問題の一例に鑑み、ユーザから視認可能な地物があたかもユーザに報知すべきコンテンツを話しているかのような感覚をユーザに与えることができる情報処理装置等を提供することを課題とする。
【課題を解決するための手段】
【0006】
請求項1に記載の発明は、複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得するコンテンツ取得手段と、前記ユーザの現在位置情報を取得するユーザ情報取得手段と、複数の地物の中から、前記ユーザの現在位置から現在の状況において視認可能な前記地物を擬人化地物として特定する擬人化地物特定手段と、前記コンテンツ取得手段が取得した前記コンテンツに対応する音声を、前記ユーザから見て前記擬人化地物が存在する方向から聞こえるように音像定位させて出力させる出力制御手段と、を備えることを特徴とする。
【0007】
請求項8に記載の発明は、情報処理装置による情報処理方法であって、複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得するコンテンツ取得工程と、前記ユーザの現在位置情報を取得するユーザ情報取得工程と、複数の地物の中から、前記ユーザの現在位置から現在の状況において視認可能な前記地物を擬人化地物として特定する擬人化地物特定工程と、前記コンテンツ取得工程で取得した前記コンテンツに対応する音声を、前記ユーザから見て前記擬人化地物が存在する方向から聞こえるように音像定位させて出力させる出力制御工程と、を含むことを特徴とする。
【0008】
請求項9に記載の発明は、情報処理装置に含まれるコンピュータを、複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得するコンテンツ取得手段、前記ユーザの現在位置情報を取得するユーザ情報取得手段、複数の地物の中から、前記ユーザの現在位置から現在の状況において視認可能な前記地物を擬人化地物として特定する擬人化地物特定手段、前記コンテンツ取得手段が取得した前記コンテンツに対応する音声を、前記ユーザから見て前記擬人化地物が存在する方向から聞こえるように音像定位させて出力させる出力制御手段、として機能させることを特徴とする。
【図面の簡単な説明】
【0009】
【
図1】実施形態における情報処理装置100の構成例を示すブロック図である。
【
図2】第1実施例における車載器200の構成例を示すブロック図である。
【
図3】第1実施例における地物テーブル230の一例を示す図である。
【
図4】第1実施例におけるコンテンツ種別テーブル240の一例を示す図である。
【
図5】第1実施例におけるコンテンツテーブル250の一例を示す図である。
【
図6】第1実施例における車両RCのスピーカー217A-217Hの位置の一例を示す模式図である。
【
図7】第1実施例における車両RCと地物F1-F5の位置関係の一例を示す図である。
【
図8】第1実施例における車載器200による擬人化地物発話処理(パターン1)の一例を示すフローチャートである。
【
図9】第1実施例における車載器200による擬人化地物発話処理(パターン2)の一例を示すフローチャートである。
【
図10】第1実施例における車載器200による擬人化地物発話処理(パターン3)の一例を示すフローチャートである。
【
図11】第2実施例におけるスマートフォン400の構成例を示すブロック図である。
【発明を実施するための形態】
【0010】
本願発明を実施するための形態について、
図1を用いて説明する。
【0011】
図1に示すように、情報処理装置100は、コンテンツ取得手段101、ユーザ情報取得手段102、擬人化地物特定手段103、出力制御手段104を備える。
【0012】
コンテンツ取得手段101は、複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得する。
【0013】
ユーザ情報取得手段102は、ユーザの現在位置情報を取得する。
【0014】
擬人化地物特定手段103は、複数の地物の中から、ユーザの現在位置から現在の状況において視認可能な地物を擬人化地物として特定する。
【0015】
出力制御手段104は、コンテンツ取得手段101が取得したコンテンツに対応する音声を、ユーザから見て擬人化地物が存在する方向から聞こえるように音像定位させて出力させる。
【0016】
情報処理装置100によれば、ユーザの現在位置から現在の状況において視認可能な地物が存在する方向から、ユーザに報知すべきコンテンツに対応する音声が出力される。これにより、ユーザから視認可能な地物があたかもユーザに報知すべきコンテンツを話している感覚をユーザに与えることができる。
【実施例0017】
[1.第1実施例]
図2-
図8を用いて、第1実施例について説明する。
【0018】
[1.1.車載器200の概要]
情報処理装置100の一例である車載器200の概要について説明する。車載器200は車両RCに搭載される。車載器200は、コンテンツ種別により分類された複数のコンテンツ(時事ニュース、お祝いメッセージ、お薦め情報など)の中から、車両RCの搭乗者であるユーザに報知すべきコンテンツを取得し、ユーザから見える範囲にある一の地物を擬人化地物として特定し、取得したコンテンツに対応する音声を、ユーザから見て擬人化地物が存在する方向から聞こえるように音像定位させてスピーカーから出力させる。つまり、車載器200は、あちらこちらに存在する地物を擬人化して、まるで地物がコンテンツに対応するテキストを読んでいるかのような感覚をユーザに与える。
【0019】
[1.2.車載器200の構成]
図2を用いて、情報処理装置100の一例である車載器200の構成について説明する。
図2は、車載器200の構成例を示すブロック図である。
【0020】
車載器200は、制御部211と、HDD(Hard Disk Drive)やSSD(Solid State Drive)等からなる記憶部212と、通信部213と、表示ユニット214と、タッチパネル215と、車内マイク216と、スピーカー217A-217Hと、GPS(Global Positioning System)受信部218と、を備えて構成されている。
【0021】
制御部211は、制御部211全体を制御するCPU211aと、制御部211を制御する制御プログラム等が予め記憶されているROM211bと、各種データを一時的に格納するRAM211cと、により構成されている。制御部211又はCPU211aは、「コンピュータ」に対応する。
【0022】
制御部211は、ユーザの入力操作に応じて車両RCの目的地までの経路探索や、ユーザ(車両RCの搭乗者)に報知すべきコンテンツを、擬人化した地物に仮想的に発話させる制御等に関する処理(後述する擬人化地物発話処理を含む)を実行する。
【0023】
記憶部212は、OS(Operating System)、アプリケーションプログラム等の各種プログラムや、各種プログラムで利用されるデータや情報を記憶する。また、記憶部212は、車内マイク216に入力されたユーザの音声を解析し、発話内容を解釈して対応するプログラムを記憶している。なお、各種プログラムは、例えば、サーバ装置等からネットワークを介して取得されるようにしてもよいし、USBメモリ等の記録媒体に記録されたものを読み込むようにしてもよい。
【0024】
記憶部212は、地図データを記憶している。地図データは、制御部211による車両RCの目的地までの経路探索や、経路中の交差点での案内等に関する処理に必要な情報を含む。例えば、交差点の位置、形状、名称等を示す交差点データ、道路リンクデータ(勾配情報を含む)、施設等に関する地物データ等を含む。また、記憶部212は、通信部213を介して取得した渋滞情報、天候情報等を記憶する。
【0025】
記憶部212は、
図3に示す地物テーブル230、
図4に示すコンテンツ種別テーブル、
図5に示すコンテンツテーブル250を記憶する。
【0026】
図3に示す地物テーブル230は、複数の地物に関する情報を記憶する。地物とは、位置情報を有する天然または人工の物体であり(例えば、建造物・山・樹木・銅像・信号機等)、地物テーブル230はその中の一部の複数の地物に関する情報を記憶する。地物テーブル230には、車載器200の製造者又はユーザ等によって登録された地物の「地物ID」、「位置」、「発話許可コンテンツ種別」、「環境条件」(「発話許可時間」及び「発話許可天候」を含む)、「音声種別」、「名称」を示す地物情報が登録されている。「地物ID」は、地物を識別するための識別子である。
【0027】
地物テーブル230へのデータ登録はユーザが行うこともでき、ユーザは自分の想い出の地物(例えば、自分が生まれた病院、恋人と渡った歩道橋)などを登録することができる。
【0028】
「位置」には、地物の緯度、経度、高度が登録される。
【0029】
「発話許可コンテンツ種別」には、地物の発話を許可するコンテンツのコンテンツ種別を示すコンテンツ種別IDが登録される(コンテンツ種別及びコンテンツ種別IDについては後述する)。
【0030】
「環境条件」(「環境条件情報」の一例)は、「発話許可時間」及び「発話許可天候」を含み、ユーザが地物を視認可能な環境条件を示す。
【0031】
「発話許可時間」には、地物の発話を許可する時間帯が登録される。「発話許可時間」は、ユーザが地物を視認可能な時間帯が登録される。つまり、地物の周囲の環境や地物の照明の有無を考慮した時間帯が登録される。例えば、周囲に照明がなく夜間は暗闇となる場所に存在する地物は、日の出から日没までの時間帯を登録してもよい。また、周囲に照明があったり、地物に対する照明があったり、又は地物そのものが光を発している場合はこれらの照明等が点灯している時間帯を「発話許可時間」としてもよい。
【0032】
「発話許可天候」には、地物の発話を許可する天候が登録される。「発話許可天候」は、ユーザが地物を視認可能な天候が登録される。例えば、高層タワー、高層マンション等は、天候が雨・雪・霧の場合はっきり視認できないことがあるので、こうした地物については晴、曇りを「発話許可天候」としてもよい。
【0033】
「音声種別」には、地物が擬人化された場合の音声の種別が登録される。「音声種別」には、例えば、性別(男性・女性)、口調(冷静・ゆっくり・かわいい・迫力・明るい等)、方言(東京弁・薩摩弁・京都弁・東北弁等)などの音声の特徴を示す情報が登録される。なお、記憶部212には、各音声種別に対応する音声特徴データが記憶されており、コンテンツに対応するテキストを音声特徴データに基づいて合成することにより音声データが生成される。例えば、「音声種別」が「女性・かわいい・京都弁」である場合には、女性がかわいい京都弁で喋る音声を生成可能な音声特徴データに基づいて、女性がかわいい声の京都弁で、コンテンツに対応するテキストを読む音声データが生成される。
【0034】
「名称」には、地物の名称が登録される。「名称」は、正式名称を登録してもよいし、ユーザが地物を登録する場合には、ユーザが任意の名称を登録することとしてもよい。
【0035】
図4に示すコンテンツ種別テーブル240は、コンテンツ種別に関するコンテンツ種別情報を記憶する。具体的には、コンテンツ種別テーブル240は、「コンテンツ種別ID」及び「コンテンツ種別」を示す情報が登録されている。「コンテンツ種別」とは、ユーザに報知されるコンテンツの種別であり、一例として、コンテンツがどのような話題に関するものであるかを示す。例えば、メモリアル、天候、悲しい話題、ハッピーな話題、政治の問題などがある。「コンテンツ種別ID」は、コンテンツ種別を識別するための識別子である。
【0036】
「コンテンツ種別ID」は、地物テーブル230の「発話許可コンテンツ種別」に登録される。
図3の例では、「地物ID」が「00001」の地物(○×タワー)は、「発話許可コンテンツ種別」として「00」及び「01」が登録されていることから、「コンテンツ種別」がメモリアル又は天候であるコンテンツについて発話が許可される。なお、各地物に何れのコンテンツ種別を「発話許可コンテンツ種別」として設定するかは、製造者又はユーザ等が決めることができる。
【0037】
図5に示すコンテンツテーブル250は、ユーザに提供されるコンテンツに関する情報を記憶する。具体的には、コンテンツ種別テーブル240は、「コンテンツID」、「コンテンツ種別ID」及び「コンテンツ」を示す情報が登録されている。「コンテンツID」は、コンテンツを識別するための識別子である。「コンテンツ」としては、時事ニュース、ユーザに対するお祝いメッセージ、ユーザへのお薦め情報、天候情報などが例えばテキスト形式で登録される。時事ニュースや天候情報は外部のコンテンツ提供サーバから取得して登録されてもよい。ユーザに対するお祝いメッセージは予め登録されたユーザの誕生日や結婚記念日等に基づいて車載器200が生成したり、又は外部サーバが生成したものを取得したりして登録されてもよい。ユーザへのお薦め情報は予め登録されたユーザの嗜好や、ユーザの行動履歴に基づいて車載器200が生成したり、又は外部サーバが生成したものを取得したりして登録されてもよい。
【0038】
通信部213は、無線通信デバイス等を有し、外部の通信機能を備えたサーバ装置やスマートフォン等の情報処理機器と通信してデータを相互に送受信する。
【0039】
表示ユニット214は、グラフィックスコントローラ214aと、VRAM(Video RAM)等のメモリからなるバッファメモリ214bを備えて構成されている。この構成においてグラフィックスコントローラ214aは、制御部211から送られる制御情報に基づいて、表示ユニット214及びタッチパネル215の制御を行う。また、バッファメモリ214bは、それぞれのタッチパネル215に即時表示可能な画像データを一時的に記憶する。そして、グラフィックスコントローラ214aから出力される画像データに基づいて、タッチパネル215に画像が表示される。
【0040】
タッチパネル215は、表示ユニット214から受信した画像データに基づいて画像を表示させる。また、タッチパネル215は、ユーザのタッチ操作を検出し、タッチされた位置等を示すタッチ操作データを制御部211に送信する。制御部211はタッチ操作データに基づいて何れの操作がなされたかを判別し、操作内容に応じて処理を行う。
【0041】
車内マイク216は、車両内に設けられており、車両内のユーザの音声を電気信号に変換して制御部211に出力する。
【0042】
スピーカー217A-217Hは、車両内に設けられており、制御部211の制御のもと、音を出力する。なお、以下、スピーカー217A-217Hを総称してスピーカー217と言う場合がある。
【0043】
図6を用いてスピーカー217A-217Hの配置について説明する。
図6は、車載器200を搭載する車両RCのスピーカー217A-217Hの位置の一例を示す模式図である。車両RCは、ユーザが搭乗する実車両であり、運転席231、助手席232及び後部座席233を有する。また、車両RCには、8つのスピーカー217A-217H及び図示しない車載器200(但し、スピーカー217A-217Hを除く。)が搭載されている。車両RCの車室前方には左からスピーカー217H、217A、217Bが設置されている。また、車室左側方にはスピーカー217G、車室右側方にはスピーカー217Cが設置されている。更に、車室後方には左からスピーカー217F、217E、217Dが設置されている。
【0044】
なお、本実施例では、CPU211aがスピーカー217A-217Hによる音像定位を実現するための処理を実行する。つまり、CPU211aが、擬人化地物が仮想的に喋るコンテンツに対応する音声の音像定位を実現する。また、車両RCの移動に伴い音声の音像定位を変位させて、擬人化地物が同じ場所で喋っているかのような体験をユーザに提供する。なお、スピーカー217A-217Hによる音像定位を実現するための処理は、CPU211aとは別にオーディオプロセッサー等を設けて実行させることとしてもよい。
【0045】
GPS受信部218は、GPS衛星からの航法電波を受信し、GPS測位データとして車載器200の現在位置情報である緯度、経度、高度データ、進行方向の絶対方位データ及びGPS速度データ等を取得して、制御部211に出力する。
【0046】
車外カメラ219は、車両RCに搭載され、車両RCの周囲を撮影し、カメラ画像を制御部211に出力する。
【0047】
[1.3.擬人化地物発話処理]
次に、制御部211による擬人化地物発話処理について説明する。擬人化地物発話処理では、複数の地物の中から、コンテンツに対応する音声を仮想的に喋らせる擬人化地物を特定する。本実施例では、3つのパターンの擬人化地物の特定方法について説明する。3つのパターンは、「発話許可コンテンツ種別により擬人化地物を特定するパターン(パターン1)」、「発話許可時間・発話許可天候により擬人化地物を特定するパターン(パターン2)」、「カメラ画像により擬人化地物を特定するパターン(パターン3)」である。パターン2及びパターン3は、複数の地物の中からユーザの現在位置から現在の状況において視認可能な地物を擬人化地物として特定する方法の一例である。
【0048】
なお、ここでは、
図3に示す地物テーブル230、
図4に示すコンテンツ種別テーブル240、
図5に示すコンテンツテーブル250が記憶部212に記憶されている状態において、
図7に示すように走行中の車両RCの進行方向に、○×タワーF1、想い出の信号機F2、西郷隆盛像F3、猫のモニュメントF4、地蔵F5が存在しているものとする。また、制御部211は、コンテンツテーブル250の中からユーザに報知すべきコンテンツとして、コンテンツID「0003」のコンテンツ(「○○で自動車事故がありました。」)を取得したとする。
【0049】
[1.3.1.パターン1:発話許可コンテンツ種別による擬人化地物の特定]
パターン1では、制御部211は、複数の地物のそれぞれに対して、発話許可コンテンツ種別(「地物による発話を許可するコンテンツ種別情報」の一例)、及び、位置(「地物の位置情報」の一例)を関連付けた地物テーブル230(「地物関連情報」の一例)に基づいて、ユーザの現在位置から所定距離内に存在し、且つ、取得したコンテンツのコンテンツ種別の発話が許可されている地物を擬人化地物として特定する。
【0050】
例えば、制御部211は、ユーザの現在位置から所定距離(例えば、150m)内にある地物として、○×タワーF1、想い出の信号機F2、西郷隆盛像F3を見つけた場合に、それぞれの地物の発話許可コンテンツを地物テーブル230(
図3参照)から取得する。つまり、○×タワーF1の発話許可コンテンツ種別として「00」、「01」を取得し、想い出の信号機F2の発話許可コンテンツ種別として「01」、「02」、「04」を取得し、西郷隆盛像F3の発話許可コンテンツ種別として「01」、「03」を取得する。そして、制御部211はコンテンツテーブル250(
図5参照)からコンテンツID「0003」のコンテンツのコンテンツ種別「03」を取得し、コンテンツ種別「03」が発話許可コンテンツ種別として登録されている西郷隆盛像F3を擬人化地物として特定する。
【0051】
ここで、
図8のフローチャートを用いて、擬人化地物の特定方法がパターン1である場合の擬人化地物発話処理について説明する。
【0052】
まず、制御部211は、ユーザに報知すべきコンテンツをコンテンツテーブル250から取得する(ステップS101)。このとき、制御部211は、任意のコンテンツを取得することができるが、例えば、予め製造者又ユーザにより設定された優先順位に従ってコンテンツを取得することとしてもよい。例えば、コンテンツ種別IDの優先順位を設定しておき、優先順位の高いコンテンツを取得してもよいし、コンテンツの登録日時が古い(又は新しい)コンテンツから取得してもよい。また、ユーザの属性(性別・年令・嗜好等)を登録しておくとともに、コンテンツ毎にコンテンツに適した属性を登録しておき、制御部211は、ユーザの属性に適したコンテンツを取得することとしてもよい。
【0053】
次に、制御部211は、ユーザ(車両RC)の現在位置情報を取得する(ステップS102)。具体的には、制御部211は、GPS受信部218から受け取った現在位置情報(緯度、経度、高度データ、進行方向の絶対方位データ及びGPS速度データ)を取得する。
【0054】
次に、制御部211は、ユーザの現在位置から所定距離内に存在する地物を検索する(ステップS103)。なお、所定距離は、車両RCが走行している地域における地物密度(当該地域における地物の数)等に基づいて製造者又ユーザが設定することができる。検索する地物は、地物テーブル230に登録されている地物とし、制御部211は、所定距離内に存在するか否かを、車両RCの現在位置及び地物テーブル230に登録されている各地物の位置情報に基づいて判断する。
【0055】
次に、制御部211は、ステップS103の処理で地物が見つかったか否かを判定する(ステップS104)。制御部211は、ステップS103の処理で地物が見つかったと判定した場合には(ステップS104:YES)、ステップS105の処理に移行する。一方、制御部211は、ステップS103の処理で地物が見つからなかったと判定した場合には(ステップS104:NO)、ステップS110の処理に移行する。
【0056】
制御部211は、ステップS104の処理で「YES」と判定した場合には、次いで、ステップS103の処理で見つかった各地物の発話許可コンテンツ種別を地物テーブル230から取得する(ステップS105)。
【0057】
次に、制御部211は、ステップS103の処理で見つかった地物の中から、ステップS101の処理で取得したコンテンツのコンテンツ種別の発話が許可されている地物を擬人化地物として特定する(ステップS106)。つまり、制御部211は、ステップS101の処理で取得したコンテンツのコンテンツ種別が、発話許可コンテンツ種別として登録されている地物を擬人化地物として特定する。なお、擬人化地物として特定した地物が複数の場合には、予め設定しておいた優先順位に従って一の地物を特定する。優先順位は、例えば、現在位置から一番近い地物、地物IDが一番小さい地物等、製造者又はユーザが設定できるようにしてもよい。
【0058】
次に、制御部211は、ステップS106の処理で擬人化地物を特定できたか否かを判定する(ステップS107)。制御部211は、擬人化地物を特定できなかった(すなわち、ステップS101の処理で取得したコンテンツのコンテンツ種別が、発話許可コンテンツ種別として登録されている地物が無かった)と判定した場合には(ステップS107:NO)、ステップS110の処理に移行する。
【0059】
一方、制御部211は、擬人化地物を特定できたと判定した場合には(ステップS107:YES)、次に、擬人化地物の音声種別に対応する音声特徴データに基づいて、ステップS101の処理で取得したコンテンツに対応する音声データを生成する(ステップS108)。つまり、制御部211は、地物テーブル230から擬人化地物の音声種別を特定し、当該音声種別に対応する音声特徴データを記憶部212から取得して、ステップS101の処理で取得したコンテンツに対応するテキストを当該音声特徴データに基づいて合成することにより音声データを生成する。
【0060】
次に、制御部211は、ステップS108の処理で生成した音声データを、ユーザから見て擬人化地物が存在する方向から聞こえるように音像定位させてスピーカー217から出力させ、擬人化地物発話処理を終了する。ユーザから見て擬人化地物が存在する方向は、ユーザ(車両RC)の現在位置と、擬人化地物の位置に基づいて決定される。なお、ユーザ(車両RC)が移動している場合には、それに伴って音声が聞こえる方向も変化する。
【0061】
制御部211は、ステップS104又はステップS107の処理で「NO」と判定した場合には、次いで、標準音声特徴データに基づいて、ステップS101の処理で取得したコンテンツに対応する音声データを生成する(ステップS110)。標準音声特徴データは、テキストを東京弁で冷静に喋る音声データ(性別は任意)を生成することが可能なデータであり、記憶部212に記憶されているものとする。
【0062】
次に、制御部211は、ステップS110の処理で生成した音声データを、所定のスピーカー217から出力させ、擬人化地物発話処理を終了する。所定のスピーカー217は、予めユーザによって設定されているスピーカー217(例えば、前方のスピーカー217A)とすることができる。
【0063】
[1.3.2.パターン2:発話許可時間・発話許可天候による擬人化地物の特定]
パターン2では、制御部211は、複数の地物について、それぞれ、発話許可時間(「発話を許可する時間条件」の一例)及び発話許可天候(「発話を許可する天候条件」の一例)の少なくとも何れかを含む環境条件(「環境条件情報」の一例)、及び、位置(「位置情報」の一例)を関連付ける地物テーブル(「地物関連情報」の一例)に基づいて、ユーザの現在位置から所定距離内に存在し、且つ、その時点の時間及び天候での発話が許可されている地物を擬人化地物として特定する。なお、環境条件は、地物を視認可能か否か(見易いか否か)を判定するための基準となる条件である。ここでは、環境条件として、発話許可時間及び発話許可天候の示す双方の条件を満たす地物を特定する場合について説明するが、環境条件として、発話許可時間及び発話許可天候の何れかの条件を満たす地物を擬人化地物として特定することとしてもよい。
【0064】
例えば、制御部211は、ユーザの現在位置から所定距離(例えば、150m)内に、○×タワーF1、想い出の信号機F2、西郷隆盛像F3が存在している場合に、それぞれの地物の発話許可時間及び発話許可天候を地物テーブル230(
図3参照)から取得する。つまり、○×タワーF1の発話許可時間として「05:00-00:00(午前5時~午前0時)」、発話許可天候として「晴」、「曇り」を取得し、また、想い出の信号機F2の発話許可時間として「00:00-00:00(24時間)」、発話許可天候として「晴」、「曇り」、「雨」、「雪」を取得し、また、西郷隆盛像F3の発話許可時間として「05:00-20:00(午前5時~午後8時)」、発話許可天候として「晴」、「曇り」、「雨」を取得する。そして、制御部211は、例えば、現在の時刻が「15:00」で天候が「雪」であれば、発話許可時間として「00:00-00:00(24時間)」、発話許可天候として「晴」、「曇り」、「雨」、「雪」が登録されている想い出の信号機F2を擬人化地物として特定する。
【0065】
ここで、
図9のフローチャートを用いて、擬人化地物の特定方法がパターン2である場合の擬人化地物発話処理について説明する。なお、
図9のステップS201-ステップS204は
図8のステップS101-ステップS104と同様であり、また、
図9のステップS209-ステップS212は
図8のステップS108-ステップS111と同様(但しステップS201はステップS101と読み替える)であるため説明を省略する。
【0066】
制御部211は、ステップS204の処理で「YES」と判定した場合には、ユーザの現在位置における日時・天候情報を取得する(ステップS205)。例えば、制御部211は、日時は車載器200のシステム時間を取得し、天候は外部サーバから取得する。
【0067】
次に、制御部211は、ステップS203の処理で見つかった各地物の発話許可時間及び発話許可天候を地物テーブル230から取得する(ステップS206)。
【0068】
次に、制御部211は、ステップS203の処理で見つかった地物の中から、現在の日時・天候条件で発話が許可されている地物を擬人化地物として特定する(ステップS207)。つまり、制御部211は、ステップS205の処理で取得した日時・天候が、それぞれ発話許可時間・発話許可天候の条件を満たす地物を擬人化地物として特定する。なお、擬人化地物として特定した地物が複数の場合には、予め設定しておいた優先順位に従って一の地物を特定する。優先順位は、例えば、現在位置から一番近い地物、地物IDが一番小さい地物等、製造者又はユーザが設定できるようにしてもよい。
【0069】
次に、制御部211は、ステップS207の処理で擬人化地物を特定できたか否かを判定する(ステップS208)。制御部211は、擬人化地物を特定できなかった(すなわち、ステップS205の処理で取得した日時・天候が、それぞれ発話許可時間・発話許可天候の条件を満たす地物が無かった)と判定した場合には(ステップS208:NO)、ステップS211の処理に移行する。一方、制御部211は、擬人化地物を特定できたと判定した場合には(ステップS208:YES)、ステップS209の処理に移行する。
【0070】
[1.3.3.パターン3:カメラ画像による擬人化地物の特定]
パターン3では、ユーザの現在位置から車外カメラ219で撮影されたカメラ画像で認識可能な地物を擬人化地物として特定する。
【0071】
ここで、
図10のフローチャートを用いて、擬人化地物の特定方法がパターン3である場合の擬人化地物発話処理について説明する。なお、
図10のステップS301-ステップS304は
図8のステップS101-ステップS104と同様であり、また、
図10のステップS307-ステップS310は
図8のステップS108-ステップS111と同様(但しステップS301はステップS101と読み替える)であるため説明を省略する。
【0072】
制御部211は、ステップS304の処理で「YES」と判定した場合には、ステップS303の処理で見つかった地物の中から、現在位置から撮影したカメラ画像で視認可能な地物を擬人化地物として特定する(ステップS305)。例えば、制御部211は、ステップS303の処理で見つかった地物の位置情報から地物の存在する方向を特定し、車外カメラ219により当該方向を撮影したカメラ画像を画像解析することにより当該地物が視認可能であるかを判断する。
【0073】
次に、制御部211は、ステップS305の処理で擬人化地物を特定できたか否かを判定する(ステップS306)。制御部211は、擬人化地物を特定できなかった(すなわち、現在位置から撮影したカメラ画像で視認可能な地物が無かった)と判定した場合には(ステップS306:NO)、ステップS309の処理に移行する。一方、制御部211は、擬人化地物を特定できたと判定した場合には(ステップS306:YES)、ステップS307の処理に移行する。
【0074】
以上説明したように、本実施例における車載器200は、制御部211(「コンテンツ取得手段」、「ユーザ情報取得手段」、「擬人化地物特定手段」、「出力制御手段」の一例)が、コンテンツ種別により分類された複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得し(
図8のステップS101)、ユーザの現在位置情報を取得し(
図8のステップS102)、複数の地物のそれぞれに対して、地物による発話許可コンテンツ種別(「発話を許可するコンテンツ種別情報」の一例)、及び、地物の位置(「位置情報」の一例)を関連付けた地物テーブル230(「地物関連情報」の一例)に基づいて、ユーザの現在位置から所定距離内に存在し、且つ、ステップS101の処理で取得したコンテンツのコンテンツ種別の発話が許可されている地物を擬人化地物として特定し(
図8のステップS106)、ステップS101の処理で取得したコンテンツに対応する音声を、ユーザから見て擬人化地物が存在する方向から聞こえるように音像定位させて出力させる(
図8のステップS109)。
【0075】
したがって、車載器200によれば、ユーザから見て地物が存在する方向から当該地物について発話を許可されたコンテンツ種別であるユーザに報知すべきコンテンツに対応する音声が出力される。これにより、ユーザに報知すべきコンテンツを話しても違和感のない地物があたかも当該コンテンツを話しているかのような感覚をユーザに与えることができる。
【0076】
また、本実施例における車載器200は、制御部211が、複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得し(
図9のステップS201、
図10のステップS301)、ユーザの現在位置情報を取得し(
図9のステップS202、
図10のステップS302)、複数の地物の中から、ユーザの現在位置から現在の状況において視認可能な地物を擬人化地物として特定(
図9のステップS207、
図10のステップS305)、ステップS201(ステップS301)の処理で取得したコンテンツに対応する音声を、ユーザから見て擬人化地物が存在する方向から聞こえるように音像定位させて出力させる(
図9のステップS210、
図10のステップS308)。
【0077】
したがって、車載器200によれば、ユーザの現在位置から現在の状況において視認可能な地物が存在する方向から、ユーザに報知すべきコンテンツに対応する音声が出力される。これにより、ユーザから視認可能な地物があたかもユーザに報知すべきコンテンツを話している感覚をユーザに与えることができる。
【0078】
さらに、本実施例における車載器200は、制御部211が、複数の地物について、それぞれ、発話許可時間(「発話を許可する時間条件」の一例)及び発話許可天候(「発話を許可する天候条件」の一例)を含む環境条件(「環境条件情報」の一例)、及び、位置(「位置情報」の一例)を関連付ける地物テーブル230(「地物関連情報」の一例)に基づいて、ユーザの現在位置から所定距離内に存在し、且つ、その時点の時間及び天候での発話が許可されている地物を擬人化地物として特定する(
図9のステップS207)。これにより、その時点でユーザが視認可能な時間及び天候の条件を満たす地物が存在する方向から、ユーザに報知すべきコンテンツに対応する音声が出力される。これにより、ユーザから視認可能な地物がユーザに報知すべきコンテンツを話している感覚をユーザに与えることができる。
【0079】
さらにまた、本実施例における車載器200は、制御部211が、ユーザの現在位置から撮影したカメラ画像(「画像」の一例)で認識可能な地物を擬人化地物として特定する(
図10のステップS305)。これにより、カメラ画像に基づいてその時点でユーザが視認可能と判定された地物が存在する方向から、ユーザに報知すべきコンテンツに対応する音声が出力される。これにより、ユーザから視認可能な地物がユーザに報知すべきコンテンツを話している感覚をユーザに与えることができる。
【0080】
さらにまた、本実施例における車載器200は、制御部211(「音声データ生成手段」の一例)が、複数の地物のそれぞれに対して関連付けられた音声特徴データに基づいて、音声に対応する音声データを生成する(
図8のステップS108、
図9のステップS209、
図10のステップS307)。これにより、出力されるコンテンツに対応する音声が擬人化地物に応じた特徴を有することから、ユーザは、擬人化地物が違和感無くコンテンツを話している感覚を享受できる。
【0081】
さらに、本実施例における車載器200は、制御部211が、擬人化地物を特定できなかった場合に(
図8のステップS107:NO、
図9のステップS208:NO、
図10のステップS306:NO)、標準音声特徴データ(「所定の音声特徴データ」の一例)に基づいて、音声に対応する音声データを生成する(
図8のステップS110、
図9のステップS211、
図10のステップS309)。これにより、擬人化地物を特定できなかった場合であっても、ユーザに報知すべきコンテンツをユーザに提供することができる。
【0082】
[1.4.変形例]
次に、第1実施例の変形例について説明する。なお、以下に説明する変形例は適宜組み合わせることができる。
【0083】
[1.4.1.変形例1]
第1実施例では、地物テーブル230に「発話許可時間」及び「発話許可天候」の環境条件を登録しておき、現在の時間及び天候の双方が「発話許可時間」及び「発話許可天候」の環境条件を満たす地物を擬人化地物として特定したが、これに代えて、地物テーブル230に環境条件として「発話許可時間」のみを登録しておき、現在の時間が「発話許可時間」を満たす地物を擬人化地物として特定したり、地物テーブル230に環境条件として「発話許可天候」のみを登録しておき、現在の天候が「発話許可天候」を満たす地物を擬人化地物として特定したりしてもよい。
【0084】
[1.4.2.変形例2]
第1実施例では、ユーザの現在位置から所定距離内に存在し、且つ、
図8のステップS101の処理で取得したコンテンツのコンテンツ種別の発話が許可されているという条件を満たす地物を擬人化地物として特定することとしたが、この条件に、更に、現在の時刻及び天候の少なくとも何れか一方が「発話許可時間」及び「発話許可天候」の少なくとも何れか一方の環境条件を満たす、又は、ユーザの現在位置から撮影したカメラ画像から視認可能である、という条件を追加することとしてもよい。ここで追加した条件は、ユーザが視認可能な地物を擬人化地物とするための条件である。これにより、
図8のステップS101の処理で取得したコンテンツのコンテンツ種別の発話が許可されている地物であって、且つ、ユーザが視認可能な地物を擬人化地物として特定できる。したがって、ユーザが視認できない地物が喋ることを防ぎ、ユーザが視認可能な地物に、コンテンツに対応する音声を喋らせることができる。
【0085】
[1.4.3.変形例3]
第1実施例では、
図8のステップS103、
図9のステップS203、
図10のステップS303の処理において、制御部211は、ユーザの現在位置から所定距離内に存在する地物を検索することとしたが、更に、ユーザの現在位置から所定距離内に存在し、且つ、ユーザの向いている方向(又はユーザが進行している方向)に存在する地物を検索することとしてもよい。このために制御部211は、事前に、ユーザの向いている方向を、例えば、図示しない車内カメラでユーザの顔の向きから取得したり、また、ユーザの進行方向を、例えば、GPS受信部218から受信する絶対方位データから取得したりする。これにより、ユーザが向いている方向又はユーザが進行している方向に存在している、ユーザの目に入りやすい地物を擬人化地物として特定できる。
【0086】
[1.4.4.変形例4]
地物テーブル230に、各地物について「有効射程距離」を設けてもよい。「有効射程距離」には、地物が擬人化地物として選択され得るユーザの現在位置からの距離が登録される。例えば、「有効射程距離」として2kmが登録されている場合には、その地物がユーザの現在位置から2km以内に存在しないと擬人化地物として選択されない。「有効射程距離」は、地物の大きさ等によって設定することができる。これにより、地物の大きさ等を考慮して、ユーザが視認可能な地物を擬人化地物として特定することができる。
【0087】
[1.4.5.変形例5]
第1実施例では、制御部211は、
図10のステップS303の処理で、ユーザの現在位置から所定距離内に存在する地物を検索し、
図10のステップS304の処理で「YES」と判定した場合に、
図10のステップS305の処理を行うこととしたが、ステップS303及びステップS304の処理を飛ばして、ステップS305の処理で、現在位置から撮影したカメラ画像から視認可能な地物を擬人化地物として特定してもよい。つまり、地物がユーザの現在位置から所定距離内に存在しなくても、カメラ画像から視認可能であれば、その地物を擬人化地物として特定してもよい。
【0088】
[1.4.6.変形例6]
第1実施例では、
図8-
図10に示す擬人化地物発話処理を制御部211が行うこととしたが、これらの処理の少なくとも一部を外部のサーバ装置等と連携して行うこととして、処理負担を分散してもよい。
【0089】
[2.第2実施例]
次に、
図11を用いて、第2実施例について説明する。第1実施例では、情報処理装置が車載器200である場合について説明したが、第2実施例では、情報処理装置が携帯型情報処理機器であるスマートフォン400の場合について、第1実施例との相違点を中心に説明する。なお、第2実施例では、擬人化地物の音声を音声出力機器であるイヤホンから出力する場合について説明する。
[2.1.スマートフォン400の構成]
図11は、ユーザのスマートフォン400の構成例を示すブロック図である。
【0090】
スマートフォン400は、制御部411と、SSD等からなる記憶部412と、通信部413と、表示ユニット414と、タッチパネル415、マイク416、スピーカー417、GPS受信部418、カメラ419を備えて構成されている。
【0091】
制御部411は、第1実施例の制御部211に相当し、制御部411全体を制御するCPU411aと、制御部411を制御する制御プログラム等が予め記憶されているROM411bと、各種データを一時的に格納するRAM411cと、により構成されている。制御部411又はCPU411aは、「コンピュータ」に対応する。
【0092】
記憶部412は、第1実施例の記憶部212に相当し、OS、アプリケーションプログラム等の各種プログラムや、各種プログラムで利用されるデータや情報を記憶する。また、記憶部412には、ブラウザと各種サービスの専用アプリケーションがインストールされている。なお、各種プログラムは、例えば、サーバ装置等からネットワークを介して取得されるようにしてもよいし、USBメモリ等の記録媒体に記録されたものを読み込むようにしてもよい。
【0093】
通信部413は、第1実施例の通信部213に相当し、無線通信デバイス等を有し、通信機能を備えた他の情報処理機器と通信してデータを相互に送受信する。また、通信部413はイヤホン420と無線で通信する。
【0094】
イヤホン420は、第1実施例のスピーカー217に相当し、ユーザの耳に装着される。イヤホン420は、ユーザの向いている方向を特定するための地磁気センサ及び3G加速度センサを備え、第1実施例のスピーカー217の代わりに、擬人化地物による音声の音像定位を実現する。CPU411aは、イヤホン420による音像定位を実現するための処理を実行する。つまり、CPU411aが擬人化地物による音声の音像定位を実現する。また、ユーザが移動することによるユーザと擬人化地物の相対的な位置変化に伴って、音声の音像定位を変位させる。これにより、擬人化地物の音声が常に擬人化地物の方から聞こえるようになる。なお、イヤホン420による音像定位を実現するための処理は、CPU411aとは別にオーディオプロセッサー等を設けて実行させることとしてもよい。
【0095】
表示ユニット414は、第1実施例の表示ユニット214に相当し、グラフィックスコントローラ414aと、VRAM(Video RAM)等のメモリからなるバッファメモリ414bを備えて構成されている。この構成においてグラフィックスコントローラ414aは、制御部411から送られる制御情報に基づいて、表示ユニット414及びタッチパネル415の制御を行う。また、バッファメモリ414bは、それぞれのタッチパネル415に即時表示可能な画像データを一時的に記憶する。そして、グラフィックスコントローラ414aから出力される画像データに基づいて、タッチパネル415に画像が表示される。
【0096】
タッチパネル415は、第1実施例のタッチパネル215に相当し、表示ユニット414から受信した画像データに基づいて画像を表示させる。また、タッチパネル415は、操作者のタッチ操作を検出し、タッチされた位置等を示すタッチ操作データを制御部411に送信する。制御部411はタッチ操作データに基づいて何れの操作がなされたかを判別し、操作内容に応じて処理を行う。
【0097】
マイク416は、第1実施例の車内マイク216に相当し、ユーザの音声を電気信号に変換して制御部411に出力する。
【0098】
スピーカー417は、制御部411の制御のもと、イヤホン420が接続されていない場合などに音を出力する。
【0099】
GPS受信部418は、第1実施例のGPS受信部218に相当し、GPS衛星からの航法電波を受信し、GPS測位データとしてスマートフォン400の現在位置情報である緯度、経度、高度データ、進行方向の絶対方位データ及びGPS速度データ等を取得する。
【0100】
カメラ419は、撮影したカメラ画像を制御部211に出力する。
【0101】
[2.2.擬人化地物発話処理]
実施例2における擬人化地物発話処理は、実施例1とほぼ同様である。但し、3つの擬人化地物の特定方法のうちパターン3は、カメラ画像によりユーザが視認可能な地物を擬人化地物として特定するが、実施例2ではユーザが常に周囲をカメラ419で撮影することは現実的ではない。そこで、カメラ419の代わりに、例えば、眼鏡型ウェアラブルデバイスであるカメラ付きスマートグラスをスマートフォン400と接続して、ユーザに挿着してもらうこととしてもよい。スマートグラスのカメラがユーザの向いている方向を撮影し、カメラ画像をスマートフォン400に送信することにより、スマートフォン400の制御部411は、受信したカメラ画像からユーザが視認可能な地物を特定することとする。また、地磁気センサ及び3G加速度センサを備えたスマートグラスによれば、ユーザの向いている方向を特定することもできる。
【0102】
以上説明したように、第2実施例のスマートフォン400は、制御部411(「コンテンツ取得手段」、「ユーザ情報取得手段」、「擬人化地物特定手段」、「出力制御手段」の一例)が、コンテンツ種別により分類された複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得し(
図8のステップS101)、ユーザの現在位置情報を取得し(
図8のステップS102)、複数の地物のそれぞれに対して、地物による発話許可コンテンツ種別(「発話を許可するコンテンツ種別情報」の一例)、及び、地物の位置(「位置情報」の一例)を関連付けた地物テーブル230(「地物関連情報」の一例)に基づいて、ユーザの現在位置から所定距離内に存在し、且つ、ステップS101の処理で取得したコンテンツのコンテンツ種別の発話が許可されている地物を擬人化地物として特定し(
図8のステップS106)、ステップS101の処理で取得したコンテンツに対応する音声を、ユーザから見て擬人化地物が存在する方向から聞こえるように音像定位させて出力させる(
図8のステップS109)。
【0103】
したがって、スマートフォン400によれば、ユーザから見て地物が存在する方向から当該地物について発話を許可されたコンテンツ種別であるユーザに報知すべきコンテンツに対応する音声が出力される。これにより、ユーザに報知すべきコンテンツを話しても違和感のない地物があたかも当該コンテンツを話しているかのような感覚をユーザに与えることができる。
【0104】
また、本実施例におけるスマートフォン400は、制御部411が、複数のコンテンツの中から、ユーザに報知すべきコンテンツを取得し(
図9のステップS201、
図10のステップS301)、ユーザの現在位置情報を取得し(
図9のステップS202、
図10のステップS302)、複数の地物の中から、ユーザの現在位置から現在の状況において視認可能な地物を擬人化地物として特定し(
図9のステップS207、
図10のステップS305)、ステップS201(ステップS301)の処理で取得したコンテンツに対応する音声を、ユーザから見て擬人化地物が存在する方向から聞こえるように音像定位させて出力させる(
図9のステップS210、
図10のステップS308)。
【0105】
したがって、スマートフォン400によれば、その時点でユーザが視認可能な地物が存在する方向から、ユーザに報知すべきコンテンツに対応する音声が出力される。これにより、ユーザから視認可能な地物がユーザに報知すべきコンテンツを話している感覚をユーザに与えることができる。
【0106】
[2.3.変形例]
第1実施例の変形例は、第2実施例について適宜適用することができる。なお、各変形例は適宜組み合わせることができる。