(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-01-22
(45)【発行日】2024-01-30
(54)【発明の名称】コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20240123BHJP
G06F 3/16 20060101ALI20240123BHJP
G10L 21/0208 20130101ALI20240123BHJP
【FI】
G06F3/01 510
G06F3/16 550
G10L21/0208 100A
(21)【出願番号】P 2020054197
(22)【出願日】2020-03-25
【審査請求日】2023-01-31
(73)【特許権者】
【識別番号】308036402
【氏名又は名称】株式会社JVCケンウッド
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】小林 建
(72)【発明者】
【氏名】藤井 利一
(72)【発明者】
【氏名】野村 一夫
(72)【発明者】
【氏名】▲鮭▼川 達弘
(72)【発明者】
【氏名】上村 真史
(72)【発明者】
【氏名】崔 丁珠
【審査官】征矢 崇
(56)【参考文献】
【文献】国際公開第2012/165657(WO,A1)
【文献】国際公開第2020/045328(WO,A1)
【文献】特開2011-203654(JP,A)
【文献】国際公開第2020/031767(WO,A1)
【文献】国際公開第2012/102130(WO,A1)
【文献】特開2014-33373(JP,A)
【文献】特開平5-22797(JP,A)
【文献】特開2001-18717(JP,A)
【文献】国際公開第2018/061491(WO,A1)
【文献】国際公開第2017/056604(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F3/01;3/16
G10L13/00;19/00-99/00
G10K11/00-13/00
H04R3/00
(57)【特許請求の範囲】
【請求項1】
表示画面と同じ方向を向いて配置されている視線センサによってユーザの視線方向を検出する視線検出部と、
前記視線検出部の検出結果に基づき、前記ユーザがコンテンツを表示した
前記表示画面を注視しているか否かを判断する注視判断部と、
前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得する周辺音取得部と、
前記ユーザが交通機関を利用していることを判断する判断部と、
前記コンテンツに関する音声を取得する音声取得部と、
前記ユーザが交通機関を利用している場合に、前記注視判断部が、前記ユーザがコンテンツを表示した
前記表示画面を注視していると判断した場合は、前記音声取得部が取得した前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した
前記表示画面を注視していないと判断した場合は、前記周辺音取得部が取得した周辺音を出力する音声出力制御部と、
を備える、コンテンツ出力制御装置。
【請求項2】
前記音声出力制御部は、前記ユーザがコンテンツを表示した
前記表示画面を注視していないと判断した場合は、前記音声取得部が取得した前記コンテンツに関する音声に加えて、前記周辺音取得部が取得した周辺音を出力する、
請求項1に記載のコンテンツ出力制御装置。
【請求項3】
前記ユーザの顔を認識し、認識した顔の向きを検出する顔検出部、をさらに備え、
前記音声出力制御部は、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断したことに加えて、前記顔検出部が検出した顔の向きが、前記表示画面に対して対向する向きである場合に、前記音声取得部が取得した前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断したことに加えて、前記顔検出部が検出した顔の向きが、前記表示画面に対して対向する向きではない場合に、前記周辺音取得部が取得した周辺音を出力する、
請求項1または2に記載のコンテンツ出力制御装置。
【請求項4】
請求項1から3のいずれか一項に記載のコンテンツ出力制御装置と、
周辺音を収音する収音部と、
音声を出力する音声出力部と、
を備える、コンテンツ出力システム。
【請求項5】
表示画面と同じ方向を向いて配置されている視線センサによって音声出力装置を利用しているユーザの視線方向を検出するステップと、
視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断するステップと、
前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得するステップと、
前記ユーザが交通機関を利用していることを判断するステップと、
前記コンテンツに関する音声を取得するステップと、
前記ユーザが交通機関を利用している場合に、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、周辺音を出力するステップと、
を含む、コンテンツ出力制御装置が実行するコンテンツ出力制御方法。
【請求項6】
表示画面と同じ方向を向いて配置されている視線センサによって音声出力装置を利用しているユーザの視線方向を検出するステップと、
視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断するステップと、
前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得するステップと、
前記ユーザが交通機関を利用していることを判断するステップと、
前記コンテンツに関する音声を取得するステップと、
前記ユーザが交通機関を利用している場合に、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、周辺音を出力するステップと、
を含む、コンピュータが実行するプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラムに関する。
【背景技術】
【0002】
音声出力可能な電子書籍やゲームなど、表示画面にコンテンツ内容を表示することに加えて、音声を出力する技術が知られている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところが、このような装置を、例えば公共交通機関などの乗車時に利用している場合、車内放送などの周辺音が聞き取りにくい場合などがある。
【0005】
本発明は、上記に鑑みてなされたものであって、適切に周辺音の確認を可能にすることを目的とする。
【課題を解決するための手段】
【0006】
上述した課題を解決し、目的を達成するために、本発明に係るコンテンツ出力制御装置は、ユーザの視線方向を検出する視線検出部と、前記視線検出部の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断する注視判断部と、周辺音を取得する周辺音取得部と、前記コンテンツに関する音声を取得する音声取得部と、前記注視判断部が、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記音声取得部が取得した前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、前記周辺音取得部が取得した周辺音を出力する音声出力制御部と、を備える。
【0007】
本発明に係るコンテンツ出力システムは、上記のコンテンツ出力制御装置と、周辺音を収音する収音部と、音声を出力する音声出力部と、を備える。
【0008】
本発明に係るコンテンツ出力制御方法は、音声出力装置を利用しているユーザの視線方向を検出するステップと、視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断するステップと、周辺音を取得するステップと、前記コンテンツに関する音声を取得するステップと、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、周辺音を出力するステップと、を含む。
【0009】
本発明に係るプログラムは、音声出力装置を利用しているユーザの視線方向を検出するステップと、視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断するステップと、周辺音を取得するステップと、前記コンテンツに関する音声を取得するステップと、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、周辺音を出力するステップと、をコンピュータに実行させる。
【発明の効果】
【0010】
本発明によれば、適切に周辺音の確認できるという効果を奏する。
【図面の簡単な説明】
【0011】
【
図1】
図1は、第一実施形態に係るコンテンツ出力システムを示す概略図である。
【
図2】
図2は、第一実施形態に係るコンテンツ出力システムを示すブロック図である。
【
図3】
図3は、第一実施形態に係るコンテンツ出力システムにおける処理の流れの一例を示すフローチャートである。
【
図4】
図4は、第一実施形態に係るコンテンツ出力システムにおける処理の流れの他の例を示すフローチャートである。
【
図5】
図5は、第二実施形態に係るコンテンツ出力システムのブロック図である。
【
図6】
図6は、第二実施形態に係るコンテンツ出力システムにおける処理の流れの一例を示すフローチャートである。
【
図7】
図7は、第三実施形態に係るコンテンツ出力システムのブロック図である。
【
図8】
図8は、第三実施形態に係るコンテンツ出力システムにおける処理の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0012】
以下に添付図面を参照して、本発明に係るコンテンツ出力システム1の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
【0013】
[第一実施形態]
<コンテンツ出力システム>
図1は、第一実施形態に係るコンテンツ出力システム1を示す概略図である。
図2は、第一実施形態に係るコンテンツ出力システム1を示すブロック図である。コンテンツ出力システム1は、音声出力装置としてのヘッドホン10と、例えば、電子書籍端末、スマートフォン、タブレット端末、携帯用音楽再生装置、および、携帯用ゲーム機など、映像および音声で構成されるコンテンツのコンテンツ再生や表示等を行う電子機器30とを含む。言い換えると、コンテンツ出力システム1は、音声出力装置としてのヘッドホン10と電子機器30との組み合わせである。コンテンツ出力システム1は、ユーザが表示画面36を注視しているか否かに応じて、ヘッドホン10から表示画面36に表示したコンテンツに関する音声を出力したり、周辺の音声を出力したりする。
【0014】
<ヘッドホン>
ヘッドホン10は、例えばオーバーヘッド式で、ユーザの頭に装着する。ヘッドホン10は、電子機器30のコンテンツ出力制御装置40から出力される音声データに基づいて、表示画面36に表示したコンテンツに関する音声を出力する。ヘッドホン10は、コンテンツ出力制御装置40から出力される音声信号に基づいて、周辺音を出力可能である。ヘッドホン10は、電子機器30と有線または無線でデータを送受信可能に接続されている。ヘッドホン10は、左音声出力部11と右音声出力部12とコンテンツ入力部31と左マイクロフォン14と右マイクロフォン15とコンテンツ出力制御装置40とを有する。
【0015】
左音声出力部11は、左耳用の音声出力部である。左音声出力部11は、左耳を覆う筐体を有する。左音声出力部11は、左耳において聞かせる音声を出力する。左音声出力部11は、コンテンツ出力制御装置40から音声データを取得する。左音声出力部11は、音声データの左チャンネルデータを出力する。左音声出力部11は、音声データの左チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。
【0016】
右音声出力部12は、右耳用の音声出力部である。右音声出力部12は、右耳において聞かせる音声を出力する。右音声出力部12は、コンテンツ出力制御装置40から音声データを取得する。右音声出力部12は、音声データの右チャンネルデータを出力する。右音声出力部12は、音声データの右チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。
【0017】
左マイクロフォン14は、左音声出力部11の筐体に配置されている。左マイクロフォン14は、周辺音を取得する。周辺音は、例えば第三者の話し声および乗物の騒音などを含む環境音である。左マイクロフォン14は、取得した音声を電子機器30の周辺音取得部52に出力する。
【0018】
右マイクロフォン15は、右音声出力部12の筐体に配置されている。右マイクロフォン15は、周辺音を取得する。右マイクロフォン15は、取得した音声を電子機器30の周辺音取得部52に出力する。
【0019】
<電子機器>
電子機器30は、コンテンツ入力部31と、表示部32と、視線センサ33と、コンテンツ出力制御装置40とを有する。
【0020】
コンテンツ入力部31は、例えば音楽、映像またはゲームなどのコンテンツのコンテンツデータが入力される。コンテンツ入力部31は、例えば図示しない記憶部に記憶されたコンテンツデータが入力されてもよい。コンテンツ入力部31は、外部の記憶装置から、有線または無線でコンテンツデータが入力されてもよい。コンテンツ入力部31に入力されるコンテンツデータは、例えば、音声出力を伴うコンテンツデータであり、動画コンテンツ、ゲームコンテンツ、WEBコンテンツなどである。
【0021】
コンテンツデータには、コンテンツに関する映像データと音声データとを含む。コンテンツに関する映像データとは、表示画面36に表示するコンテンツの映像データである。コンテンツに関する音声データとは、表示画面36に表示されたコンテンツの映像データに対応して出力する音声の音声データである。コンテンツに関する音声データとは、例えば、電子書籍のテキスト読み上げの音声、WEBページのテキスト読み上げ音声および解説音声などでもよい。
【0022】
視線センサ33は、電子機器30の表示画面36と同じ方向を向いて配置されている。視線センサ33は、電子機器30の表示画面36と対面している人物の視線を検出するセンサである。視線センサ33は、ユーザが表示画面36を視認している状態では、ユーザの顔と向かい合う位置に配置されている。視線センサ33は、例えば、電子機器30の表示画面36の上部に配置されている。視線センサ33は、撮影した撮影データをコンテンツ出力制御装置40の視線検出部43へ出力する。
【0023】
視線センサ33は、例えば、赤外LED群で構成された赤外光発光部と、一対の赤外線カメラとを含む。本実施形態では、視線センサ33は、一対の赤外光発光部でユーザの顔方向に赤外光を照射し、赤外線カメラで撮影する。このようにして赤外線カメラで撮影した撮影映像から、後述する視線検出部43が、ユーザの瞳孔と角膜反射の位置とに基づいて、ユーザの視線が表示画面36を向いているか否かを判断する。さらに、ユーザの瞳孔と角膜反射の位置とに基づいて、表示画面36におけるユーザの視線の位置が判断される。視線センサ33は、可視光カメラなど、同様の機能を有する他の構成であってもよい。
【0024】
表示部32は、コンテンツ入力部31に入力されたコンテンツの映像を表示する。表示部32は、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部32は、表示制御部42から出力された表示データに基づいて、コンテンツの映像を表示する。表示部32は、映像が表示される表示画面36を備える。
【0025】
ヘッドホン10には、ヘッドホン10がユーザの頭に装着されているか否かを検出するセンサが備えられていてもよい。具体的には、ヘッドホン10には3軸の加速度センサが備えられ、重力加速度が検出されている方向に基づいて、ヘッドホン10がユーザの頭に装着されていると判断する。さらに、例えばヘッドバンドの開き具合またはイヤーパッドへの圧力などを検出する他のセンサを使用してもよい。
【0026】
<コンテンツ出力制御装置>
コンテンツ出力制御装置40は、ユーザが表示画面36を注視しているか否かに応じて、ヘッドホン10からコンテンツに関する音声を出力したり、周辺音を出力したりする。コンテンツ出力制御装置40は、例えば、CPU(Central Processing Unit)または映像処理用プロセッサなどで構成された演算処理装置(制御部)である。コンテンツ出力制御装置40は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。コンテンツ出力制御装置40は、映像取得部41と表示制御部42と視線検出部43と注視判断部44と音声処理部50と内部メモリである記憶部とが含まれる。音声処理部50は、音声取得部51と周辺音取得部52と音声出力制御部53とを有する。コンテンツ出力制御装置40は、一または複数の装置で構成されていてもよい。
【0027】
映像取得部41は、表示部32の表示画面36に出力するためのコンテンツの映像データをコンテンツ入力部31から取得する。
【0028】
表示制御部42は、映像取得部41が取得したコンテンツの映像データを表示部32の表示画面36に表示させる。
【0029】
視線検出部43は、視線センサ33が撮影した撮影データに基づいて、ユーザの視線方向を検出する。視線を検出する方法は限定されないが、本実施形態では、角膜反射によって視線を検出する。
【0030】
注視判断部44は、視線検出部43の検出結果に基づき、ユーザがコンテンツを表示した電子機器30の表示画面36を注視しているか否かを判断する。表示画面36を注視しているとは、ユーザの視線方向に表示画面36が位置した状態、言い換えると、ユーザの視線方向と表示画面36とが交差する状態が、第一所定期間以上継続することをいう。第一所定期間とは、例えば5秒程度である。表示画面36を注視していないとは、ユーザの視線方向が表示画面36と異なる方向に向いている状態、言い換えると、ユーザの視線方向と表示画面36とが交差しない状態が、第二所定期間以上継続することをいう。第二所定期間とは、例えば5秒程度である。
【0031】
音声取得部51は、左音声出力部11と右音声出力部12とから出力するためのコンテンツに関する音声データをコンテンツ入力部31から取得する。
【0032】
周辺音取得部52は、左マイクロフォン14と右マイクロフォン15とから、周辺音を取得する。
【0033】
音声出力制御部53は、ヘッドホン10から音声データを音として出力する制御を行う。より詳しくは、音声出力制御部53は、音声データの左チャンネルデータをD/A変換して増幅した信号を左音声出力部11から出力させる。音声出力制御部53は、音声データの右チャンネルデータをD/A変換して増幅した信号を右音声出力部12から出力させる。
【0034】
音声出力制御部53は、注視判断部44が、ユーザがコンテンツを表示した表示画面36を注視していると判断した場合は、音声取得部51が取得したコンテンツに関する音声を出力し、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、周辺音取得部52が取得した周辺音を出力する。
【0035】
音声出力制御部53は、注視判断部44が、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、音声取得部51が取得したコンテンツに関する音声に加えて、周辺音取得部52が取得した周辺音を出力してもよい。この場合は、コンテンツに関する音声とともに周辺音がヘッドホン10から出力される。
【0036】
次に、
図3、
図4を用いて、ヘッドホン10における情報処理について説明する。
図3は、第一実施形態に係るコンテンツ出力システム1における処理の流れの一例を示すフローチャートである。
図4は、第一実施形態に係るコンテンツ出力システム1における処理の流れの他の例を示すフローチャートである。例えば、ヘッドホン10の電源がONになった場合、ヘッドホン10がユーザの頭に装着された場合、ヘッドホン10から音声の出力が開始された場合、または、コンテンツ出力制御処理の開始操作がされた場合などに、
図3、
図4に示すフローチャートの処理が実行される。
【0037】
まず、
図3に示す処理について説明する。コンテンツ出力制御装置40は、音声出力を伴うコンテンツが表示部32に表示されているか否かを判断する(ステップS101)。より詳しくは、コンテンツ入力部31に入力された、音声および映像からなるコンテンツが再生され、コンテンツの映像が表示部32に表示され、コンテンツの音声がヘッドホン10に出力されているか否かを判断する。言い換えると、音声および映像からなるコンテンツが再生されているか否かを判断する。音声出力を伴うコンテンツが表示部32に表示されている状態とは、表示部32にコンテンツの映像が表示され、コンテンツの音声がヘッドホン10に出力されている状態であり、これらの出力は、コンテンツの再生が終了するまで継続される。
【0038】
音声出力を伴うコンテンツが表示部32に表示されていると判断する場合(ステップS101でYes)、ステップS102へ進む。音声出力を伴うコンテンツが表示部32に表示されていると判断しない場合(ステップS101でNo)、本処理を終了する。音声出力を伴うコンテンツが表示部32に表示されていると判断する場合(ステップS101でYes)、ユーザが表示画面36を注視しているか否かを判断する(ステップS101)。より詳しくは、注視判断部44によって、視線検出部43の検出結果から、ユーザがコンテンツを表示した電子機器30の表示画面36を注視しているか否かを判断する。注視判断部44によって、ユーザの視線方向に表示画面36が位置した状態が、第一所定期間以上継続いるか否かを判断する。注視判断部44によって、ユーザが表示画面36を注視していると判断する場合(ステップS102でYes)、ステップS103へ進む。注視判断部44によって、ユーザが表示画面36を注視していると判断しない場合(ステップS102でNo)、ステップS104へ進む。
【0039】
ユーザが表示画面36を注視していると判断する場合(ステップS102でYes)、コンテンツ出力制御装置40は、コンテンツの音声を出力する(ステップS103)。より詳しくは、音声出力制御部53は、音声取得部51が取得した、コンテンツに関する音声をヘッドホン10から出力する。これにより、ヘッドホン10の左音声出力部11と右音声出力部12とからコンテンツの音声が出力される。コンテンツ出力制御装置40は、ステップS105へ進む。
【0040】
ステップS103の処理は、ステップS101でYesのときに周辺音が出力されていない状態の場合は周辺音が出力されていない状態でコンテンツ音の出力を継続し、ステップS101でYesのときに周辺音が出力されている状態の場合はコンテンツ音の出力を継続し周辺音の出力を停止する。
【0041】
ユーザが表示画面36を注視していると判断しない場合(ステップS102でNo)、コンテンツ出力制御装置40は、周辺音を出力する(ステップS104)。より詳しくは、音声出力制御部53は、周辺音取得部52が取得した周辺音を出力する。これにより、ヘッドホン10の左音声出力部11と右音声出力部12とから周辺音が出力される。コンテンツ出力制御装置40は、ステップS105へ進む。
【0042】
ステップS104の処理は、ステップS101でYesのときに周辺音が出力されていない状態の場合は周辺音の出力を開始し、ステップS101でYesのときに周辺音が出力されている状態の場合は周辺音の出力を維持する。
【0043】
コンテンツ出力制御装置40は、ヘッドホン10や電子機器30などのコンテンツ出力システム1の利用を終了するか否かを判断する(ステップS105)。例えば、ヘッドホン10や電子機器30の電源がOFFになった場合、ヘッドホン10がユーザの頭から取り外された場合、ヘッドホン10への音声の出力が停止された場合、または、コンテンツ出力制御処理の終了操作がされた場合などに、利用を終了すると判断して(ステップS105でYes)、処理を終了する。コンテンツ出力制御装置40は、上記に該当しない場合、利用を終了すると判断せずに(ステップS105でNo)、ステップS101の処理を再度実行する。
【0044】
つづいて、
図4に示す処理について説明する。
図4に示すフローチャートのステップS111、ステップS112、ステップS113、ステップS115は、
図3に示すフローチャートのステップS101、ステップS102、ステップS103、ステップS105と同様の処理を行う。
【0045】
ユーザが表示画面36を注視していると判断しない場合(ステップS112でNo)、コンテンツ出力制御装置40は、コンテンツに関する音声とともに、周辺音を出力する(ステップS114)。より詳しくは、音声取得部51が取得したコンテンツに関する音声とともに、周辺音取得部52が取得した周辺音をヘッドホン10の左音声出力部11と右音声出力部12とから出力する。コンテンツ出力制御装置40は、ステップS115へ進む。
【0046】
ステップS113の処理は、ステップS111でYesのときに周辺音が出力されていない状態の場合は周辺音が出力されていない状態でコンテンツ音の出力を継続し、ステップS111でYesのときにコンテンツ音と周辺音が出力されている状態の場合はコンテンツ音の出力を継続し周辺音の出力を停止する。
【0047】
ステップS114の処理は、ステップS111でYesのときにコンテンツ音が出力され周辺音が出力されていない状態の場合はコンテンツ音の出力を維持した状態で周辺音の出力を開始し、ステップS111でYesのときにコンテンツ音と周辺音が出力されている状態の場合はコンテンツ音と周辺音の出力を維持する。
【0048】
ステップS114で、コンテンツ音とともに周辺音を出力する場合は、コンテンツ音の音量はユーザが設定した音量の状態であってもよく、周辺音を出力している期間のコンテンツ音の音量をユーザが設定した音量より低くしてもよい。
【0049】
このようにして、ヘッドホン10を装着しているユーザが表示画面36を注視している場合、コンテンツに関する音声を出力し、ユーザが表示画面36を注視していない場合、周辺音を出力する。
【0050】
<効果>
上述したように、本実施形態は、ヘッドホン10を装着しているユーザが表示画面36を注視している場合、コンテンツの音声を出力し、ユーザが表示画面36を注視していない場合、周辺音を出力できる。本実施形態によれば、ユーザが表示画面36を注視することを中断して、ユーザが周辺に注意を向けたと推定される状態となった場合に、適切に周辺音を確認できる。このようにして、本実施形態によれば、ユーザが周辺音を聞きたいときに、ユーザが操作をしなくても、適切に周辺音を確認できる。
【0051】
本実施形態では、ユーザが表示画面36を注視していない場合、コンテンツの音声とともに周辺音を出力できる。本実施形態によれば、コンテンツの視聴を継続しながら、周辺音を確認できる。
【0052】
[第二実施形態]
図5、
図6を参照しながら、本実施形態に係るコンテンツ出力システム1Aについて説明する。
図5は、第二実施形態に係るコンテンツ出力システム1Aのブロック図である。
図6は、第二実施形態に係るコンテンツ出力システム1Aにおける処理の流れの一例を示すフローチャートである。コンテンツ出力システム1Aは、基本的な構成は第一実施形態のコンテンツ出力システム1と同様である。以下の説明においては、コンテンツ出力システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態では、電子機器30Aは、GNSS(Global Navigation Satellite System)受信部34Aとコンテンツ出力制御装置40Aの位置情報算出部45Aと判断部46Aとを有する点と、音声出力制御部53Aにおける処理とが、第一実施形態と異なる。
【0053】
GNSS受信部34Aは、GNSS衛星からのGNSS信号を受信するGNSS受信機などで構成される。GNSS受信部34Aは、受信したGNSS信号を位置情報算出部45Aに出力する。
【0054】
位置情報算出部45Aは、GNSS受信部34AからGNSS信号を受け付ける。位置情報算出部45Aは、GNSS信号に基づいて、現在位置情報を算出する。位置情報算出部45AおよびGNSS受信部34Aは、GNSS信号に限らず、他の方式の測位衛星システムに対応していてもよい。
【0055】
判断部46Aは、ユーザが交通機関を利用しているか否かを判断する。例えば、判断部46Aは、位置情報算出部45Aが算出した位置情報に基づいて、ヘッドホン10を装着したユーザの現在位置が、図示しない地図情報の交通機関の位置情報に該当する場合や、移動履歴や移動速度に基づいて、交通機関を利用していると判断してもよい。判断部46Aは、交通機関を利用しているかを判断する方法は限定されず、例えば、ヘッドホン10の周辺のノイズまたは振動を利用するような他の方法によって判断されてもよい。
【0056】
音声出力制御部53Aは、ユーザが交通機関を利用している場合に、ユーザがコンテンツを表示した表示画面36を注視していると判断した場合は、音声取得部51が取得したコンテンツに関する音声を出力し、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、周辺音取得部52が取得した周辺音を出力する。
【0057】
次に、
図6を用いて、コンテンツ出力システム1Aにおける情報処理について説明する。
図6に示すフローチャートのステップS122ないしステップS126、は、
図3に示すフローチャートのステップS101ないしステップS105と同様の処理を行う。
【0058】
コンテンツ出力制御装置40Aは、交通機関を利用しているか否かを判断する(ステップS121)。より詳しくは、判断部46Aによって、位置情報算出部45Aが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報に該当する場合などの判断結果に基づき、交通機関を利用していると判断する。判断部46Aによって、交通機関を利用していると判断する場合(ステップS121でYes)、ステップS122へ進む。判断部46Aによって、交通機関を利用していると判断しない場合(ステップS121でNo)、処理を終了する。
【0059】
ステップS126における利用終了の判断は、ヘッドホン10または電子機器30Aの利用終了の判断に加えて、コンテンツ出力制御装置40Aは、交通機関の利用を終了するか否かも判断する(ステップS126)。より詳しくは、判断部46Aによって、位置情報算出部45Aが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報から外れる場合など、交通機関の利用が終了していることの検出によって、交通機関の利用を終了すると判断する。判断部46Aによって、交通機関の利用を終了すると判断する場合(ステップS126でYes)、処理を終了する。判断部46Aによって、交通機関の利用を終了すると判断しない場合(ステップS126でNo)、ステップS122へ進む。
【0060】
<効果>
上述したように、本実施形態は、ヘッドホン10を装着したユーザが交通機関を利用している場合であって、ユーザが表示画面36を注視していない場合には、周辺音を出力する。本実施形態によれば、ヘッドホン10を装着したユーザが交通機関の利用中に、アナウンスなどを聞くために、コンテンツの表示画面36を注視しなくなった場合などに、アナウンスなどの周辺音をヘッドホン10で聞くことができる。本実施形態によれば、不用意に周辺音が出力されることを抑制できる。
【0061】
[第三実施形態]
図7、
図8を参照しながら、本実施形態に係るコンテンツ出力システム1Bについて説明する。
図7は、第三実施形態に係るコンテンツ出力システム1Bのブロック図である。
図8は、第三実施形態に係るコンテンツ出力システム1Bにおける処理の流れの一例を示すフローチャートである。コンテンツ出力システム1Bは、基本的な構成は第一実施形態のコンテンツ出力システム1と同様である。本実施形態では、電子機器30Bは、撮影部35Bと、コンテンツ出力制御装置40Bの顔検出部47Bとを有する点と、音声出力制御部53Bにおける処理とが、第一実施形態と異なる。
【0062】
撮影部35Bは、電子機器30Bの表示画面36と対面している人物を撮影する可視光カメラである。撮影部35Bは、ユーザの顔を撮影する。撮影部35Bは、ユーザが表示画面を視認している状態では、ユーザの顔を撮影可能な位置に配置されている。撮影部35Bは、例えば、電子機器30Bの表示画面36の上部に配置されている。撮影部35Bは、撮影した撮影データをコンテンツ出力制御装置40Bの顔検出部47Bへ出力する。撮影部33Aと視線センサ33とは、同一の可視光カメラであってもよい。
【0063】
顔検出部47Bは、撮影部35Bが撮影した撮影データからユーザの顔を認識し、認識した顔の向きを検出する。より詳しくは、顔検出部47Bは、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きであるか否かを検出する。例えばユーザがコンテンツが表示された表示画面36を注視している場合には、ユーザの顔の向きは表示画面36に対して対向する向きである。例えばユーザが周辺に注意を向けて周りを見回すような場合には、ユーザの顔の向きは表示画面36に対して対向する向きではない。
【0064】
表示画面36に対して対向する向きとは、ユーザが表示画面36に表示されたコンテンツの画像などを視認可能な向きのことである。表示画面36に対して対向する向きとは、例えば、上下方向視および左右方向視において、ユーザの両眼の中心を通り、ユーザの前方に延びる直線と、表示画面36とが交差する角度が例えば90°±30°程度の範囲など、明らかにユーザが表示画面36を見ているとされる向きが定義されればよい。
【0065】
音声出力制御部53Bは、注視判断部44によってユーザがコンテンツを表示した表示画面36を注視していると判断したことに加えて、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きである場合に、音声取得部51が取得したコンテンツに関する音声を出力する。音声出力制御部53Bは、注視判断部44によってユーザがコンテンツを表示した表示画面36を注視していないと判断したことに加えて、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きではない場合に、周辺音取得部52が取得した周辺音を出力する。ユーザがコンテンツを表示した表示画面36を注視していない場合でも、ユーザの顔の向きが表示画面36に対して対向する場合、ユーザがコンテンツの視聴を継続する意思があると推定される。この場合、コンテンツの視聴を継続させることが好ましい。これに対して、ユーザがコンテンツを表示した表示画面36を注視しておらず、かつ、ユーザの顔の向きが表示画面36に対して対向していない場合、ユーザは周辺に高い注意を払っていると推定される。この場合、周辺音を確認可能にすることが好ましい。
【0066】
次に、
図8を用いて、コンテンツ出力システム1Bにおける情報処理について説明する。
図8に示すフローチャートのステップS131、ステップS132、ステップS134ないしステップS136は、
図3に示すフローチャートのステップS101、ステップS102、ステップS103ないしステップS105と同様の処理を行う。
【0067】
コンテンツ出力制御装置40Bは、ユーザの顔は対向しているか否かを判断する(ステップS133)。より詳しくは、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きである場合(ステップS133でYes)、ステップS134へ進む。顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きではない場合(ステップS133でNo)、ステップS135へ進む。
【0068】
<効果>
上述したように、本実施形態は、ユーザが表示画面36を注視して、かつ、ユーザの顔の向きが表示画面36に対して対向する場合、コンテンツの音声を出力し、ユーザが表示画面36を注視していないで、かつ、ユーザの顔の向きが表示画面36に対して対向する向きではない場合、周辺音取得部52が取得した周辺音を出力できる。本実施形態によれば、ユーザが顔の向きを表示画面36に対向しない向きにして、ユーザが周辺に注意を向けたと状態されるときに、適切に周辺音を確認できる。
【0069】
図示したコンテンツ出力システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
【0070】
コンテンツ出力システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
【0071】
上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
【0072】
上記では、音声出力装置の一例としてヘッドホン10について説明したが、これに限定されない。音声出力装置は、例えば、イヤホンおよび首掛け式のスピーカなどであってもよい。
【符号の説明】
【0073】
1 コンテンツ出力システム
10 ヘッドホン(音声出力装置)
11 左音声出力部
12 右音声出力部
14 左マイクロフォン
15 右マイクロフォン
30 電子機器
31 コンテンツ入力部
32 表示部
33 視線センサ
40 コンテンツ出力制御装置
41 映像取得部
42 表示制御部
43 視線検出部
44 注視判断部
50 音声処理部
51 音声取得部
52 周辺音取得部
53 音声出力制御部