IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社ジェイテクトの特許一覧 ▶ connectome.design株式会社の特許一覧

特開2023-119082情報提供システム、方法、および、プログラム
<>
  • 特開-情報提供システム、方法、および、プログラム 図1
  • 特開-情報提供システム、方法、および、プログラム 図2
  • 特開-情報提供システム、方法、および、プログラム 図3
  • 特開-情報提供システム、方法、および、プログラム 図4
  • 特開-情報提供システム、方法、および、プログラム 図5
  • 特開-情報提供システム、方法、および、プログラム 図6
  • 特開-情報提供システム、方法、および、プログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023119082
(43)【公開日】2023-08-28
(54)【発明の名称】情報提供システム、方法、および、プログラム
(51)【国際特許分類】
   G09F 25/00 20060101AFI20230821BHJP
   G01C 21/26 20060101ALI20230821BHJP
【FI】
G09F25/00 J
G01C21/26 P
G09F25/00 L
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2022021703
(22)【出願日】2022-02-16
(71)【出願人】
【識別番号】000001247
【氏名又は名称】株式会社ジェイテクト
(71)【出願人】
【識別番号】518236513
【氏名又は名称】connectome.design株式会社
(74)【代理人】
【識別番号】110000028
【氏名又は名称】弁理士法人明成国際特許事務所
(72)【発明者】
【氏名】梅澤 弥来
(72)【発明者】
【氏名】柴田 由之
(72)【発明者】
【氏名】松本 崇
(72)【発明者】
【氏名】佐藤 聡
【テーマコード(参考)】
2F129
【Fターム(参考)】
2F129AA02
2F129BB03
2F129BB07
2F129BB08
2F129BB22
2F129BB26
2F129BB33
2F129DD40
2F129EE43
2F129EE78
2F129EE87
2F129FF11
2F129FF62
2F129FF69
2F129HH12
2F129HH35
(57)【要約】
【課題】ユーザを考慮して、音声による情報を提供する。
【解決手段】情報提供システムは、ユーザがいる位置を示す位置情報と、ユーザの顔が向いている方向である視線方向を示す視線方向情報とを取得する位置方向取得部と、位置情報と、視線方向情報と、対象位置情報とから、ユーザが視認している対象を推定する対象推定部と、推定された対象についての説明情報を情報提供に関する設定に従って音声により出力する情報出力部と、ユーザの頭部の動作を検出する頭部動作検出部と、説明情報を出力している間のユーザの頭部の動作からユーザの意思を推定し、ユーザの意思に応じて情報提供に関する設定を選択する意思推定部と、を備える。情報提供に関する設定が変更された場合、情報出力部は、変更後の情報提供に関する設定に従って説明情報を出力する。
【選択図】図1
【特許請求の範囲】
【請求項1】
音により情報を提供する情報提供システムであって、
ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報とを取得する位置方向取得部と、
前記ユーザの視認対象となり得る複数の対象それぞれの位置を表す対象位置情報と、それぞれの前記対象を説明する説明情報と、情報提供に関する設定を示す情報とを記憶する記憶部と、
前記位置情報と、前記視線方向情報と、前記対象位置情報とから、前記ユーザが視認している前記対象を推定する対象推定部と、
推定された前記対象についての前記説明情報を前記情報提供に関する設定に従って音声により出力する情報出力部と、
前記ユーザの頭部の動作を検出する頭部動作検出部と、
前記説明情報を出力している間の前記ユーザの頭部の動作から前記ユーザの意思を推定し、前記ユーザの前記意思に応じて前記情報提供に関する設定を選択する意思推定部と、
を備え、
前記情報提供に関する設定が変更された場合、前記情報出力部は、変更後の前記情報提供に関する設定に従って前記説明情報を出力する、
情報提供システム。
【請求項2】
請求項1に記載の情報提供システムであって、
前記記憶部は、前記対象を説明する前記説明情報として、前記対象についての説明である第1説明情報と、前記対象について、前記第1説明情報と異なる説明である第2説明情報とを記憶しており、
前記情報提供に関する設定は、前記第1説明情報と、前記第2説明情報とのうちいずれが前記説明情報として選択されているかを示す情報を含む、
情報提供システム。
【請求項3】
請求項2に記載の情報提供システムであって、
前記記憶部は、前記対象を説明する前記説明情報として、前記対象について、前記第1説明情報および前記第2説明情報と異なる説明である第3説明情報をさらに記憶しており、
前記第1説明情報は、前記対象についての通常の説明であり、前記第2説明情報は、前記第1説明情報より詳細な説明であり、前記第3説明情報は、前記第1説明情報より簡略な説明であり、
前記情報提供に関する設定は、前記第1説明情報と、前記第2説明情報と、前記第3説明情報とのうちいずれが前記説明情報として選択されているかを示す情報を含む、
情報提供システム。
【請求項4】
請求項1から3のいずれか1項に記載の情報提供システムであって、
前記情報提供に関する設定は、前記音声の出力に関する設定情報を含む、
情報提供システム。
【請求項5】
請求項1から4のいずれか1項に記載の情報提供システムであって、
前記情報提供に関する設定は、前記説明情報の出力を継続するか否かを示す情報を含む、
情報提供システム。
【請求項6】
請求項1から5のいずれか1項に記載の情報提供システムであって、
前記情報出力部は、前記ユーザに対する質問を前記音声により出力し、
前記意思推定部は、前記ユーザの頭部の動作から、前記ユーザの前記質問に対する回答を推定する、
情報提供システム。
【請求項7】
請求項1から6のいずれか1項に記載の情報提供システムであって、
前記対象は、移動物体を含み、
前記対象推定部は、前記ユーザの眼が見ることができる範囲に前記移動物体が入っている状態があらかじめ設定された期間継続されている場合に、前記移動物体を前記ユーザが視認している前記対象であると推定する、
情報提供システム。
【請求項8】
請求項1から7のいずれか1項に記載の情報提供システムであって、
前記対象それぞれに対応する音源の仮想的な位置を取得する音源位置取得部、
をさらに備え、
前記情報出力部は、前記ユーザの現在位置から見た前記音源の前記仮想的な位置に応じて、前記説明情報を表す前記音声に立体音響処理を施した音声を、前記ユーザの頭部に装着される携帯型の音声出力装置に出力させる、
情報提供システム。
【請求項9】
請求項1から8のいずれか1項に記載の情報提供システムであって、
前記記憶部は、前記ユーザの使用言語が属する文化に応じた非言語的な動作が定義された意思定義データを記憶する、
前記意思推定部は、前記意思定義データと、前記ユーザの頭部の動作とから、前記ユーザの前記意思を推定する、
情報提供システム。
【請求項10】
請求項1から9のいずれか1項に記載の情報提供システムであって、
前記意思推定部は、前記ユーザの頭部の動作を表すパラメータと、前記ユーザの移動速度と、前記ユーザと前記対象との距離と、前記ユーザの前記対象に対する相対的な角度とを、学習済みの機械学習モデルに入力することにより、前記ユーザの前記意思を推定する、
情報提供システム。
【請求項11】
ユーザにより携帯されるコンピュータが、音により情報を提供する方法であって、
前記コンピュータが、
前記ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報とを取得するステップと、
前記位置情報と、前記視線方向情報と、前記ユーザの視認対象となり得る複数の対象それぞれについて予め設定された対象位置情報とから、前記ユーザが視認している対象を推定するステップと、
推定された前記対象についての説明情報を情報提供に関する設定に従って前記音声により出力するステップと、
前記ユーザの頭部の動作を検出するステップと、
前記説明情報を出力している間の前記ユーザの頭部の動作から前記ユーザの意思を推定するステップと、
推定された前記ユーザの前記意思に応じて前記情報提供に関する設定を選択するステップと、
前記情報提供に関する設定が変更された場合、変更後の前記情報提供に関する設定に従って、前記説明情報を前記音声により出力するステップと、
を含む方法。
【請求項12】
ユーザが携帯するコンピュータが実行するプログラムであって、
前記コンピュータに、
前記ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報とを取得する機能と、
前記位置情報と、前記視線方向情報と、前記ユーザの視認対象となり得る複数の対象それぞれについて予め設定された対象位置情報とから、前記ユーザが視認している前記対象を推定する機能と、
推定された前記対象についての説明情報を情報提供に関する設定に従って音声により出力する機能と、
前記ユーザの頭部の動作を検出する機能と、
前記説明情報を出力している間の前記ユーザの頭部の動作から前記ユーザの意思を推定する機能と、
推定された前記ユーザの前記意思に応じて前記情報提供に関する設定を選択する機能と、
前記情報提供に関する設定が変更された場合、変更後の前記情報提供に関する設定に従って、前記説明情報を前記音声により出力する機能と、
を実現させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報提供システム、方法、および、プログラムに関する。
【背景技術】
【0002】
特許文献1には、CDプレーヤとスピーカとを備え、商品を説明する情報を顧客に提供する商品陳列棚について記載されている。この商品陳列棚においては、陳列された複数の商品それぞれの説明が録音されたCDがCDプレーヤにより再生され、再生された音声がスピーカから出力される。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平8-160897号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載されている陳列棚においては、複数の商品の説明が予め定められた順番で再生される。顧客が陳列棚の近くに移動してきたときに、顧客が興味をもたない商品についての説明がされている場合、顧客が望まない情報が提供されることになる。また、顧客は、興味を持っている商品の説明を聞きたい場合には、陳列棚の近くでしばらく待つ必要がある。また、商品の説明が予め定められた順番で再生されるだけなので、顧客が説明の一部を聞き逃してしまった場合であっても、その部分をすぐに聞き直すことはできない。
【0005】
このように、特許文献1に係る構成においては、顧客の意思を考慮して、音声による情報を提供できないという問題があった。
【課題を解決するための手段】
【0006】
本開示は、以下の形態として実現することが可能である。
【0007】
(1)本開示の形態によれば情報提供システムが提供される。この情報提供システムは、音により情報を提供する。この情報提供システムは、ユーザがいる位置を示す位置情報と、ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得する位置方向取得部と、ユーザの視認対象となり得る複数の対象それぞれの位置を表す対象位置情報と、それぞれの対象を説明する説明情報と、情報提供に関する設定を示す情報とを記憶する記憶部と、位置情報と、視線方向情報と、対象位置情報とから、ユーザが視認している対象を推定する対象推定部と、推定された対象についての説明情報を情報提供に関する設定に従って音声により出力する情報出力部と、ユーザの頭部の動作を検出する頭部動作検出部と、説明情報を出力している間のユーザの頭部の動作からユーザの意思を推定し、ユーザの意思に応じて情報提供に関する設定を選択する意思推定部と、を備える。情報提供に関する設定が変更された場合、情報出力部は、変更後の情報提供に関する設定に従って説明情報を出力する。
このような形態によれば、説明情報を出力している間に推定されたユーザの意思に応じて、情報提供に関する設定を選択される。ユーザには情報提供に関する設定に従って説明情報が提供される。よって、ユーザの意思に応じて、動的に情報提供に関する設定を変更することができる。これにより、ユーザの意思を考慮して音声による情報を提供することができる。
(2)上記形態の情報提供システムにおいて、記憶部は、対象を説明する説明情報として、対象についての説明である第1説明情報と、前記対象について、第1説明情報と異なる説明である第2説明情報とを記憶していてもよい。情報提供に関する設定は、第1説明情報と、第2説明情報とのうちいずれが説明情報として選択されているかを示す情報を含んでいてもよい。
このような形態によれば、説明情報を出力している間に推定されたユーザの意思に応じて、第1説明情報と、第1説明情報と異なる第2説明情報とのいずれかが選択される。よって、ユーザの意思を考慮して、音声による情報を提供することができる。
(3)上記形態の情報提供システムにおいて、記憶部は、対象を説明する説明情報として、対象について、第1説明情報および第2説明情報と異なる説明である第3説明情報をさらに記憶しており、第1説明情報は、対象についての通常の説明であり、第2説明情報は、第1説明情報より詳細な説明であり、第3説明情報は、第1説明情報より簡略な説明であり、情報提供に関する設定は、第1説明情報と、第2説明情報と、第3説明情報とのうちいずれが説明情報として選択されているかを示す情報を含んでいてもよい。
このような形態によれば、説明情報を出力している間に推定されたユーザの意思に応じて、通常の説明と、詳細な説明と、簡略な説明とのいずれかが選択される。よって、例えば、通常の説明を音声出力している間に、ユーザが簡略な説明を希望していると推定されると、簡略な説明を音声出力するように切り替えられる。このように、ユーザの意思を考慮して、音声による情報を提供することができる。
(4)上記形態の情報提供システムにおいて、情報提供に関する設定は、音声の出力に関する設定情報を含んでいてもよい。
このような形態によれば、説明情報を出力している間に推定されたユーザの意思に応じて、音声の出力に関する設定が選択される。例えば、ユーザが聞きづらいと感じていると推定されると、音量を大きくするように設定が変更される。よって、説明情報を出力している間に音量が大きくされるので、ユーザは説明情報を聞きやすい音量で聞くことが可能となる。このように、ユーザの意思を考慮して、音声による情報を提供することができる。
(5)上記形態の情報提供システムにおいて、情報提供に関する設定は、説明情報の出力を継続するか否かを示す情報を含んでいてもよい。
このような形態によれば、説明情報を出力している間に推定されたユーザの意思に応じて、説明情報の出力の継続の可否が選択される。例えば、ユーザが、説明情報の出力が不要であると感じていると推定されると、説明情報の出力を継続しないと設定が変更される。よって、ユーザが望まない説明情報の提供をユーザに行わない。
(6)上記形態の情報提供システムにおいて、情報出力部は、ユーザに対する質問を音声により出力してもよい。意思推定部は、ユーザの頭部の動作から、ユーザの質問に対する回答を推定してもよい。
このような形態によれば、ユーザがただ受動的に情報の提供を受けるのではなく、ユーザが参加しながら情報提供を受けることができる参加型の情報提供システムを提供することができる。
(7)上記形態の情報提供システムにおいて、対象は、移動物体を含む。対象推定部は、ユーザの眼が見ることができる範囲に移動物体が入っている状態があらかじめ設定された期間継続されている場合に、移動物体をユーザが視認している対象であると推定してもよい。
このような形態によれば、静止物体だけでなく移動物体についての説明情報をユーザに提供することができる。
(8)上記形態の情報提供システムにおいて、対象それぞれに対応する音源の仮想的な位置を取得する音源位置取得部、をさらに備えていてもよい。情報出力部は、ユーザの現在位置から見た音源の仮想的な位置に応じて、説明情報を表す音声に立体音響処理を施した音声を、ユーザの頭部に装着される携帯型の音声出力装置に出力させてもよい。
このような形態によれば、ユーザに臨場感を感じさせながら、視認している対象についての情報をユーザに提供することができる。
(9)上記形態の情報提供システムにおいて、記憶部は、ユーザの使用言語が属する文化に基づく非言語的な動作が定義された意思定義データを記憶してもよい。意思推定部は、意思定義データと、ユーザの頭部の動作とから、ユーザの意思を推定してもよい。
このような形態によれば、使用言語が異なるユーザであっても、頭部の動作からユーザの意思を推定することができる。
(10)上記形態の情報提供システムにおいて、意思推定部は、ユーザの頭部の動作を表すパラメータと、ユーザの移動速度と、ユーザと対象との距離と、ユーザの対象に対する相対的な角度とを、学習済みの機械学習モデルに入力することにより、ユーザの意思を推定してもよい。
このような形態によれば、ユーザの意思を高い精度で推定することができる。
本開示の形態は、情報提供システム以外の種々の形態で実現することも可能である。例えば、ユーザにより携帯されるコンピュータが音声により情報を提供する方法、その方法を実現するコンピュータプログラムで実現することができる。
【図面の簡単な説明】
【0008】
図1】実施形態に係る情報提供システムの概略構成を示す図である。
図2】ユーザの頭部の動作を回転角で表す方法を説明するための図である。
図3】ユーザと仮想的に配置された音源との位置関係を表した図である。
図4】情報提供処理のフローチャートである。
図5】説明情報出力処理のフローチャートである。
図6】動作検出処理のフローチャートである。
図7】意思推定処理のフローチャートである。
【発明を実施するための形態】
【0009】
A.実施形態
図1は、実施形態に係る情報提供システム1000の構成を示す図である。情報提供システム1000は、ユーザが視認している対象について、対象を説明する説明情報を音声によりユーザに提供する。また、情報提供システム1000は、推定したユーザの意思に応じた情報提供を行う。本実施形態において、情報提供システム1000が、観光地を回るユーザに、観光スポットに関する情報を提供する例を説明する。情報提供システム1000は、携帯端末100と、イヤホン200とを含む。
【0010】
携帯端末100は、ユーザが携帯する通信端末である。本実施形態においては、携帯端末100は、ユーザが保有するスマートフォンである。携帯端末100には、ユーザに観光地に関する情報を提供するためのアプリケーションソフトウェアがインストールされているものとする。以下、このアプリケーションソフトウェアを案内アプリケーションと呼ぶ。ユーザは、案内アプリケーションを実行することにより、情報提供システム1000から観光地に関する情報の提供を受けることができる。ユーザは、携帯端末100を持ち歩いて、観光地を回るものとする。案内アプリケーションは、ユーザの現在位置およびユーザが視認している対象を推定し、観光スポットに関する情報をユーザに提供する機能を備える。携帯端末100を、ユーザに携帯されるコンピュータともよぶ。
【0011】
イヤホン200は、ユーザが頭部に装着する携帯型の音声出力装置である。イヤホン200は、携帯端末100から受信した信号を表す音声を出力する携帯型の音声出力装置である。本実施形態においては、イヤホン200は、ユーザ自身が保有するワイヤレスのイヤホンである。ユーザは、イヤホン200を耳に装着して、観光地を回るものとする。
【0012】
携帯端末100は、ハードウェア構成として、CPU(Central Processing Unit)101と、メモリ102と、通信部103とを備える。メモリ102と、通信部103とは、内部バス109を介してCPU101に接続されている。
【0013】
CPU101が、メモリ102に格納されている各種プログラムを実行することにより、携帯端末100の各機能が実現される。メモリ102は、CPU101が実行するプログラム、プログラムの実行に使用される種々のデータを記憶する。また、メモリ102は、CPU101のワークメモリとして使用される。
【0014】
通信部103は、ネットワークインタフェース回路を含み、CPU101の制御に従って外部の装置と通信する。本実施形態においては、通信部103は、Wi-Fi(登録商標)の通信規格に則って、外部の装置と通信できるものとする。さらに、通信部103は、GNSS(Global Navigation Satellite System)受信機を備え、CPU101の制御に従って測位衛星から信号を受信する。情報提供システム1000においては、GNSSとして、GPS(Global Positioning System)が利用されるものとする。
【0015】
イヤホン200は、携帯端末100から供給された信号を表す音声を出力する。イヤホン200は、DSP(Digital Signal Processor)201と、通信部202と、センサ203と、ドライバユニット204と、を備える。通信部202と、センサ203と、ドライバユニット204と、は、内部バス209を介して、DSP201に接続されている。
【0016】
DSP201は、通信部202と、センサ203と、ドライバユニット204とを制御する。DSP201は、携帯端末100から受信した音声信号をドライバユニット204に出力する。また、DSP201は、センサ203から測定値が供給されるたびに、測定値を携帯端末100に送信する。通信部202は、ネットワークインタフェース回路を含み、DSP201の制御に従って外部の装置と通信する。通信部202は、例えば、Bluetooth(登録商標)規格に則って、携帯端末100と無線通信する。
【0017】
センサ203は、加速度センサ、角度センサ、および、角速度センサを含む。例えば、加速度センサとして、3軸加速度センサが使用される。角速度センサとして、3軸角速度センサが使用される。センサ203は、決められた時間毎に測定を実施し、測定した加速度の測定値と角速度の測定値とをDSP201に出力する。ドライバユニット204は、DSP201から供給された音声信号を音波に変換して出力する。
【0018】
携帯端末100は、機能的には、記憶部110と、位置方向取得部120と、対象推定部130と、頭部動作検出部140と、意思推定部150と、情報出力部160とを備える。
【0019】
記憶部110は、ユーザが訪れる可能性がある場所の位置情報として、例えば、美術館、公園、展望台等の位置を表す位置座標を記憶する。ユーザが訪れる可能性がある場所の位置情報を場所位置情報とも呼ぶ。また、記憶部110は、ユーザの視認対象となり得る対象の位置情報として、例えば、美術館内における展示物の位置を表す位置座標を記憶する。ユーザの視認対象となり得る対象の位置情報を対象位置情報とも呼ぶ。さらに、記憶部110は、ユーザの視認対象となり得る対象を説明する説明情報として、例えば、美術館内における展示物を説明する情報を読み上げた音声信号を有する音源データを記憶する。さらに、記憶部110には、後述する音源が仮想的に配置される位置を表す情報が、視認対象となり得る対象毎に格納されている。
【0020】
また、記憶部110は、ユーザの頭部の動作とユーザの意思とを対応付けた意思定義データを記憶する。意思定義データに定義されているユーザの頭部の動作と意思との対応付けの例を以下に記載する。ユーザが首を傾げる動作は、理解できていないとユーザが感じていることを表す。ユーザが首を傾げる動作を繰り返すことは、よく聞こえないとユーザが感じていることを表す。ユーザが頷く動作は、ユーザが肯定的な感情を有していることを表す。ユーザが首を横にふる動作は、ユーザが消極的な感情を有していることを表す。ユーザが首を横に振る動作を繰り返すことは、ユーザがより消極的な感情を有していることを表す。
【0021】
記憶部110は、情報提供に関する設定を表す設定データを記憶する。情報提供に関する設定とは、説明情報を音声により出力する際の設定を表す。実施形態においては、情報提供に関する設定は、説明情報のタイプの選択を示す情報と、説明情報を出力する音声の音量を示す情報と、説明情報のコマ戻しの実行の有無を示す情報と、説明情報の出力を継続するか否かを示す情報と、を含む。
【0022】
情報提供システム1000において、ユーザに提供される説明情報は、通常版の説明情報と、詳細版の説明情報と、簡易版の説明情報との3つのタイプの説明情報のうちのいずれかである。例えば、対象T1についての説明情報がユーザに提供されるとする。通常版の説明情報とは、通常、ユーザに提供されることが予定されている対象T1を説明する情報であり。詳細版の説明情報とは、通常版の説明情報より詳細に対象T1を説明する情報である。簡易版の説明情報とは、通常版の説明情報より簡易に対象T1を説明する情報である。通常版の説明情報を第1説明情報ともよぶ。詳細版の説明情報を第2説明情報と、簡易版の説明情報を第3説明情報ともよぶ。また、詳細版の説明情報を第3説明情報と、簡易版の説明情報を第2説明情報ともよぶ。説明情報のタイプの選択を示す情報は、通常版の説明情報と、詳細版の説明情報と、簡易版の説明情報とのうちのいずれが選択されているかを示す。
【0023】
説明情報を出力する音声の音量を示す情報は、イヤホン200から出力される音声の音量を表す。説明情報のコマ戻しの実行の有無の設定とは、直前に音声出力された説明情報の一部についてコマ戻しを実行するか否かを設定するものである。コマ戻しとは、音声出力した説明情報の一部を再度音声で出力することをいう。説明情報の出力を継続するか否かを示す情報は、説明情報の音声による出力を継続するか、途中で中止するかを示す。説明情報を出力する音声の音量を示す情報を音声の出力に関する設定情報ともよぶ。
【0024】
記憶部110の機能は、メモリ102により実現される。場所位置情報、対象位置情報、説明情報、音源の位置を表す情報は、携帯端末100に案内アプリケーションがインストールされる際に、案内アプリケーションの実行のためのデータの一部として、メモリ102に格納されているものとする。
【0025】
位置方向取得部120は、ユーザの現在位置を示す情報として、携帯端末100の現在位置を示す情報を取得する。さらに、位置方向取得部120は、センサ203による測定値からユーザの視線方向を示す情報を取得する。位置方向取得部120の機能は、CPU101により実現される。
【0026】
対象推定部130は、ユーザが視認している対象を推定する。ユーザが視認している対象を推定する方法については後述する。対象推定部130の機能は、CPU101により実現される。
【0027】
図2は、ユーザの頭部の動作を検出する方法を説明するための図である。頭部動作検出部140は、イヤホン200を装着しているユーザの頭部の動作を検出する。実施形態においては、ユーザの頭部の動作が回転角で表される。ユーザの前後方向に沿った回転軸をロール軸、ユーザの左右方向に沿った回転軸をピッチ軸、重力方向に沿った回転軸をヨー軸と定義する。ユーザが首を傾げる動作をロール軸回りの回転として表すことができる。ユーザが頷く動作をピッチ軸回りの回転として表すことができる。ユーザが振り向く動作をヨー軸回りの回転として表すことができる。
【0028】
以下、ロール軸回りの回転角の変位量をロール角、ピッチ軸回りの角度の変位量をピッチ角、ヨー軸回りの角度の変位量をヨー角とよぶことがある。ユーザの頭部の動作は、ロール角、ピッチ角、および、ヨー角により表される。ロール角の範囲は、ユーザが正面を向いているときを0度とすると、+30度から-30度までである。ピッチ角の範囲は、ユーザが正面を向いているときを0度とすると、+45度から-45度までである。ヨー角の範囲は、ユーザが正面を向いているときを0度とすると、+60度から-60度までである。
【0029】
頭部動作検出部140は、センサ203により測定された加速度の測定値と角速度の測定値とから、ロール角、ピッチ角、および、ヨー角を検出する。頭部動作検出部140は、ロール角、ピッチ角、および、ヨー角についての検出結果を表す情報を、意思推定部150に供給する。頭部動作検出部140の機能は、CPU101により実現される。
【0030】
意思推定部150は、頭部動作検出部140により検出されたロール角、ピッチ角、および、ヨー角から、ユーザの頭部の動作を特定する。そして、意思推定部150は、特定したユーザの頭部の動作と意思定義データとから、ユーザの意思を推定する。さらに、意思推定部150は、推定したユーザの意思に応じて情報提供に関する設定を選択する。なお、推定されたユーザの意思に応じて情報提供に関する設定が変更されない場合もある。このような場合、意思推定部150は現状の設定を維持することを選択する。意思推定部150の機能は、CPU101により実現される。
【0031】
情報出力部160は、対象推定部130がユーザの視認対象を推定すると、推定された対象を説明する説明情報を、記憶部110に格納されている情報提供に関する設定に従ってイヤホン200に音を出力させる。具体的には、情報出力部160は、情報提供に関する設定において指定されている音量で、選択されているタイプの説明情報をイヤホン200に出力させる。
【0032】
説明情報の出力を開始した後に、推定されたユーザの意思に応じて情報提供に関する設定が変更されたとする。この場合、情報出力部160は、変更後の情報提供に関する設定に従って説明情報をイヤホン200に出力させる。
【0033】
図3は、ユーザPと仮想的に配置された音源SSとの位置関係を表した図である。図3においては、ユーザPと音源SSとを上から見た様子を表している。実施形態において、情報出力部160は、立体音響により説明情報を読み上げる音声をイヤホン200から出力する。音源SSの位置は、視認対象と同じ位置に設定される。まず、情報出力部160は、推定された視認対象について音源SSが仮想的に配置される位置の情報を記憶部110から読み出す。情報出力部160は、視認対象についての音源が仮想的に配置される位置を表す情報を記憶部110から読み出すことにより、音源の仮想的な位置を取得する。情報出力部160を音源位置取得部ともよぶ。
【0034】
さらに、情報出力部160は、ユーザPの視線方向Dに対する、ユーザPからみた音源SSが位置する方向の相対的な角度を求める。水平面内において、視線方向Dが基準方位Nに対してなす角の大きさは角度r1である。基準方位Nは、例えば、北を向く方向である。ユーザPからみた音源SSが位置する方向が、基準方位Nに対してなす角の大きさは角度r2である。情報出力部160は、視線方向Dと基準方位Nとから、角度r1を求める。情報出力部160は、音源SSの位置とユーザPの位置と基準方位Nとから、角度r2を求める。情報出力部160は、角度r1と角度r2との差である角度r3を、ユーザPの視線方向Dに対する音源SSが位置する方向の相対的な角度として求める。
【0035】
次に、情報出力部160は、ユーザPの位置と音源SSの位置とから、ユーザPと音源SSとの間の距離を求める。情報出力部160は、求めた角度および距離に基づいて、立体音響処理を施した音声をイヤホン200に出力する。立体音響処理には、例えば、既存の立体音響の生成のためのアルゴリズムが使用される。情報出力部160の機能は、CPU101により実現される。
【0036】
例えば、美術館内において展示されている絵画の中央部分が仮想的な音源の位置として設定されているとする。この場合、この絵画を見ているユーザは絵画の中央部分から説明情報の音声が出力されているように感じることができる。このように本実施形態においては、ユーザに臨場感を感じさせながら、視認している対象についての情報をユーザに提供することができる。
【0037】
図4は、情報提供システム1000が、携帯端末100を介して、ユーザに情報を提供する情報提供処理のフローチャートである。情報提供処理は、決められた時間間隔で開始される。決められた時間間隔は、例えば、0.5秒である。なお、決められた時間が経過した場合であっても、同じ携帯端末100において、直前に開始された情報提供処理が終了していない場合は、新たな情報提供処理は開始されないものとする。また、情報提供処理が開始される時点において、記憶部110に格納されている情報提供に関する設定を示す情報は初期設定の情報となっているものとする。
【0038】
ステップS10において、位置方向取得部120は、携帯端末100の位置情報を取得する。具体的には、まず、位置方向取得部120は、GPS衛星から受信したGPS信号に基づいて携帯端末100の現在位置を示す位置座標を取得する。位置方向取得部120は、GPS信号を受信できなかった場合、複数のWi-Fi(登録商標)基地局から受信した電波強度に基づいて、携帯端末100の現在位置を示す位置座標を取得する。位置方向取得部120は、携帯端末100の位置座標を対象推定部130に供給する。
【0039】
ステップS20において、位置方向取得部120はユーザの視線方向を特定する。位置方向取得部120は、センサ203により測定された加速度の測定値と角速度の測定値とから、ユーザが何かを注視しているか否かを判定する。例えば、位置方向取得部120は、加速度の測定値が予め決められた条件を満たし、かつ、角速度の測定値が予め決められた条件を満たしたときに、ユーザが何かを注視していると判定する。ユーザが何かを注視していると判定すると、位置方向取得部120は、加速度と角速度とから、ユーザの顔が向いている方向を特定する。
【0040】
ユーザの顔が向いている方向は、方位角と、仰角または俯角とにより表すことができる。ここで、方位角とは、ユーザの顔が向いている方向が、基準となる方位に対してなす角度をいう。仰角とは、上方にある対象を見るユーザの視線の方向が、水平面に対してなす角度をいう。俯角は、下方にある対象を見るユーザの視線の方向が、水平面に対してなす角度をいう。本実施形態においては、ユーザの顔が向いている方向を、ユーザの視線方向とする。ユーザの視線方向を示す情報を視線方向情報とも呼ぶ。位置方向取得部120は、ユーザの視線方向を示す視線方向情報を対象推定部130に供給する。
【0041】
一方、位置方向取得部120は、ユーザが何かを注視していないと判定すると、視線方向を特定できない旨を対象推定部130に通知する。
【0042】
ステップS30において、対象推定部130は、ユーザが視認している対象があるか否かを判定する。具体的には、まず、対象推定部130は、位置方向取得部120から供給された位置情報が示すユーザの現在位置を中心としたあらかじめ設定された範囲内にある、対象についての位置情報を視認対象の候補の情報として記憶部110から読み出す。対象推定部130は、設定された範囲内にある対象の位置情報と、位置方向取得部120から供給された位置情報および視線方向情報とから、視認対象の候補のうちのいずれかがユーザの視野の範囲に入っているかを判別する。ユーザの視野の範囲として、方位角、仰角、および、俯角それぞれについて、あらかじめ範囲が設定されているものとする。
【0043】
対象推定部130は、例えば、ユーザの視野に対象T1が入っていると判別したとする。この場合、対象推定部130は、ユーザの視野に対象T1が入っている状態が、あらかじめ設定された期間継続されたか否かを判別する。あらかじめ設定された期間は、例えば、1秒間である。対象推定部130は、対象T1がユーザの視野に入っている状態があらかじめ設定された期間継続されたとき、ユーザが対象T1を視認していると判別する。視認対象があると判定できた場合(ステップS30;YES)、対象推定部130は、判別した対象を示す情報を情報出力部160に供給する。
【0044】
一方、対象推定部130が視認対象を推定できないと判別した場合(ステップS30;NO)、情報提供処理は終了される。例えば、対象推定部130は、位置方向取得部120からユーザの視線方向を特定できない旨が通知された場合、視認対象を推定できないと判別する。また、対象推定部130は、対象T1がユーザの視野に入っている状態があらかじめ設定された期間継続されていないとき、視認対象を推定できないと判別する。また、対象推定部130は、ユーザの現在位置を中心としたあらかじめ設定された範囲内に視認対象となり得る対象がない場合、視認対象を推定できないと判別する。
【0045】
ステップS40において、推定された対象の説明情報を音声により出力する説明情報出力処理が実行される。その後、図4に示す処理が終了される。
【0046】
図5は、図4のステップS40における説明情報出力処理のフローチャートである。ステップS41において、情報出力部160は記憶部110に格納されている情報提供に関する設定データを読み出す。
【0047】
ステップS42において、情報出力部160は、推定された視認対象に付いての情報の説明情報を記憶部110から読み出し、イヤホン200を介した説明情報の音声出力を開始する。
【0048】
ステップS43において、情報出力部160は、説明情報を最後まで出力したか否かを判定する。説明情報が最後まで出力されていない場合(ステップS43;NO)ステップS44の処理が実行される。一方、説明情報が最後まで出力された場合(ステップS43;YES)、説明情報出力処理が終了される。
【0049】
ステップS44において、頭部動作検出部140による動作検出処理が実行される。動作検出処理においては、あらかじめ設定された期間のユーザの頭部の動作が検出される。
【0050】
ステップS45において、意思推定部150による意思推定処理が実行される。意思推定処理においては、ユーザの頭部の動作からユーザの意思が推定される。さらに、ユーザの意思に応じて情報提供に関する設定が選択される。
【0051】
ステップS46において、情報出力部160は、意思推定部150からの通知から、情報提供に関する設定データが更新されたか否かを判別する。情報提供に関する設定データが更新された場合(ステップS46;YES)、情報出力部160はステップS47の処理を実行する。一方、情報提供に関する設定データが更新されていない場合(ステップS46;NO)、ステップS43の処理が実行される。
【0052】
ステップS47において、情報出力部160は説明情報の出力を中断する。ステップS48において、情報出力部160は、情報提供に関する設定データを記憶部110から読み出す。ステップS49において、情報出力部160は、更新後の情報提供に関する設定データに従って説明情報の出力を再度開始する。その後、ステップS43の処理が再び実行される。
【0053】
図6は、図5のステップS44に示す動作検出処理のフローチャートである。ステップS101において、頭部動作検出部140は、タイマーをスタートして、時間計測を開始する。実施形態においては、ユーザの意思を推定するため、ユーザの頭部の動作が設定された期間観察される。設定された期間は、例えば、0.5秒間である。タイマーは、設定された期間を計測するために使用される。
【0054】
ステップS102において、頭部動作検出部140は、ユーザの頭部の動作を表すロール角、ピッチ角、および、ヨー角を取得する。具体的には、頭部動作検出部140は、センサ203により測定された加速度の測定値と角速度の測定値とから、ユーザの頭部の動作を表すロール角、ピッチ角、および、ヨー角を算出する。
【0055】
ステップS103において、頭部動作検出部140は、ロール軸回りの回転が検出されたか否かを判別する。例えば、頭部動作検出部140は、ロール角があらかじめ決められた回転角度以上である場合に、ロール軸回りの回転が検出されたと判別する。頭部動作検出部140は、ロール軸回りの回転を検出すると(ステップS103;YES)、ステップS106の処理を実行する。一方、ステップS103において、頭部動作検出部140は、ロール軸回りの回転が検出されていないと判別すると(ステップS103;NO)、ステップS104の処理を実行する。
【0056】
ステップS104において、頭部動作検出部140は、ヨー軸回りの回転が検出されたか否かを判別する。例えば、頭部動作検出部140は、ヨー角があらかじめ決められた回転角度以上である場合、ヨー軸回りの回転が検出されたと判別する。頭部動作検出部140は、ヨー軸回りの回転を検出すると(ステップS104;YES)、ステップS107の処理を実行する。一方、ステップS104において、頭部動作検出部140はヨー軸回りの回転が検出されていないと判別すると(ステップS104;NO)、ステップS105の処理を実行する。
【0057】
ステップS105において、頭部動作検出部140は、ピッチ軸回りの回転が検出されたか否かを判別する。例えば、頭部動作検出部140は、ピッチ角があらかじめ決められた回転角度以上である場合、ピッチ軸回りの回転が検出されたと判別する。頭部動作検出部140は、ピッチ軸回りの回転を検出すると(ステップS105;YES)、ステップS108の処理を実行する。一方、ステップS105において、頭部動作検出部140はピッチ軸回りの回転が検出されていないと判別すると(ステップS105;NO)、ステップS109の処理を実行する。
【0058】
ステップS106において、頭部動作検出部140は、ロール軸のカウンタCrを1加算する。また、頭部動作検出部140は、ヨー軸のカウンタCyとピッチ軸のカウンタCpとをリセットする。その後、頭部動作検出部140は、ステップS109の処理を実行する。ロール軸のカウンタCrはロール軸回りの回転が検出された回数を示すカウンタである。ヨー軸のカウンタCyはヨー軸回りの回転が検出された回数を示すカウンタである。ピッチ軸のカウンタCpはピッチ軸回りの回転が検出された回数を示すカウンタである。
【0059】
ステップS107において、頭部動作検出部140は、ヨー軸のカウンタCyを1加算する。また、頭部動作検出部140は、ロール軸のカウンタCrとピッチ軸のカウンタCpとをリセットする。その後、頭部動作検出部140は、ステップS109の処理を実行する。
【0060】
ステップS108において、頭部動作検出部140は、ピッチ軸のカウンタCpを1加算する。また、頭部動作検出部140は、ロール軸のカウンタCrとヨー軸のカウンタCyとをリセットする。その後、頭部動作検出部140は、ステップS109の処理を実行する。
【0061】
ステップS109において、頭部動作検出部140は、タイマーをスタートしてからあらかじめ設定された時間が経過したか否かを判別する。設定された時間が経過すると(ステップS109;YES)、頭部動作検出部140は、タイマーを停止し、動作検出処理を終了する。一方、設定された時間が経過していない場合(ステップS109;NO)、ステップS102の処理が再び実行される。
【0062】
図7は、図5のステップS45における意思推定処理のフローチャートである。ステップS201において、意思推定部150は、ロール軸のカウンタCrの値が1以上であるか否かを判別する。ロール軸のカウンタCrの値が1以上である場合(ステップS201;YES)、意思推定部150は、ステップS205の処理を実行する。一方、ロール軸のカウンタCrの値1以上でない場合(ステップS201;NO)、意思推定部150は、ステップS202の処理を実行する。
【0063】
ステップS202において、意思推定部150は、ヨー軸のカウンタCyの値が1以上であるか否かを判別する。ヨー軸のカウンタCyの値が1以上である場合(ステップS202;YES)、意思推定部150は、ステップS208の処理を実行する。一方、ヨー軸のカウンタCyの値1以上でない場合(ステップS202;NO)、意思推定部150は、ステップS203の処理を実行する。
【0064】
ステップS203において、意思推定部150は、ピッチ軸のカウンタCpの値が1以上であるか否かを判別する。ピッチ軸のカウンタCpの値が1以上である場合(ステップS203;YES)、意思推定部150は、ステップS204の処理を実行する。一方、ピッチ軸のカウンタCpの値1以上でない場合(ステップS203;NO)、意思推定部150はステップS211の処理を実行する。
【0065】
ステップS204において、意思推定部150は、説明情報として詳細版の説明情報を選択する。意思推定部150は、選択した内容で記憶部110に格納されている情報提供に関する設定データを更新する。その後、意思推定部150は、ステップS211の処理を実行する。
【0066】
ステップS205において、意思推定部150は、説明情報のコマ戻しを実行することを選択する。意思推定部150は、選択した内容で記憶部110に格納されている情報提供に関する設定データを更新する。その後、意思推定部150は、ステップS206の処理を実行する。
【0067】
ステップS206において、意思推定部150は、カウンタCrの値が2以上である場合(ステップS206;YES)、ステップS207の処理を実行する。一方、カウンタCrの値が2以上でない場合(ステップS206;NO)、意思推定部150は、ステップS211の処理を実行する。
【0068】
ステップS207において、意思推定部150は、出力音声の音量の値をあらかじめ設定された値だけ上げるように、記憶部110に格納されている情報提供に関する設定データを更新する。その後、意思推定部150は、ステップS211の処理を実行する。
【0069】
ステップS208において、意思推定部150は、説明情報として簡易版の説明情報を選択する。意思推定部150は、選択した内容で情報提供に関する設定データを更新する。その後、意思推定部150は、ステップS209の処理を実行する。
【0070】
ステップS209において、意思推定部150は、カウンタCyの値が2以上である場合(ステップS209;YES)、ステップS210の処理を実行する。一方、カウンタCyの値が2以上でない場合(ステップS209;NO)、意思推定部150は、ステップS211の処理を実行する。
【0071】
ステップS210において、意思推定部150は、説明情報の出力を途中で中止することを選択する。意思推定部150は、選択した内容で情報提供に関する設定データを更新する。その後、意思推定部150は、ステップS211の処理を実行する。
【0072】
ステップS211において、意思推定部150は、情報提供に関する設定データを更新したか否かを情報出力部160に通知する。そして、意思推定処理が終了される。その後、図5に示すステップS46の処理が実行される。
【0073】
更新後の情報提供に関する設定データにおいて、詳細版の説明情報が選択されている場合、情報出力部160は、視認対象についての詳細版の説明情報を記憶部110から読み出す。情報出力部160は、詳細版の説明情報のイヤホン200への出力を再開する。なお、情報出力部160は、直前に中断された位置に相当する詳細版における位置から説明情報を出力する。これに応じて、イヤホン200は、中断された箇所から詳細版の説明情報の出力を再開する。
【0074】
例えば、ユーザに通常版の説明情報が提供されているときに、ユーザが頷いた場合、ユーザが説明情報に肯定的な感情を有していると考えられる。この場合、ユーザは、より詳細な説明を聞きたがっていると考えられる。実施形態にかかる構成により、推定されたユーザの意思に応じて、詳細版の説明情報を提供するように切り替えることができる。このように、ユーザの意思を考慮して、音声による情報を提供することができる。
【0075】
更新後の情報提供に関する設定データにおいて、説明情報のコマ戻しを実行することが選択されている場合、情報出力部160は、直前に出力した説明情報の一部をイヤホン200に再度出力させる。これに応じて、イヤホン200は、例えば、直前に出力した1文を音声により出力する。その後、情報出力部160は、直前に中断された位置から説明情報の出力を再開する。これに応じて、イヤホン200は、中断された箇所から説明情報の出力を再開する。
【0076】
例えば、ユーザが首を傾げる場合、ユーザが直前の説明情報を聞き逃したと考えられる。この場合、直前に出力した説明情報の一部が再度出力される。よって、ユーザは聞き逃した箇所を再度聞くことができる。このように、ユーザの意思を考慮して、音声による情報を提供することができる。
【0077】
更新後の情報提供に関する設定データにおいて、出力音声の音量の値が上げられた場合、情報出力部160は、更新後の音量を指定する指示とともに、説明情報のイヤホン200への出力を再開する。これに応じて、イヤホン200は、更新後の音量で説明情報の出力を再開する。
【0078】
例えば、ユーザが首を繰り返し傾げる場合、説明情報がよく聞こえないとユーザが感じていると考えられる。この場合、実施形態にかかる構成においては、音量を上げるように設定が変更される。よって、説明情報を出力している間に音量が上げられるので、ユーザは説明情報を聞きやすくなる。このように、ユーザの意思を考慮して、音声による情報を提供することができる。
【0079】
更新後の情報提供に関する設定データにおいて、簡易版の説明情報が選択されている場合、情報出力部160は、視認対象についての簡易版の説明情報を記憶部110から読み出す。情報出力部160は、簡易版の説明情報のイヤホン200への出力を再開する。なお、情報出力部160は、直前に中断された位置に相当する簡易版における位置から説明情報を出力する。これに応じて、イヤホン200は、中断された箇所から簡易版の説明情報の出力を再開する。
【0080】
例えば、ユーザに通常版の説明情報が提供されているときに、ユーザが首を横に振る場合、ユーザが説明情報に消極的な感情を有していると考えられる。この場合、ユーザは、簡略な説明を望んでいると考えられる。実施形態にかかる構成により、推定されたユーザの意思に応じて、簡略版の説明情報を提供するように切り替えることができる。このように、ユーザの意思を考慮して、音声による情報を提供することができる。
【0081】
更新後の情報提供に関する設定データにおいて、説明情報の出力の中止が選択されている場合、情報出力部160は、説明情報の出力を中止する。これにより、イヤホン200から説明情報の出力が再開されない。
【0082】
例えば、ユーザが繰り返し首を横に振る場合、ユーザが説明情報により消極的な感情を有していると考えられる。この場合、ユーザは説明情報の提供を望んでいないと考えられる。実施形態にかかる構成により、推定されたユーザの意思に応じて、説明情報の提供を中止するように設定を切り替えることができる。よって、ユーザが望まない説明情報をユーザに提供しない。
【0083】
以上説明したように、情報提供システム1000においては、説明情報を出力している間に推定されたユーザの意思に応じて、情報提供に関する設定が選択される。ユーザには情報提供に関する設定に従って説明情報が提供される。よって、ユーザの意思に応じて、動的に情報提供に関する設定を変更することができる。これにより、ユーザの意思を考慮して音声による情報を提供することができる。
【0084】
B1.他の実施形態1
実施形態においては、位置が固定された対象をユーザが視認している例を説明した。しかしながら、ユーザが視認する対象は、移動物体であってもよい。移動物体は、例えば、船、飛行機である。情報提供システム1000は、例えば、ユーザが展望台のある公園において展望台から海上を航行する船を見ているときに、情報提供システム1000は、船についての説明情報を音声出力することができる。また、情報提供システム1000は、例えば、ユーザが空港の展望デッキから離発着後の飛行機を見ているときに、飛行機についての説明情報を音声出力することができる。以下、実施形態と異なる構成を中心に説明する。
【0085】
他の実施形態1において、記憶部110には、ユーザが移動物体を視認する可能性がある特定エリアの範囲を示す特定エリア情報があらかじめ記憶されているものとする。特定エリアは、例えば、公園の展望台、空港の展望デッキである。
【0086】
例えば、ユーザが展望台のある公園において展望台から海上を航行する船を見ているとする。位置方向取得部120は、ユーザの現在位置を示す情報として、携帯端末100の現在位置を示す情報を取得する。さらに、位置方向取得部120は、ユーザの視線方向を示す情報を取得する。位置方向取得部120は、イヤホン200から受信した加速度の測定値と角速度の測定値とに基づいて、ユーザの顔が向いている方向をユーザの視線方向として特定する。
【0087】
対象推定部130は、対象推定部130は、ユーザが視認している対象を推定する。具体的には、まず、対象推定部130は、位置方向取得部120から供給された位置情報と、記憶部110に格納されている特定エリア情報から、ユーザが、特定エリアの範囲内にいるか否かを判別する。対象推定部130は、ユーザが特定エリアの範囲内にいると判別すると、ユーザの現在位置と、日付および時刻と、運航スケジュールと、航路情報とから、ユーザが視認する可能性がある対象の候補を判別する。さらに、対象推定部130は、視認対象の候補をユーザが視認しているか否かを判別する。対象推定部130は、視認対象の候補として判別された対象がユーザの視野の範囲に入っている状態があらかじめ設定された期間継続された場合、対象推定部130は、ユーザが視認候補として判別された対象を視認していると判別する。ユーザの視野をユーザの眼が見ることができる範囲ともよぶ。
【0088】
情報出力部160は、対象推定部130がユーザの視認対象を推定すると、推定された対象を説明する説明情報をイヤホン200から出力する。情報出力部160は、仮想的な音源の位置を以下のように取得する。情報出力部160は、ユーザと視認対象との距離と、ユーザからみた視認対象の方向の相対的な角度と、に基づいて、立体音響処理を施した音声をイヤホン200から出力する。視認対象が移動しているため、情報出力部160は、決められた時間毎に、仮想的な音源の位置として対象の位置を算出してもよい。決められた時間は、例えば、5秒間である。情報出力部160は、新たに算出した音源の位置とユーザとの間の距離、ユーザの視線方向に対する、ユーザからみた音源の位置する方向の相対的な角度に基づいて、立体音響により音声を出力するようにしてもよい。この場合も、ユーザは、視認している対象から説明情報の出力されているように感じることができる。
【0089】
また、ユーザの視野に複数の対象が入っている場合、例えば、情報出力部160は、ユーザに近い対象から、遠くにある対象の順で、説明情報を出力してもよい。
【0090】
意思推定部150は、頭部動作検出部140の検出結果から、ユーザの頭部の動作を特定し、特定したユーザの頭部の動作と意思定義データとから、ユーザの意思を推定する。意思推定部150は、説明情報を出力している間に推定されたユーザの意思に応じて、情報提供に関する設定を選択する。
【0091】
一方、対象推定部130が、位置方向取得部120から供給された位置情報と、記憶部110に格納されている特定エリア情報から、ユーザが、特定エリアの範囲内にいないと判別したとする。この場合、情報提供システム1000においては、実施形態1と同様に、位置が固定されている対象についての説明情報がユーザに提供される。
【0092】
B2.他の実施形態2
また、ユーザが視認する対象は、星であってもよい。情報提供システム1000は、例えば、夜間の時間帯において、ユーザが屋外にいて、ユーザの視線方向を表す仰角があらかじめ設定された範囲にある場合に、星座についての説明情報を音声出力することができる。この場合、対象推定部130は、ユーザの現在位置と、日付および時刻と、ユーザの視線方向と、方角および日時に対応付けられた星図とから、ユーザが視認している対象を判別すればよい。対象推定部130は、記憶部110にあらかじめ記憶されている星図のデータを読み出してもよい。あるいは、対象推定部130は、クラウドサーバに記憶されている星図のデータを読み出してもよい。
【0093】
B3.他の実施形態3
実施形態においては、ユーザが視認している対象についての説明情報を単に聞くだけであった。しかしながら、説明情報には、ユーザに対する質問が含まれていてもよい。例えば、携帯端末100の情報出力部160は、視認対象に対するクイズを音声により出力する。さらに、情報出力部160は、回答の選択肢を、選択肢を示す番号とともに順次音声により出力する。ユーザが、任意の選択肢を示す番号が出力された後に頷いた場合、意思推定部150は、ユーザが選択した選択肢がその番号が示す選択肢であると判別してもよい。
【0094】
このような形態によれば、ユーザがただ受動的に情報の提供を受けるのではなく、ユーザが参加しながら情報提供を受けることができる参加型の情報提供システムを提供することができる。
【0095】
B4.他の実施形態4
実施形態においては、携帯端末100は、ユーザが頷く動作を行ったとき、ユーザが肯定していると判別した。しかし、ユーザが使用する言語が属する文化によっては、肯定を意味する非言語的な動作が異なることもある。非言語的な動作とは、いわゆる、ジェスチャである。ユーザが使用する言語が属する文化によっては、例えば、首を縦に振ることが否定を意味することがある。
【0096】
よって、携帯端末100の記憶部110には、使用言語毎に定義された意思定義データがあらかじめ記憶されていてもよい。意思推定部150は、ユーザが使用する言語に応じた意思定義データに基づき、ユーザの頭部の動作が意味するユーザの意思を推定してもよい。なお、意思推定部150は、ユーザが使用する言語の情報を、例えば、携帯端末100に設定されている言語の設定情報から取得することができる。このように、使用言語が異なるユーザであっても、頭部の動作からユーザの意思を推定することができる。
【0097】
B5.他の実施形態5
実施形態においては、意思推定部150は、特定したユーザの頭部の動作と意思定義データとから、ユーザの意思を推定した。あるいは、意思推定部150は、機械学習済みの機械学習モデルを利用して、ユーザの意思を推定してもよい。この機械学習モデルは、ユーザの頭部の動作を表すパラメータと、ユーザの移動速度と、ユーザと対象との距離と、ユーザの対象に対する相対的な角度とが入力されると、ユーザの意思を推定する結果を出力する。このような形態によれば、ユーザの意思を高い精度で推定することができる。
【0098】
B6.他の実施形態6
実施形態においては、意思推定部150は、ある回転軸の回転角度があらかじめ決められた回転角度以上である場合に、その回転軸回りの回転が検出されたと判別した。しかし、同じタイミングで2つの回転軸における回転が検出される場合もある。このような場合、意思推定部150は、回転角が大きい方の回転軸の回転を採用すればよい。
【0099】
B7.他の実施形態7
記憶部110に記憶されている情報提供に関する設定には、実施形態1において説明した情報に加えて、説明情報を読み上げる速度を示す情報が含まれていてもよい。説明情報を読み上げる速度を示す情報は、イヤホン200から出力される説明情報を読み上げる音声の読み上げ速度を表す。説明情報を読み上げる速度を示す情報を音声の出力に関する設定情報ともよぶ。
【0100】
例えば、意思推定部150は、ユーザが説明情報を聞きづらいと感じていると推定すると、説明情報を読み上げる速度を遅くするように、説明情報を読み上げる速度を示す情報を更新してもよい。
【0101】
B8.他の実施形態8
実施形態では、屋内において、位置方向取得部120が、複数のWi-Fi(登録商標)基地局から受信した電波強度に基づいて、携帯端末100の現在位置を示す情報を取得する例を説明した。あるいは、屋内における携帯端末100の位置情報の取得を次のように行ってもよい。携帯端末100は、地磁気センサを備えているものとする。この場合、位置方向取得部120は、地磁気センサを使用して、携帯端末100の位置情報を取得してもよい。
【0102】
また、あるいは、位置方向取得部120は、まず、Wi-Fi(登録商標)基地局から受信した電波強度に基づいて、携帯端末100の位置情報を取得する。位置方向取得部120は、位置情報を取得できなかった場合に、地磁気センサを使用して、携帯端末100の位置情報を取得するようにしてもよい。
【0103】
実施形態では、屋外において、位置方向取得部120が、携帯端末100の現在位置を取得するためGPSを利用する例を説明した。あるいは、位置方向取得部120は、準天頂衛星システムといった他の衛星測位システムを利用してもよい。また、あるいは、位置方向取得部120は、GPSおよび準天頂衛星システムを利用して携帯端末100の現在位置を取得してもよい。
【0104】
B9.他の実施形態9
実施形態においては、記憶部110に、ユーザの視認対象となり得る対象についての説明情報を読み上げた音声信号を有する音源データが記憶されていた。しかしながら、音源データは記憶部110に保存されていなくてもよい。情報出力部160は、クラウドサーバに保存されている音源データをアクセスし、音源データに含まれている音声信号をイヤホン200に送信してもよい。この場合、記憶部110には、クラウドサーバに保存されている音源データの位置を特定するURL(Uniform Resource Locator)が保存されていればよい。
【0105】
B10.他の実施形態10
また、実施形態においては、ユーザに提供される説明情報は、通常版の説明情報と、詳細版の説明情報と、簡易版の説明情報との3つのタイプの説明情報のうちのいずれかである例を説明した。しかしながら、説明情報のタイプは3つに限られない。あるいは、通常版の説明情報と、簡易版の説明情報との2つのタイプの説明情報のいずれかがユーザに提供されてもよい。また、あるいは、説明情報のタイプは4つ以上であってもよい。
【0106】
実施形態においては、3つのタイプの説明情報が、通常版の説明情報と、詳細版の説明情報と、簡易版の説明情報とである例を説明した。また、説明情報として、ユーザの年齢別に異なるタイプの説明情報が提供されてもよい。例えば、小学生のユーザに対して提供するタイプの説明情報と、中学生および高校生のユーザに対して提供するタイプの説明情報と、大学生および社会人のユーザに対して提供するタイプの説明情報と、のいずれかが、ユーザの年齢に応じて提供されてもよい。例えば、情報提供システム1000は、案内アプリケーションのインストール時に、ユーザにより入力された年齢の情報により、ユーザの年齢層を判別する。それぞれのタイプの説明情報は、年齢に応じてユーザが理解できる内容となっている。さらに、年齢別のタイプそれぞれについて、通常版の説明情報、詳細版の説明情報、簡易版の説明情報がそれぞれ用意される。
【0107】
あるいは、特定の対象については、3つのタイプの説明情報のうちのいずれかの説明情報がユーザに提供され、他の対象については、2つのタイプの説明情報のいずれかがユーザに提供されてもよい。
【0108】
また、実施形態においては、音声出力装置の例としてイヤホン200を挙げたが、音声出力装置はヘッドフォンであってもよいし、骨伝導のヘッドセットであってもよい。
【0109】
実施形態においては、通信部103が、Wi-Fi(登録商標)の通信規格に則って、外部の装置と通信する例を説明した。しかし、通信部103は、例えば、Bluetooth(登録商標)といった他の通信規格に則って外部の装置と通信してもよい。通信部103は、複数の通信規格に対応していてもよい。
【0110】
また、携帯端末100の機能を実現する手段は、ソフトウェアに限られず、その一部又は全部を、専用のハードウェアによって実現してもよい。例えば、専用のハードウェアとして、FPGA(Field Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)に代表される回路を使用してもよい。
【0111】
実施形態においては、ユーザに携帯されるコンピュータである携帯端末100がスマートフォンである例について説明した。あるいは、携帯端末100は、携帯電話、タブレット端末等であってもよい。また、あるいは、携帯端末100は、ウェアラブルコンピュータであってもよい。ウェアラブルコンピュータは、例えば、スマートウォッチ、ヘッドマウンドディスプレイ等である。
【0112】
実施形態においては、情報出力部160は、意思推定部150からの通知から、情報提供に関する設定データが更新されたと判別した場合、説明情報の出力を中断する。しかしながら、情報出力部160は、説明情報の出力を必ずしも中断しなくてもよい。例えば、情報出力部160は、説明情報の音声による出力を継続しつつ、更新された設定データを読み出し、その後、更新後の情報提供に関する設定データに従って説明情報の出力を行ってもよい。
【0113】
また、ロール軸回りの回転を検出された場合には、情報出力部160は、説明情報の出力を中断し、更新後の情報提供に関する設定データに従って、直前に出力した説明情報の一部が再度出力してもよい。ヨー軸回りの回転またはピッチ軸回りの回転が検出された場合には、情報出力部160は、説明情報の出力を中断せずに、更新後の情報提供に関する設定データに従って、例えば、提供する説明情報を、詳細版の説明情報または簡易版の説明情報に切り替えてもよい。
【0114】
また、ユーザの頭部の動作から推定されるユーザの意思とは関係なく、3つのタイプの説明情報のいずれを提供するかが選択されてもよい。例えば、暑い時期または寒い時期に、屋外において長時間の説明情報を音声により出力することは、ユーザを屋外に引き留める要因ともなりえる。このような場合、例えば、日時、位置情報とから、簡易版の説明情報を提供するように選択されてもよい。
【0115】
頭部動作検出部140は、加速度の測定値、角速度の測定値、および、地磁気強度の測定値から、ロール角、ピッチ角、および、ヨー角を検出してもよい。この場合、センサ203は、加速度センサ、角度センサ、および、角速度センサに加えて、地磁気センサを含むものとする。
【0116】
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
【符号の説明】
【0117】
100…携帯端末、101…CPU、102…メモリ、103…通信部、109…内部バス、110…記憶部、120…位置方向取得部、130…対象推定部、140…頭部動作検出部、150…意思推定部、160…情報出力部、200…イヤホン、201…DSP、202…通信部、203…センサ、204…ドライバユニット、209…内部バス、1000…情報提供システム、Cr…カウンタ、Cy…カウンタ、D…視線方向、N…基準方位、P…ユーザ、SS…音源、T1…対象、r1…角度、r2…角度、r3…角度
図1
図2
図3
図4
図5
図6
図7