(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-10-21
(45)【発行日】2022-10-31
(54)【発明の名称】情報処理装置、情報処理方法および情報処理プログラム
(51)【国際特許分類】
G06Q 50/10 20120101AFI20221024BHJP
G06F 3/16 20060101ALI20221024BHJP
【FI】
G06Q50/10
G06F3/16 530
G06F3/16 650
G06F3/16 690
(21)【出願番号】P 2018154267
(22)【出願日】2018-08-20
【審査請求日】2020-08-19
(73)【特許権者】
【識別番号】319013263
【氏名又は名称】ヤフー株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】山本 学
(72)【発明者】
【氏名】坪内 孝太
(72)【発明者】
【氏名】岩▲瀬▼張 太士
(72)【発明者】
【氏名】中村 浩樹
【審査官】松田 岳士
(56)【参考文献】
【文献】特開2015-138534(JP,A)
【文献】特開2011-138530(JP,A)
【文献】特開2018-005536(JP,A)
【文献】特開2018-049321(JP,A)
【文献】米国特許出願公開第2017/0293727(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00-99/00
G06F 3/16
(57)【特許請求の範囲】
【請求項1】
ユーザの周辺環境の環境音を取得する取得部と、
前記取得部により取得された環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する分析する分析部と、
前記ユーザのコンテキストのうち
、前記分析部による分析結果が示すコンテキストであって、前記環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定部と
を有
し、
前記決定部は、前記所定の情報として、前記環境音に対して時間的傾向を示す関係性にあるコンテキストの中でユーザが要求している情報を出力するタイミングを決定する
ことを特徴とする情報処理装置。
【請求項2】
前記取得部は、前記ユーザの周辺環境の環境音として、前記ユーザの生活空間内での環境音を取得する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記取得部は、前記ユーザの周辺環境の環境音として、前記ユーザのコンテキストが示す状況が起こるよりも前に発生した環境音を取得する
ことを特徴とする請求項1または2に記載の情報処理装置。
【請求項4】
前記取得部は、前記ユーザのコンテキストが示す状況よりも前に発生した環境音として、前記ユーザのコンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する
ことを特徴とする請求項3に記載の情報処理装置。
【請求項5】
前記決定部は、前
記環境音に対して時間的傾向を示す関係性にあるコンテキストとして、所定の出力装置に対する操作を示すコンテキストに基づいて、前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。
【請求項6】
前記決定部は、前記所定の出力装置に対する操作として、前記所定の出力装置に対する音声操作を示すコンテキストに基づいて、前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項5に記載の情報処理装置。
【請求項7】
前記決定部は、前記分析部による分析結果から、前記ユーザのコンテキストのうち、前記環境
音に対して時間的傾向を示す関係性にあるコンテキストを特定し、特定したコンテキストに基づいて、前記ユーザに対して
前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項1~6のいずれか1つに記載の情報処理装置。
【請求項8】
前記分析部は、前記環境音から抽出される特徴情報であって、前記ユーザの特徴を示す特徴情報と、前記ユーザのコンテキストとの関係性を分析する
ことを特徴とする請求
項1~7のいずれか1つに記載の情報処理装置。
【請求項9】
前記分析部は、前記取得部により取得された環境音と、前記ユーザのコンテキストとの関係性を学習することにより、前記環境音が発生した後の所定時間内における前記ユーザのコンテキストの傾向を示すモデルを生成し、
前記決定部は、前記分析部により生成されたモデルに基づいて、前記ユーザに対して前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項
1~
8のいずれか1つに記載の情報処理装置。
【請求項10】
前記分析部は、前記ユーザ毎に前記モデルを生成し、
前記決定部は、前記ユーザ毎のモデルのうち
、出力先のユーザ以外のユーザである他ユーザのモデルに基づいて、前
記出力先のユーザに対して前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項
9に記載の情報処理装置。
【請求項11】
前
記分析部は、前記取得部により取得された環境音が発生した発生時刻と、当該環境音に対応するコンテキストが示す時刻とに基づいて、前
記環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する
ことを特徴とする請求項1~
10のいずれか1つに記載の情報処理装置。
【請求項12】
前記決定部は
、前記環境
音に対して時間的傾向を示す関係性にあるコンテキストが示す発生時刻と、前記環境音の発生時刻との間での時間間隔に基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する
ことを特徴とする請求項1~
11のいずれか1つに記載の情報処理装置。
【請求項13】
前記決定部は、前記発生時刻に対応する時間帯において、前記コンテキスト
と時間的傾向を示す関係性にある環境音が検知された場合には、当該環境音が検知された時刻から前記時間間隔以内の時刻を、前記所定の情報を出力するタイミングとして決定する
ことを特徴とする請求項
12に記載の情報処理装置。
【請求項14】
前記決定部は、前記取得部により取得された環境音に対応する前記ユーザ毎のコンテキストに基づいて、前記所定の情報を出力するタイミングを前記ユーザ毎に決定する
ことを特徴とする請求項1~
13のいずれか1つに記載の情報処理装置。
【請求項15】
情報処理装置が実行する情報処理方法であって、
ユーザの周辺環境の環境音を取得する取得工程と、
前記取得工程により取得された環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する分析する分析工程と、
前記ユーザのコンテキストのうち
、前記分析工程による分析結果が示すコンテキストであって、前記環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定工程と
を含
み、
前記決定工程は、前記所定の情報として、前記環境音に対して時間的傾向を示す関係性にあるコンテキストの中でユーザが要求している情報を出力するタイミングを決定する
ことを特徴とする情報処理方法。
【請求項16】
ユーザの周辺環境の環境音を取得する取得手順と、
前記取得手順により取得された環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する分析する分析手順と、
前記ユーザのコンテキストのうち
、前記分析手順による分析結果が示すコンテキストであって、前記環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定手順と
をコンピュータに実行させ
、
前記決定手順は、前記所定の情報として、前記環境音に対して時間的傾向を示す関係性にあるコンテキストの中でユーザが要求している情報を出力するタイミングを決定する
ことを特徴とする情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は、情報処理装置、情報処理方法および情報処理プログラムに関する。
【背景技術】
【0002】
近年、ユーザからの音声を取得し、取得した音声を音声認識することで、取得した音声に対応する動作を実行する情報機器が開発されている。
【0003】
例えば、特許文献1には、ユーザに不安を感じさせることなく、ユーザの行動をきっかけに起動する電子機器が提案されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、上記の従来技術では、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができるとは限らない。例えば、上記の従来技術では、家電に対するユーザの行動をきっかけに、音声認識部や音声取得部を起動させたことをユーザに通知する。
【0006】
このような上記の従来技術では、ユーザが発話した音声が間違いなく取得・認識されているのかどうかといった不安をユーザに感させなくすることができる。しかしながら、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができるとは限らない。
【0007】
本願は、上記に鑑みてなされたものであって、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。
【課題を解決するための手段】
【0008】
本願にかかる情報処理装置は、ユーザの周辺環境の環境音を取得する取得部と、前記取得部により取得された環境音に対応する前記ユーザのコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定部とを有することを特徴とする。
【発明の効果】
【0009】
実施形態の一態様によれば、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができるといった効果を奏する。
【図面の簡単な説明】
【0010】
【
図1】
図1は、実施形態にかかる情報処理の一例を示す図である。
【
図2】
図2は、実施形態にかかる情報処理システムの構成例を示す図である。
【
図3】
図3は、実施形態にかかる情報処理装置の構成例を示す図である。
【
図4】
図4は、実施形態にかかる環境音情報記憶部の一例を示す図である。
【
図5】
図5は、実施形態にかかるコンテキスト情報記憶部の一例を示す図である。
【
図6】
図6は、実施形態にかかる対象情報記憶部の一例を示す図である。
【
図7】
図7は、実施形態にかかる情報処理手順を示すフローチャートである。
【
図8】
図8は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0011】
以下に、本願にかかる情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。
【0012】
〔1.情報処理〕
まず、
図1を用いて、実施形態にかかる情報処理の一例について説明する。
図1は、実施形態にかかる情報処理の一例を示す図である。実施形態にかかる情報処理は、
図1に示す情報処理装置100によって行われる。
【0013】
図1の説明に先立って、
図2を用いて、実施形態にかかる情報処理システムについて説明する。
図2は、実施形態にかかる情報処理システム1の構成例を示す図である。実施形態にかかる情報処理システム1は、
図2に示すように、端末装置10と、出力装置30と、情報処理装置100とを含む。端末装置10、出力装置30、情報処理装置100は、ネットワークNを介して有線または無線により通信可能に接続される。なお、
図1に示す情報処理システム1には、複数台の端末装置10や、複数台の出力装置30や、複数台の情報処理装置100が含まれてよい。
【0014】
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。
【0015】
出力装置30は、例えば、室内等に置かれる据置式のスマートスピーカーである。しかし、出力装置30は、ユーザとの対話を実現する機能を有していれば、必ずしもスマートスピーカーである必要はなく、例えば、カーナビゲーション、可動式ロボット等であってもよい。ただし、本実施形態では、出力装置30は、スマートスピーカーであるものとする。したがって、以下の実施形態では、出力装置30を「スマートスピーカー30」と表記する場合がある。
【0016】
ここで、実施形態にかかる情報処理の前提について説明する。例えば、ユーザは、日常生活の中で、ある行動を行った後には特定の行動を行う、といったように一連の行動がパターン化されている場合がある。より具体的には、ある時間帯において、ある行動を行ったすぐ後には特定の行動を行う、といったように一連の行動がパターン化されている場合がある。一例を示すと、あるユーザUXは、7時台に起床すると、毎朝まず、カーテンを開け、それからスマートスピーカー30に対して「ニュースを流して」といった音声指示を出すとする。かかる例では、ユーザUXは、起床した後の一連の行動として、「カーテンを開けた後に、スマートスピーカー30に対して、ニュースを流すよう音声操作する」といった一連の行動がパターン化されているといえる。
【0017】
また、カーテンを開ける行動以外にも、テレビをつける行動、コーヒーメーカーを起動させる行動、お湯を沸かす行動等、一連の行動の中の一つとしてユーザが行う行動は、ユーザによっても、また、同じユーザであっても時間帯によって千差万別である。とはいえ、日常生活の中では、ユーザ毎に、ある時間帯においてこの行動を行った場合には、そのすぐ後には、ある特定の行動を行う、といったことがパターン化されてくる。
【0018】
ここで、ユーザの行動には多くの場合、その行動に伴う環境音が生じる。例えば、カーテンを開ける行動には「シャッ、シャッ」といった特有(ならでは)の環境音が発生する。この例以外でも同様である。テレビをつける行動には「今日天気は・・・」といったテレビ動画による音声としての環境音が発生する(また、テレビのリモコンを操作することにより発生する環境音もある)。また、コーヒーメーカーを起動させる行動には「ガガガ」といった、コーヒー豆を挽くならではの環境音が発生する。また、お湯を沸かす行動には「ガチャ」といった、ガスコンロを操作するならではの環境音が発生する。
【0019】
このようなことから、上記ユーザUXの例であれば、7時台において環境音「シャッ、シャッ」が発生すれば、例えばこの先数秒後(あるいは数分後)には、「ユーザUXはスマートスピーカー30に対して、ニュースを流すよう音声操作する」という行動に出ることを先読み(予測)することができる。これは、ユーザUXの一連のパターン化した行動により、7時台における環境音「シャッ、シャッ」の後に「ユーザUXはスマートスピーカー30に対して、ニュースを流すよう音声操作する」という行動、すなわち環境音に対応するユーザUXのコンテキストの傾向が得られることに基づく。
【0020】
そして、このような場合、7時台においてユーザUXがカーテンを開けた後、スマートスピーカー30がユーザUXからの音声操作を受ける前に動的にニュースを流すことができれば、ユーザUXはわざわざ音声操作を行わなくて済むため便利である。
【0021】
以上のような前提を踏まえて、実施形態にかかる情報処理装置100は、環境音に対応するユーザのコンテキスト、より具体的には、環境音に対応するユーザのコンテキストの傾向を分析し、分析結果に基づいて、ウェイクアップ(情報提供)のタイミングを決定する。
【0022】
まとめると、実施形態にかかる情報処理装置100は、ユーザの周辺環境の環境音を取得し、取得した環境音に対応するユーザのコンテキストに基づいて、ユーザに対して所定の情報(ウェイクアップの一例)を出力するタイミングを決定する。具体的には、情報処理装置100は、ユーザの周辺環境の環境音として、前記ユーザのコンテキストが示す状況が起こるよりも前に発生した環境音を取得する。例えば、情報処理装置100は、ユーザのコンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する。
【0023】
そして、情報処理装置100は、ユーザの周辺環境の環境音と、ユーザのコンテキストとの関係性を学習する。そして、情報処理装置100は、環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。環境音に対して時間的傾向を示す関係性とは、例えば、カーテンを開ける環境音「シャッ、シャッ」が発生した数秒後に「スマートスピーカー30に対して、ニュースを流すよう音声操作する」傾向にある、といったものである。以下、実施形態にかかる情報処理の一例について説明する。
【0024】
具体的な説明に入る前に、まず
図1の概要を説明する。
図1に示すホームHP1には、ユーザU1、ユーザU2、ユーザU3、ユーザU4(ユーザU1~U4)といった四人のユーザが済んでいる。ユーザU1~U4の関係性は限定されないが、ここでは家族であるものとする。そして、
図1の例では、ユーザU1は、ルームR1(寝室)に居る。ユーザU2は、ルームR2(ダイニング)に居る。ユーザU3は、ルームR3(リビング)に居る。ユーザU4は、ルームR4(キッチン)に居る。
【0025】
また、スマートスピーカー30は、ルームHP1内の所定の場所に置かれており、各ルームにいるユーザの発話音声を取得することが可能であるものとする。一般的に、スマートスピーカーは、各部屋に1台という形で設置される場合が多いが、本実施形態では、説明の便宜上、スマートスピーカー30は、4つのルーム全ての音声を取得カバーできるものとする。なお、4つのルームそれぞれにスマートスピーカー30が置かれている場合、1台のスマートスピーカー30から当該スマートスピーカー30によって検知された情報を取得するか、あるいは、4台のスマートスピーカー30それぞれから当該スマートスピーカー30によって検知された情報を取得するかの違いだけであって、情報処理装置100が行う情報処理に違いは無い。
【0026】
まず、スマートスピーカー30は、各ルームにおいて発生した環境音およびユーザのコンテキストを検知する(ステップS1)。ルームR1では、「2018年7月1日7時00分においてユーザU1がカーテンを開け」、その4分後「2018年7月1日7時04分においてユーザU1がニュースを流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU1の周辺環境を示す環境音として、「2018年7月1日7時00分においてカーテンを開ける環境音「シャッ、シャッ」」を検知する。また、スマートスピーカー30は、ユーザU1のコンテキストとして、「2018年7月1日7時04分においてユーザU1はニュースを流すよう音声指示する、といった行動に出る」というコンテキストを検知する。
【0027】
そして、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。
図1の例では、スマートスピーカー30は、ルームR1で検知した環境音データDA11-1と、ルームR1で検知したコンテキストデータDA11-2とを情報処理装置100に送信する。なお、ルームR1では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR1で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。
【0028】
また、ルームR2では、「2018年7月1日7時30分においてユーザU2がコーヒーメーカーを起動させ」、その3分後「2018年7月1日7時33分においてユーザU2がラジオショッピングを流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU2の周辺環境を示す環境音として、「2018年7月1日7時30分においてコーヒーメーカーが動作する環境音「ガガガ」」を検知する。また、スマートスピーカー30は、ユーザU2のコンテキストとして、「2018年7月1日7時33分においてユーザU2はラジオショッピングを流すよう音声指示する、といった行動に出る」というコンテキストを検知する。
【0029】
ここでも、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。
図1の例では、スマートスピーカー30は、ルームR2で検知した環境音データDA21-1と、ルームR2で検知したコンテキストデータDA21-2とを情報処理装置100に送信する。なお、ルームR2では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR2で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。
【0030】
また、ルームR3では、「2018年7月1日18時00分においてユーザU3がテレビに天気予報をつけ」、その4分後「2018年7月1日18時04分においてユーザU3がK区の交通情報を流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU3の周辺環境を示す環境音として、「2018年7月1日18時00分においてテレビが天気予報番組を流している環境音「明日の天気は・・・」」を検知する。また、スマートスピーカー30は、ユーザU3のコンテキストとして、「2018年7月1日18時04分においてユーザU3はK区の交通情報を流すよう音声指示する、といった行動に出る」というコンテキストを検知する。
【0031】
ここでも、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。
図1の例では、スマートスピーカー30は、ルームR3で検知した環境音データDA31-1と、ルームR2で検知したコンテキストデータDA31-2とを情報処理装置100に送信する。なお、ルームR3では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR3で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。
【0032】
また、ルームR4では、「2018年7月1日8時00分においてユーザU4がガスコンロを操作し」、その5分後「2018年7月1日8時05分においてユーザU4が料理番組を流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU4の周辺環境を示す環境音として、「2018年7月1日8時00分においてガスコンロが操作される環境音「ガチャ」」を検知する。また、スマートスピーカー30は、ユーザU4のコンテキストとして、「2018年7月1日8時05分においてユーザU4は料理番組を流すよう音声指示する、といった行動に出る」というコンテキストを検知する。
【0033】
ここでも、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。
図1の例では、スマートスピーカー30は、ルームR4で検知した環境音データDA41-1と、ルームR4で検知したコンテキストデータDA41-2とを情報処理装置100に送信する。なお、ルームR4では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR4で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。
【0034】
情報処理装置100は、スマートスピーカー30から取得した環境音データを環境音情報記憶部121に格納する。
図1の例では、環境音情報記憶部121は、「ユーザID」、「日時」、「環境音データ」といった項目を有する。「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日時」は、スマートスピーカー30によって環境音が検知された日時を示す。なお、「日時」には「曜日」も含まれてよく、かかる場合、「日時」はカレンダー情報と解することもできる。「環境音データ」は、スマートスピーカー30によって検知された環境音のデータを示す。
【0035】
図1に示すルームR1の例では、スマートスピーカー30は、ユーザU1について「2018年7月1日7時00分においてカーテンを開ける環境音「シャッ、シャッ」」を検知している。そして、スマートスピーカー30は、この検知結果を示す環境音データDA11-1を情報処理装置100に送信している。したがって、情報処理装置100は、ユーザID「U1」と、日時「2018年7月1日7時00分」と、環境音「シャッ、シャッ」を示す環境音データDA11-1とを対応付けて環境音情報記憶部121に格納する。ルームR2、R3、R4についてもこれまでの説明の通りであるため省略する。
【0036】
また、情報処理装置100は、スマートスピーカー30から取得したコンテキストデータをコンテキスト情報記憶部122に格納する。
図1の例では、コンテキスト情報記憶部122は、「ユーザID」、「日時」、「コンテキストデータ」といった項目を有する。「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日時」は、スマートスピーカー30によって、ユーザのコンテキストが検知された日時を示す。なお、「日時」には「曜日」も含まれてよく、かかる場合、「日時」はカレンダー情報と解することもできる。「コンテキストデータ」は、スマートスピーカー30によって検知されたコンテキストのデータを示す。
【0037】
図1に示すルームR1の例では、スマートスピーカー30は、ユーザU1について「2018年7月1日7時04分においてユーザU1はニュースを流すよう音声指示する、といった行動に出る」というコンテキストを検知している。そして、スマートスピーカー30は、この検知結果のデータを示すコンテキストデータDA11-2を情報処理装置100に送信している。したがって、情報処理装置100は、ユーザID「U1」と、日時「2018年7月1日7時04分」と、コンテキスト「ニュースを流すよう音声指示する」を示すコンテキストデータDA11-2とを対応付けてコンテキスト情報記憶部122に格納する。ルームR2、R3、R4についてもこれまでの説明の通りであるため省略する。
【0038】
次に、情報処理装置100は、コンテキストが示す状況が発生する前において発生した環境音を取得する(ステップS3)。例えば、情報処理装置100は、ユーザ毎に、コンテキストが示す状況が発生する前において発生した環境音を取得する。例えば、情報処理装置100は、コンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する。例えば、情報処理装置100は、環境音情報記憶部121とコンテキスト情報記憶部122とを比較して、ユーザ毎に、コンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音(環境音データ)を取得する。例えば、情報処理装置100は、環境音情報記憶部121から環境音データを取得する。
【0039】
図1の例では、情報処理装置100は、各「ユーザ」について、各「日付」の「時間帯」毎に、コンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音の環境音データを取得する。本実施形態では、情報処理装置100は、コンテキストが示す状況が起こるよりも前の5分以内に発生した環境音の環境音データを取得するものとする。この時間条件は、必ずしも5分以内である必要はない。
【0040】
なお、コンテキストが示す状況とは、コンテキストによって示されるユーザの行動状況である。したがって、例えば、コンテキストデータDA11-2が示す状況については、「2018年7月1日7時04分においてユーザU1はニュースを流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。また、例えば、コンテキストデータDA21-2が示す状況については、「2018年7月1日7時33分においてユーザU2はラジオショッピングを流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。また、例えば、コンテキストデータDA31-2が示す状況については、「2018年7月1日18時04分においてユーザU3はK区の交通情報を流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。また、例えば、コンテキストデータDA41-2が示す状況については、「2018年7月1日8時05分においてユーザU4は料理番組を流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。
【0041】
そして、ルームR1の例では、環境音情報記憶部121とコンテキスト情報記憶部122とを比較すると、ユーザU1について「2018年7月1日の7時台」では、コンテキストデータDA11-2が示す状況が起こるよりも前の5分以内に、環境音データDA11-1が示す環境音(カーテンの音)が発生していることがわかる。また、このようなことから、コンテキストデータDA11-2が示すコンテキスト(ユーザ行動)は、環境音データDA11-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の7時台」に合わせて、環境音情報記憶部121から環境音データDA11-1を取得する。また、情報処理装置100は、「2018年7月1日の7時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA11-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。また、情報処理装置100は、別の日付についても、同様にして時間帯毎にデータを取得し対象情報記憶部123に格納する。
【0042】
また、ルームR2の例では、ユーザU2ついて「2018年7月1日の7時台」では、コンテキストデータDA21-2が示す状況が起こるよりも前の3分以内に、環境音データDA21-1が示す環境音(コーヒー豆を挽く音)が発生していることがわかる。また、このようなことから、コンテキストデータDA21-2が示すコンテキストは、環境音データDA21-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の7時台」に合わせて、環境音情報記憶部121から環境音データDA21-1を取得する。また、情報処理装置100は、「2018年7月1日の7時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA21-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。
【0043】
また、ルームR3の例では、ユーザU3について「2018年7月1日の18時台」では、コンテキストデータDA31-2が示す状況が起こるよりも前の4分以内に、環境音データDA31-1が示す環境音(テレビ音)が発生していることがわかる。また、このようなことから、コンテキストデータDA31-2が示すコンテキストは、環境音データDA31-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の18時台」に合わせて、環境音情報記憶部121から環境音データDA31-1を取得する。また、報処理装置100は、「2018年7月1日の18時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA31-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。
【0044】
また、ルームR4の例では、ユーザU4について「2018年7月1日の8時台」では、コンテキストデータD41-2が示す状況が起こるよりも前の5分以内に、環境音データDA41-1が示す環境音(ガスコンロ音)が発生していることがわかる。また、このようなことから、コンテキストデータDA41-2が示すコンテキストは、環境音データDA41-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の8時台」に合わせて、環境音情報記憶部121から環境音データDA41-2を取得する。また、情報処理装置100は、「2018年7月1日の8時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA41-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。
【0045】
対象情報記憶部123は、後述する分析処理に用いられる情報を記憶する。ここで、
図1の例では、対象情報記憶部123は、「ユーザID」、「日付」、「時間帯」、「コンテキストデータ」、「環境音データ」といった項目を有する。「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日付」は、対応する「コンテキストデータ」および「環境音データ」が検知された日付を示す。「時間帯」は、対応する「コンテキストデータ」および「環境音データ」が検知された時間帯を示す。すなわち、情報処理装置100は、コンテキスト情報記憶部122および環境音情報記憶部121から取得したデータを「ユーザID」、「日付」、「時間帯」に対応付けて、対象情報記憶部123に格納する。
【0046】
次に、情報処理装置100は、対象情報記憶部123に格納されている環境音(環境音データ)、および、コンテキスト(コンテキストデータ)を用いて、環境音とコンテキストとの関係性を分析(学習)する分析処理(学習処理)を行う(ステップS4)。情報処理装置100は、かかる分析処理として、例えば、相関分析(教師なし学習)を行うことができる。例えば、情報処理装置100は、ユーザ毎に、当該ユーザに対応する環境音データおよびコンテキストデータを用いて、相関分析を行う。
【0047】
ユーザU1を例に挙げると、情報処理装置100は、例えば、対象情報記憶部123格納されている各項目のうち、項目「時間帯」に対応するコンテキストデータと、環境音データとを変数(特徴情報)として、相関分析を行う。これにより、情報処理装置100は、ある時間帯においては、どのような環境音の後(5分以内)には、ユーザU1はどのようなコンテキストの傾向にあるかといった、時間的傾向を捉えることができる。なお、ここでの特徴情報は、環境音から抽出される特徴情報であって、ユーザの特徴を示す特徴情報である。
【0048】
そして、
図1の例では、情報処理装置100は、ユーザU1~U4について、環境音とコンテキストとの間に次のような相関関係があるとの分析結果を得たとする。具体的には、情報処理装置100は、「7時台にカーテン音を示す環境音が発生した場合、カーテン音の後5分以内に、ユーザU1はスマートスピーカー30に対してニュースを流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。また、情報処理装置100は、「7時台にコーヒーメーカー音を示す環境音が発生した場合、コーヒーメーカー音の後5分以内に、ユーザU2はスマートスピーカー30に対してラジオショッピングを流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。
【0049】
また、情報処理装置100は、「18時台にテレビ音を示す環境音が発生した場合、テレビ音の後5分以内に、ユーザU3はスマートスピーカー30に対してK区の交通情報を流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。また、情報処理装置100は、「8時台にガスコンロ音を示す環境音が発生した場合、ガスコンロ音の後5分以内に、ユーザU4はスマートスピーカー30に対して料理番組を流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。
【0050】
そうすると、情報処理装置100は、ステップS4での分析結果に基づいて、ユーザに所定の情報を出力するタイミングを決定する(ステップS5)。例えば、情報処理装置100は、ユーザのスマートスピーカー30に対して、所定の情報を出力させるタイミングを決定する。例えば、情報処理装置100は、ユーザのコンテキストのうち、環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。時間的傾向とは、上で説明した相関関係のことである。
【0051】
図1の例では、情報処理装置100は、環境音と相関関係にあるコンテキストの発生時刻と、この環境音の発生時刻との間での時間間隔に基づいて、出力タイミングを決定する。ルームR1の例では、情報処理装置100は、7時台におけるカーテン音と、7時台におけるユーザU1のコンテキスト(ニュースを流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではカーテン音発生から5分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「5分もしくはそれ以下」である。
【0052】
したがって、情報処理装置100は、ルームR1において7時台にカーテン音が検知された場合には、そのカーテン音が検知された時刻から5分以内の時刻を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。例えば、「2018年7月2日7時05分00秒」にスマートスピーカー30によってカーテン音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日7時05分10秒」を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
【0053】
次に、ルームR2の例では、情報処理装置100は、7時台におけるコーヒーメーカー音と、7時台におけるユーザU2のコンテキスト(ラジオショッピングを流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではコーヒーメーカー音発生から3分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「3分もしくはそれ以下」である。
【0054】
したがって、情報処理装置100は、ルームR2において7時台にコーヒーメーカー音が検知された場合には、そのコーヒーメーカー音が検知された時刻から3分以内の時刻を、ユーザU2に向けてスマートスピーカー30からラジオショッピングを出力させるタイミングとして決定する。例えば、「2018年7月2日7時06分00秒」にスマートスピーカー30によってコーヒーメーカー音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日7時06分10秒」を、ユーザU2に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
【0055】
次に、ルームR3の例では、情報処理装置100は、18時台におけるテレビ音と、18時台におけるユーザU3のコンテキスト(K区の交通情報を流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではテレビ音発生から4分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「4分もしくはそれ以下」である。
【0056】
したがって、情報処理装置100は、ルームR3において18時台にテレビ音が検知された場合には、そのテレビ音が検知された時刻から4分以内の時刻を、ユーザU3に向けてスマートスピーカー30から交通情報を出力させるタイミングとして決定する。例えば、「2018年7月2日18時07分00秒」にスマートスピーカー30によってテレビ音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日18時07分10秒」を、ユーザU3に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
【0057】
次に、ルームR4の例では、情報処理装置100は、8時台におけるガスコンロ音と、8時台におけるユーザU4のコンテキスト(料理番組を流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではガスコンロ音発生から5分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「5分もしくはそれ以下」である。
【0058】
したがって、情報処理装置100は、ルームR4において8時台にテレビ音が検知された場合には、そのテレビ音が検知された時刻から5分以内の時刻を、ユーザU4に向けてスマートスピーカー30から料理番組を出力させるタイミングとして決定する。例えば、「2018年7月2日8時08分00秒」にスマートスピーカー30によってガスコンロ音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日8時08分10秒」を、ユーザU4に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
【0059】
さて、これまで説明してきたように、実施形態にかかる情報処理装置100は、ユーザの周辺環境の環境音を取得し、取得した環境音に対して時間的傾向に基づく関係(相関関係)性にあるコンテキストに基づいて、ユーザに対して情報出力するタイミングを決定する。これにより、情報処理装置100は、例えば、特定の時間帯において特定の環境音が発生した場合には、その後(例えば、数秒後や数分後)のユーザの行動(コンテキスト)はこうなると予測することができるため、ユーザがその行動を行う前にユーザがその行動を行う必要のないよう先回りした動作を実行することができる。このため、情報処理装置100は、ユーザの行動を手助けすることができる。
【0060】
なお、
図1の例では、情報処理装置100は、コンテキストが示す状況が起こるよりも前の5分以内に発生した環境音の環境音データを取得する例を示した。しかし、情報処理装置100は、コンテキストが示す状況が起こる直前(例えば、10秒以内)に発生した環境音を取得してもよい。なぜなら、例えば、ユーザU1であれば、行動がパターン化されている場合、カーテンを開けるといった行動に連動して、そのあと直ぐ(例えば、10秒以内)にニュースを流すよう指示することが多いと考えられるためである。また、こうした場合、情報処理装置100は、上記の様に傾向が取得できれば、ある日、カーテン音が検出された場合には、検出された直後(例えば、3秒後)の時刻を情報提供のタイミングとして決定する。
【0061】
〔2.情報処理装置の構成〕
次に、
図3を用いて、実施形態にかかる情報処理装置100について説明する。
図3は、実施形態にかかる情報処理装置100の構成例を示す図である。
図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。例えば、情報処理装置100は、
図1で説明した情報処理を行うサーバ装置である。
【0062】
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、出力装置30との間で情報の送受信を行う。
【0063】
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、環境音情報記憶部121と、コンテキスト情報記憶部122と、対象情報記憶部123とを有する。
【0064】
(環境音情報記憶部121について)
環境音情報記憶部121は、スマートスピーカー30によって検知された環境音に関する情報を記憶する。ここで、
図4に実施形態にかかる環境音情報記憶部121の一例を示す。
図4の例では、環境音情報記憶部121は、「ユーザID」、「日時」、「環境音データ」といった項目を有する。環境音情報記憶部121については、
図1で既に説明しているため、ここでの詳細な説明は省略する。なお、環境音情報記憶部121は、
図4に示す項目以外にも、スマートスピーカー30によって環境音が検知された「曜日」、スマートスピーカー30によって環境音が検知されたときの「天候」、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」等が含まれてもよい。
【0065】
例えば、情報処理装置100は、スマートスピーカー30によって環境音が検知されたときの「天候」情報を所定の外部のサーバ装置から取得することができる。また、ユーザが例えば、各種センサを備えたウェアラブル端末を装着している場合には、情報処理装置100は、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」情報をウェアラブル端末から取得することができる。また、情報処理装置100は、スマートスピーカー30によって環境音が検知された前後において、ユーザが自身の体調に関して発話していた場合には、その発話情報が示す体調を、現在のユーザの体調として取得してもよい。
【0066】
(コンテキスト情報記憶部122について)
コンテキスト情報記憶部122は、スマートスピーカー30によって検知されたユーザのコンテキストに関する情報を記憶する。ここで、
図5に実施形態にかかるコンテキスト情報記憶部122の一例を示す。
図5の例では、コンテキスト情報記憶部122は、「ユーザID」、「日時」、「環境音データ」といった項目を有する。コンテキスト情報記憶部122については、
図1で既に説明しているため、ここでの詳細な説明は省略する。なお、コンテキスト情報記憶部122は、
図5に示す項目以外にも、スマートスピーカー30によって環境音が検知された「曜日」、スマートスピーカー30によって環境音が検知されたときの「天候」、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」等が含まれてもよい。
【0067】
(対象情報記憶部123について)
対象情報記憶部123は、機械学習(相関分析)に用いられる情報を記憶する。例えば、対象情報記憶部123は、環境音情報記憶部121から取得された環境音データと、コンテキスト情報記憶部122から取得されたコンテキストデータとを対応付けて記憶する。また、ここで対応付けられる環境音データとコンテキストデータとは、例えば、「カーテンを開けた直後に、音声指示する」といったユーザの一連の行動の中で関連性を有するものである。
【0068】
ここで、
図6に実施形態にかかる対象情報記憶部123の一例を示す。
図6の例では、対象情報記憶部123は、「ユーザID」、「日付」、「時間帯」、「コンテキストデータ」、「環境音データ」といった項目を有する。対象情報記憶部123については、
図1で既に説明しているため、ここでの詳細な説明は省略する。なお、対象情報記憶部123は、
図6に示す項目以外にも、スマートスピーカー30によって環境音が検知された「曜日」、スマートスピーカー30によって環境音が検知されたときの「天候」、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」等が含まれてもよい。
【0069】
図1では、情報処理装置100は、各ユーザについて、「時間帯」毎に環境音とコンテキストとの関係性を分析(学習)することで、ある時間帯においては、どのような環境音の後にはユーザはどのようなコンテキストの傾向にあるかといった、「時間帯」での傾向を捉えることができる例を示した。
【0070】
しかし、情報処理装置100は、対象情報記憶部123が項目「曜日」を有することで、「天候」毎に「時間帯」での傾向を捉えることができる。また、情報処理装置100は、対象情報記憶部123が項目「天候」を有することで、「天候」毎に「時間帯」での傾向を捉えることができる。また、情報処理装置100は、対象情報記憶部123が項目「体調」を有することで、「体調」毎に「時間帯」での傾向を捉えることができる。
【0071】
図3に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、決定装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
【0072】
図3に示すように、制御部130は、受信部131と、取得部132と、分析部133と、決定部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、
図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、
図3に示した接続関係に限られず、他の接続関係であってもよい。
【0073】
(受信部131について)
受信部131は、スマートスピーカー30から送信された情報を受信する。例えば、受信部131は、スマートスピーカー30によって検知された環境音の環境音データ、および、スマートスピーカー30によって検知されたコンテキストのコンテキストデータを、スマートスピーカー30から受信(取得)する。
【0074】
(取得部132について)
取得部132は、ユーザの周辺環境の環境音を取得する。例えば、取得部132は、ユーザの周辺環境の環境音をユーザ毎に取得する。例えば、取得部132は、ユーザの周辺環境の環境音として、ユーザの生活空間内での環境音を取得する。また、取得部132は、ユーザの周辺環境の環境音として、ユーザのコンテキストが示す状況が起こるよりも前に発生した環境音を取得する。また、取得部132は、ユーザのコンテキストが示す状況よりも前に発生した環境音として、ユーザのコンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する。また、取得部132は、環境音として、スマートスピーカー30により検知された環境音のデータ(環境音データ)を取得する。
【0075】
図1の例では、ユーザU1ついて「2018年7月1日の7時台」では、コンテキストデータDA11-2が示す状況が起こるよりも前の5分以内に、環境音データDA11-1が示す環境音(カーテンの音)が発生している。したがって、かかる例では、取得部132は、「2018年7月1日の7時台」に合わせて、環境音情報記憶部121から環境音データDA11-1を取得する。また、取得部132は、「2018年7月1日の7時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA11-2を取得する。
【0076】
そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。ユーザU1以外のユーザU2~U4についても、取得部132は、同様にして環境音データを取得するが、
図1の説明の通りであるため省略する。
【0077】
(分析部133について)
分析部132は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を分析(学習)する。例えば、分析部132は、環境音から抽出される特徴情報であって、ユーザの特徴を示す特徴情報と、前記ユーザのコンテキストとの関係性を分析する。また、分析部133は、学習部133と言い換えることができる。例えば、分析部132は、対象情報記憶部123に格納されている各項目をユーザの特徴情報として、環境音とコンテキストとの関係性を分析する。
【0078】
例えば、分析部133は、相関分析(教師なし学習)を行うことができる。例えば、分析部133は、ユーザ毎に、当該ユーザに対応する環境音データおよびコンテキストデータを用いて、相関分析を行う。ユーザU1を例に挙げると、分析部133は、対象情報記憶部123に格納に格納されている各項目のうち、項目「時間帯」に対応するコンテキストデータと、環境音データとを変数(特徴情報)として、相関分析を行う。これにより、情報処理装置100は、ある時間帯においては、どのような環境音の後(5分以内)には、ユーザU1はどのようなコンテキストの傾向にあるかといった、時間的傾向を捉えることができる。
【0079】
なお、分析部132は、対象情報記憶部123の項目「時間帯」以外にも、「曜日」、「天候」、「体調」に対応するコンテキストデータと、環境音データデータとを変数(特徴情報)として、相関分析を行ってもよい。
【0080】
(決定部134について)
決定部134は、取得部132により取得された環境音に対応するユーザのコンテキストに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。例えば、決定部134は、ユーザのコンテキストとして、所定の出力装置(例えば、スマートスピーカー30)に対する操作を示すコンテキストに基づいて、所定の情報を出力するタイミングを決定する。具体的には、決定部134は、所定の出力装置に対する操作として、所定の出力装置に対する音声操作を示すコンテキストに基づいて、所定の情報を出力するタイミングを決定する。
【0081】
また、例えば、決定部134は、所定の情報として、コンテキストが示す情報であって、ユーザがコンテキストの中で要求している情報を出力するタイミングを決定する。
図1の例では、ユーザU1がスマートスピーカー30に対してニュースの出力を要求している。このような要求が、ユーザがコンテキストの中で要求している情報に対応する。
【0082】
また、決定部134は、取得部132により取得された環境音が発生した発生時刻と、当該環境音に対応するコンテキストが示す時刻とに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。具体的には、決定部134は、分析部133による分析結果に基づき環境音と所定の関係性(時間的傾向の関係)にあるコンテキストが示す発生時刻と、環境音の発生時刻との間での時間間隔に基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。
【0083】
一例を示すと、決定部134は、上記発生時刻に対応する時間帯において、コンテキストと所定の関係性にある環境音が検知された場合には、当該環境音が検知された時刻から時間間隔以内の時刻を、所定の情報を出力するタイミングとして決定する。
【0084】
図1の例では、分析部133は、7時台におけるカーテン音と、7時台におけるユーザU1のコンテキスト(ニュースを流させる音声指示)とは相関関係(時間的傾向の関係)にあるとの分析結果を得ている。したがって、決定部134は、ルームR1において7時台にカーテン音が検知された場合には、そのカーテン音が検知された時刻から5分以内の時刻を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。例えば、「2018年7月2日7時05分00秒」にスマートスピーカー30によってカーテン音が検知されたとする。この場合、決定部134は、「2018年7月2日7時05分10秒」(10秒後)を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
【0085】
〔3.処理手順〕
次に、
図7を用いて、実施形態にかかる情報処理の手順について説明する。
図7は、実施形態にかかる情報処理手順を示すフローチャートである。
【0086】
まず、受信部131は、スマートスピーカー30から、スマートスピーカー30を使用するユーザの周辺環境の環境音を示す環境音データと、このユーザのコンテキストを示すコンテキストデータとを受信したか否かを判定する(ステップS101)。受信部131は、データを受信していないと判定した場合には(ステップS101;No)、データを受信するまで待機する。
【0087】
一方、取得部132は、受信部131によりデータを受信したと判定された場合には(ステップS101;Yes)、ユーザのコンテキストが起こった時刻よりも前(例えば、30秒前)に発生した環境音を示す環境音データを取得する(ステップS102)。受信部131は、環境音データを受信する度に、受信した環境音データを環境音情報記憶部121に格納する。また、受信部131は、コンテキストデータを受信する度に、受信したコンテキストデータをコンテキスト情報記憶部122に格納する。したがって、取得部132は、これらの記憶部内の格納データを比較することで、ユーザのコンテキストが起こった時刻よりも前(例えば、30秒前)に発生した環境音を示す環境音データを環境音情報記憶部121から取得する。
【0088】
また、取得部132は、取得した環境音データに対応するコンテキストデータも同時に取得する。例えば、取得部132は、かかるコンテキストデータをコンテキスト情報記憶部122から取得する。そして、取得部132は、取得した環境音データとコンテキストデータとの組合せを時間帯に対応付けて対象情報記憶部123に格納する。
【0089】
次に、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストを用いて、環境音とコンテキストとの関係性を分析(学習)する(ステップS103)。例えば、分析部133は、ユーザ毎に、当該ユーザに対応する環境音データおよびコンテキストデータを用いて、環境音とコンテキストとの関係性を分析する。例えば、分析部133は、対象情報記憶部123に格納に格納されている各項目のうち、項目「時間帯」に対応するコンテキストデータと、環境音データとを変数(特徴情報)として、各時間帯について相関分析を行う。
【0090】
次に、決定部134は、分析部133による分析結果に基づいて、スマートスピーカー30に対して、ユーザがコンテキストの中で要求している情報を出力させる出力タイミングを決定する(ステップS104)。例えば、決定部134は、分析部133による分析結果に基づき環境音と所定の関係性(時間的傾向の関係)にあるコンテキストが示す発生時刻と、この環境音の発生時刻との間での時間間隔に基づいて、出力タイミングを決定する。例えば、決定部134は、ある日において、この環境音が検知された場合には、その後ユーザがパターン化していると考えられる行動(コンテキスト)に移行すると考えられる時刻よりも早い時刻を、このコンテキストで要求されている情報の出力タイミングとして決定する。
【0091】
また、決定部134は、決定したタイミングでスマートスピーカー30が情報出力するようスマートスピーカー30に対して出力制御する。スマートスピーカー30は、決定部134による出力制御に応じて情報を出力する。
【0092】
〔4.変形例〕
上記実施形態にかかる情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
【0093】
〔4-1.関係性分析について(1)〕
上記実施形態では、分析部133が、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を分析する一例として、相関分析を行う例を示した。しかし、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を学習することにより、環境音に対するコンテキストの傾向を示すモデルを生成してもよい。より具体的には、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を学習することにより、検知された環境音とこの環境音の発生時刻とを入力すると、この環境音と相関関係にあるコンテキストに基づく情報を出力するタイミングを決定(出力)するモデルを生成してもよい。これにより、情報処理装置100は、ある環境音が検知された場合、どんな情報をどのタイミングで出力させれば位よいかを捉えることができる。
【0094】
かかる場合、
図1の例では、コンテキスト情報記憶部122に格納される「日時」と「コンテキストデータ」との組合せが、分析部133が生成するモデルの目的変数となる。また、環境音情報記憶部121に格納される「日時」と「環境音データ」との組合せが、説明変数となる。なお、説明変数(特徴情報)には、さらに「曜日」、「天候」、「体調」等が用いられてもよい。
【0095】
なお、分析部133が生成するモデルに関する学習手法は、下記の例に限らず、種々の既知の機械学習の手法が採用されてもよい。
【0096】
例えば、分析部133は、カーテン音を示す環境音データから抽出される個々の特徴情報が、例えば「ユーザU1がカーテン音が発生した後の5分以内にスマートスピーカー30に対してニュースを流すよう音声指示する」という事象に対して、どのような重みを有するかを算出する。これにより、分析部133は、「ユーザU1がカーテン音が発生した後の5分以内にスマートスピーカー30に対してニュースを流すよう音声指示する」という事象に対して、個々の特徴情報がどのくらい寄与するのかといった情報を得ることができる。そして、分析部133は、算出した情報を用いて、傾向を示すモデルを生成する。
【0097】
また、決定部134は、分析部133により生成されたモデルを用いて、出力タイミングを決定する。例えば、「2018年7月2日7時05分00秒」にスマートスピーカー30によってカーテン音が検知されたとする。この場合、決定部134は、「2018年7月2日7時05分00秒」と、カーテン音を示す環境音データとを、上記生成されたモデルに入力する。例えば、このときの出力結果が「2018年7月2日7時05分10秒において、ニュースを出力させる」ことであるとすると、決定部134は、「2018年7月2日7時05分10秒」を出力タイミングとして決定する。
【0098】
〔4-2.関係性分析について(2)〕
上記実施形態では、分析部133が、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を分析する一例として、相関分析を行う例を示した。しかし、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を学習することにより、取得部132により取得された環境音が発生した後の所定時間内におけるユーザのコンテキストの傾向を示すモデルを生成してもよい。かかるモデルは、検知された環境音とこの環境音の発生時刻とを入力すると、この環境音と相関関係にあるコンテキストに基づく情報を出力するタイミングを決定(出力)するモデルと言い換えることができる。これにより、情報処理装置100は、ある環境音が検知された場合、どんな情報をどのタイミングで出力させれば位よいかを捉えることができる。
【0099】
また、分析部133は、取得部132により取得された環境音であってユーザ毎に取得された環境音と、当該ユーザのコンテキストとの関係性を学習することにより、ユーザ毎にモデルを生成する。一方で、分析部133は、取得部132により取得された環境音であって所定の複数のユーザについて取得された環境音と、当該所定の複数のユーザのコンテキストとの関係性を学習することにより、当該所定の複数のユーザに対応するモデルを生成してもよい。かかる場合、分析部133は、所定の複数のユーザのコンテキストを、所定の複数のユーザのコンテキストを平均した平均コンテキストとして、モデルを生成することができる。
【0100】
また、決定部134は、所定の情報を出力する出力対象のユーザ以外のユーザである他ユーザのモデルに基づいて、出力対象のユーザに対して所定の情報を出力するタイミングを決定してもよい。ここで、分析部134が、出力対象のユーザ(例えば、ユーザU1)のモデルを生成する場合、ユーザU1について所定期間分のコンテキスト情報が蓄積されている必要がある。コンテキスト情報が十分な数蓄積されていないと、精度の高いモデルを生成できない場合があることも、背景の一つである。したがって、決定部134は、ユーザU1のコンテキスト情報が不足しているため分析部133によりユーザU1に対応するモデルが生成されていない場合には、例えば、十分な数のコンテキスト情報に基づき既にモデルが生成されている他ユーザ(例えば、ユーザU2)のモデルに基づいて、ユーザU1に所定の情報を出力するタイミングを決定する。
【0101】
なお、決定部134は、必ずしも、分析部133によりユーザU1に対応するモデルが生成されていない場合に限って、他ユーザ(例えば、ユーザU2)のモデルに基づいて、ユーザU1に所定の情報を出力するタイミングを決定する必要はない。
【0102】
〔4-3.環境音について〕
上記実施形態では、情報処理装置100による情報処理に用いられる対象の環境音は、ユーザの周辺環境の環境音であり、これらは人物が物体に触れることにより発生する環境音であったり、機器から出力される機械音である例を示した。しかし、ユーザの周辺環境の環境音は、これらに限定される必要はなく、例えば、人物の話し声等であってもよい。例えば、複数の人物が会話していることによる、会話の雑音(ガヤガヤ音)が挙げられる。例えば、例えば、ホームHP1のあるルームR1では、頻繁に20時台にパーティーが行われ、このときユーザU1の音声指示により、スマートスピーカーからいつも特定の音楽(BGM)が流されるものとする。
【0103】
かかる場合、情報処理装置100は、20時台において会話の雑音が検知されると、ユーザU1は特定のBGMを流すとの傾向を学習結果により得ることができる。そうすると、これまで説明したきたように、例えば、情報処理装置100は、次回のパーティーにて、20時台において会話の雑音が検知されると、ユーザU1よる操作よりも先に、スマートスピーカー30からBGMを出力させることができる。
【0104】
〔4-4.スタンドアロン形式〕
上記実施形態では、情報処理装置100が、スマートスピーカー30と連携することにより、実施形態にかかる情報処理を行う例をしました。しかしながら、情報処理装置100が行うものとして説明した情報処理は、スマートスピーカー30側で単独(スタンドアロン)で行われてもよい。また、かかる場合、実施形態にかかる情報処理システム1には、情報処理装置100は含まれず、また、スマートスピーカー30は、情報処理装置100を含め、他の外部装置に対して、検知した環境音やコンテキストのデータを送信することもない。また、そうすると、スマートスピーカー30は、
図3で説明した受信部131を有していなくともよい。
【0105】
〔4-5.タイミングについて〕
上記実施形態では、決定部134が、スマートスピーカー30から情報出力(音声出力)させる例を示した。しかし、決定部134が情報出力させる対象の機器は、スマートスピーカー30に限定されない。例えば、決定部134は、ユーザの端末装置10からコンテンツを出力(表示)させるタイミングを決定してもよい。
【0106】
例えば、ユーザU1は毎朝7時に起床すると、端末装置10を手に取り端末装置10を起動させてから、端末装置10で天気予報サイトを閲覧することがパターン化されているとする。端末装置10を手に取る場合や、端末装置10を起動させる場合には、環境音が発生する。そうすると、情報処理装置100は、例えば、この環境音とコンテキスト(端末装置10で天気予報サイトを閲覧する)との間に傾向を示す関係性があるとの学習結果を得られる場合がある。
【0107】
これにより、情報処理装置100は、例えば、ユーザU1が起床して端末装置10を起動させるとすぐに、動的に天気予報サイトを表示させることができる。あるいは、情報処理装置100は、ユーザU1が天気予報サイトでどの地域の天気を調べる傾向にあるのかまで特定できている場合には、その地域の天気情報をプッシュ通知させてもよい。
【0108】
〔5.ハードウェア構成〕
また、上記実施形態にかかるスマートスピーカー30および情報処理装置100は、例えば
図8に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。
図8は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
【0109】
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
【0110】
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
【0111】
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
【0112】
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
【0113】
例えば、コンピュータ1000が実施形態にかかる情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
【0114】
また、例えば、コンピュータ1000が実施形態にかかるスマートスピーカー30として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部13の機能を実現する。
【0115】
〔6.その他〕
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
【0116】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0117】
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【0118】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
【符号の説明】
【0119】
1 情報処理システム
10 端末装置
30 出力装置
100 情報処理装置
120 記憶部
121 環境音情報記憶部
122 コンテキスト情報記憶部
123 対象情報記憶部
130 制御部
131 受信部
132 取得部
133 分析部
134 決定部