(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024131884
(43)【公開日】2024-09-30
(54)【発明の名称】情報処理装置、情報処理方法、及び情報処理プログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20240920BHJP
【FI】
G06F3/01 510
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2023042403
(22)【出願日】2023-03-16
(71)【出願人】
【識別番号】500257300
【氏名又は名称】LINEヤフー株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】坪内 孝太
(72)【発明者】
【氏名】友成 愛
(72)【発明者】
【氏名】宮崎 崇史
(72)【発明者】
【氏名】大島 みゆき
(72)【発明者】
【氏名】二宮 一浩
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA59
5E555AA64
5E555BA02
5E555BA04
5E555BB02
5E555BB04
5E555BC04
5E555CA12
5E555CA41
5E555CA42
5E555CA44
5E555CA45
5E555CA47
5E555DA08
5E555DA09
5E555EA02
5E555EA05
5E555FA00
(57)【要約】
【課題】各種オンラインサービスの利用者のユーザビリティの向上を図ること。
【解決手段】本願に係る情報処理装置は、取得部と、推定部と、実行部とを有する。取得部は、利用者が装着中の第1装置に搭載されているセンサの検出結果を取得する。推定部は、利用者が使用中の第2装置の利用状況に基づいて、取得部によりセンサの検出結果が取得された時の利用者のコンテキストを推定する。実行部は、推定部によるコンテキストの推定時におけるセンサの検出結果として推定される推定検出結果を導出し、導出した推定検出結果と、取得部により取得されたセンサの検出結果とに基づいて、利用者が利用中のサービスを制御するキャリブレーションを実行する。
【選択図】
図4
【特許請求の範囲】
【請求項1】
利用者が装着中の第1装置に搭載されているセンサの検出結果を取得する取得部と、
前記利用者が使用中の第2装置の利用状況に基づいて、前記取得部により前記センサの検出結果が取得された時の前記利用者のコンテキストを推定する推定部と、
前記推定部による前記コンテキストの推定時における前記センサの検出結果として推定される推定検出結果を導出し、導出した前記推定検出結果と、前記取得部により取得された前記センサの検出結果とに基づいて、前記利用者が利用中のサービスを制御するキャリブレーションを実行する実行部と
を有することを特徴とする情報処理装置。
【請求項2】
前記推定部は、
前記利用者のサービス利用履歴に基づいて、前記取得部により前記センサの検出結果が取得された時の前記利用者のコンテキストを推定する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記推定部は、
前記第2装置に搭載されたセンサにより検出される検出結果を加味して、前記取得部により前記センサの検出結果が取得された時の前記利用者のコンテキストを推定する
ことを特徴とする請求項2に記載の情報処理装置。
【請求項4】
コンピュータが実行する情報処理方法であって、
利用者が装着中の第1装置に搭載されているセンサの検出結果を取得する取得工程と、
前記利用者が使用中の第2装置の利用状況に基づいて、前記取得工程により前記センサの検出結果が取得された時の前記利用者のコンテキストを推定する推定工程と、
前記推定工程による前記コンテキストの推定時における前記センサの検出結果として推定される推定検出結果を導出し、導出した前記推定検出結果と、前記取得工程により取得された前記センサの検出結果とに基づいて、前記利用者が利用中のサービスを制御するキャリブレーションを実行する実行工程と
を含むことを特徴とする情報処理方法。
【請求項5】
コンピュータに、
利用者が装着中の第1装置に搭載されているセンサの検出結果を取得する取得手順と、
前記利用者が使用中の第2装置の利用状況に基づいて、前記取得手順により前記センサの検出結果が取得された時の前記利用者のコンテキストを推定する推定手順と、
前記推定手順による前記コンテキストの推定時における前記センサの検出結果として推定される推定検出結果を導出し、導出した前記推定検出結果と、前記取得手順により取得された前記センサの検出結果とに基づいて、前記利用者が利用中のサービスを制御するキャリブレーションを実行する実行手順と
を実行させることを特徴とする情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本出願は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
【背景技術】
【0002】
従来、各種オンラインサービスの利用者が装着する器具や機器などの情報を利用して、サービス提供を実行する技術が提案されている。たとえば、関連技術として、徒歩で移動するユーザをナビゲーションに関するサービスにおいて、ヘッドセットに取り付けられる方位センサの出力方位を正しく検出する技術が提案されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来の技術では、各種オンラインサービスの利用者のユーザビリティの向上を図る上で少なからず改善の余地がある。
【0005】
本願は、上記に鑑みてなされたものであって、各種オンラインサービスの利用者のユーザビリティの向上を図ることができる情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本願に係る情報処理装置は、取得部と、推定部と、実行部とを有する。取得部は、利用者が装着中の第1装置に搭載されているセンサの検出結果を取得する。推定部は、利用者が使用中の第2装置の利用状況に基づいて、取得部によりセンサの検出結果が取得された時の利用者のコンテキストを推定する。実行部は、推定部によるコンテキストの推定時におけるセンサの検出結果として推定される推定検出結果を導出し、導出した推定検出結果と、取得部により取得されたセンサの検出結果とに基づいて、利用者が利用中のサービスを制御するキャリブレーションを実行する。
【発明の効果】
【0007】
実施形態の態様の1つによれば、各種オンラインサービスの利用者のユーザビリティの向上を図ることができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、実施形態に係る情報処理装置が実行する情報処理の概要を示す図である。
【
図2】
図2は、実施形態に係る推定検出結果の導出時の想定場面の一例を示す図である。
【
図3】
図3は、実施形態に係る端末装置の構成例を示す図である。
【
図4】
図4は、実施形態に係る情報処理装置の構成例を示す図である。
【
図5】
図5は、実施形態に係る利用履歴記憶部に記憶されるサービス利用履歴に関する情報の概要を示す図である。
【
図6】
図6は、実施形態に係る対応情報記憶部に記憶される対応情報の概要を示す図である。
【
図7】
図7は、実施形態に係る情報処理装置により実行される情報処理の処理手順の一例を示すフローチャートである。
【
図8】
図8は、実施形態または各変形例に係る情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0009】
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と称する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
【0010】
[実施形態]
[1.実施形態に係るシステム構成]
以下、実施形態に係る情報処理装置100が実行する情報処理の概要について説明する。
図1は、実施形態に係る情報処理装置100が実行する情報処理の概要を示す図である。
【0011】
まず、実施形態に係る情報処理装置100が実行する情報処理の概要の説明に先駆けて、
図1を参照しつつ、実施形態に係る情報処理装置100を含む情報処理システムSYSの構成例について説明する。
【0012】
図1に示すように、情報処理システムSYSは、端末装置10と、装着器具50と、情報処理装置100とを有している。端末装置10、装着器具50、及び情報処理装置100は、有線または無線により、インターネットなどの所定のネットワーク(たとえば、
図4に示すネットワークN)に接続される。端末装置10、装着器具50、及び情報処理装置100は、所定のネットワークを通じて相互に通信できる。なお、
図1に示す情報処理システムSYSの構成は一例であり、端末装置10以外の他の端末装置がふくまれていてもよいし、装着器具50以外の他の装着器具がふくまれていてもよいし、情報処理装置100以外の他の情報処理装置が含まれていてもよい。
【0013】
端末装置10は、各種オンラインサービスのサービス利用者である利用者Uにより使用される情報処理端末である。たとえば、各種オンラインサービスは、情報処理装置100の管理であるサービス事業者が運営するプラットフォームを通じて提供される。たとえば、端末装置10は、スマートフォンや、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)などにより実現され得る。
図1によれば、端末装置10がスマートフォンである場合が例示されている。
【0014】
また、端末装置10は、無線通信を実行するための通信機能により、所定のネットワークに接続してもよい。たとえば、端末装置10は、LTE(Long Term Evolution)や、4G(4th Generation:第4世代移動通信システム)や、5G(5th Generation:第5世代移動通信システム)などの無線通信網や、Bluetooth(登録商標)や、無線LAN(Local Area Network)などの近距離無線通信を実行するための通信機能を有していてもよい。
【0015】
また、端末装置10は、たとえば、情報処理装置100により提供されるウェブコンテンツを、ウェブブラウザやアプリケーションにより表示できる。なお、端末装置10は、情報の表示処理を実現する制御情報を情報処理装置100などから受け取った場合には、制御情報に従って表示処理を実現する。
【0016】
利用者Uは、端末装置10を操作して、ウェブブラウザにより表示される各種オンラインサービスのウェブサイトやウェブコンテンツなどのサービス用コンテンツを利用できる。また、利用者Uは、各種オンラインサービスを利用するための専用のアプリケーションプログラム(以下、「ユーザアプリ」と称する。)を情報処理装置100からダウンロードして、端末装置10にインストールしてもよい。この場合、利用者Uは、ユーザアプリを操作することにより、ユーザアプリ用に構成された各種オンラインサービスのサービス用コンテンツを利用できる。
【0017】
また、端末装置10は、Bluetooth(登録商標)やWiFi(登録商標)(Wireless Fidelity)などの種々の無線通信に関する技術を用いて、装着器具50と通信を行ってもよい。なお、端末装置10は、装着器具50との間で情報の送受信が可能であれば、無線通信に関する技術とは異なる技術を用いて装着器具50と通信を行ってもよい。
【0018】
装着器具50は、たとえば、利用者Uが装着可能な機器であり、たとえば、イヤホンや、ヘッドセットや、ヘッドマウントディスプレイ、スマートデバイス(スマートグラスやスマートウォッチ)などであってもよい。
図1によれば、装着器具50が利用者Uの頭部に装着される器具である場合が例示されている。
【0019】
装着器具50は、センサ51を有する。装着器具50は、センサ51により収集した情報を端末装置10に送信する。たとえば、装着器具50は、センサ51により検出される位置情報や、加速度情報や、角速度情報や、地磁気情報や、圧力情報や、音声情報や、振動に関する情報や、気温に関する情報や、気圧に関する情報や、湿度に関する情報や、照度に関する情報などを収集してもよい。
【0020】
また、装着器具50は、端末装置10との間で情報を送受信するための通信機能を有していてもよい。装着器具50は、Bluetooth(登録商標)やWiFi(登録商標)などの種々の従来の無線通信に関する技術を適宜用いて、端末装置10と通信を行ってもよい。すなわち、装着器具50は、端末装置10との間で情報の送受信が可能であれば、どのような機能により端末装置10と通信を行ってもよい。なお、装着器具50は、情報処理装置100との間で情報を送受信するための通信機能を有していてもよい。
【0021】
情報処理装置100は、実施形態に係る情報処理を実行する情報処理装置である。情報処理装置100は、典型的にはサーバ装置であるが、メインフレームやワークステーションなどにより実現されてもよい。また、情報処理装置100がサーバ装置により実現される場合、単独のサーバ装置により実現されてもよいし、複数のサーバ装置及び複数のストレージ装置が協働して動作するクラウドシステムなどにより実現されてもよい。また、情報処理装置100は、利用者Uを含む各利用者に対して、各種オンラインサービスを提供するための処理を実行する情報処理装置としても機能する。
【0022】
また、情報処理装置100は、端末装置10との通信により、装着器具50に搭載されているセンサの検出結果を端末装置10から取得してもよい。また、情報処理装置100は、装着器具50が情報処理装置100と通信を行うための通信機能を有している場合、装着器具50との通信により、装着器具50に搭載されているセンサの検出結果を装着器具50から直接取得してもよい。
【0023】
情報処理装置100が利用者に提供する各種オンラインサービスには、インターネット接続や、検索サービスや、SNS(Social Networking Service)や、電子商取引サービスや、電子決済サービスや、オンラインゲームや、オンラインバンキングサービスや、オンライントレーディングサービスや、宿泊予約サービスや、チケット予約サービスや、動画配信サービスや、音楽配信サービスや、ニュース配信サービスや、地図情報サービスや、ルート検索サービスや、経路案内サービスや、路線情報サービスや、運行情報サービスや、天気情報サービスや、ウェブ会議サービスなどが含まれ得る。なお、各種オンラインサービスには、各種アプリケーションに対応するAPI(Application Programming Interface)サービスが含まれていてもよい。
【0024】
[2.実施形態に係る情報処理]
以下、
図1を用いて、実施形態に係る情報処理装置100が実行する情報処理の概要について説明する。
図1に示すように、情報処理装置100は、利用者Uのサービス利用履歴を記憶する利用履歴記憶部121や、装着器具50に搭載されたセンサの検出結果と利用者Uのコンテキストとの対応関係を示す対応情報記憶部122を有している。
【0025】
情報処理装置100は、装着器具50に搭載されたセンサのうち、予め設定された調整周期に到達しているセンサがある場合、該当センサの検出結果を取得する(ステップS01)。なお、装着器具50からセンサの検出結果をアップロードする周期は、たとえば、装着器具50のアクティベーションを実行する際、利用者Uにより設定されてもよいし、装着器具50に予めインストールされているアプリケーションプログラムの機能により自動設定されてもよい。
【0026】
また、情報処理装置100は、利用者Uによる端末装置10の利用状況に基づいて、利用者Uのコンテキストを推定する(ステップS02)。
【0027】
たとえば、端末装置10の利用状況には、検索サービスや、SNS(Social Networking Service)や、動画配信サービスなどの各種オンラインサービスを利用するためのアプリケーションプログラム(以下、「アプリ」と称する。)が動作中であるという状況などが想定され得る。これらの各種オンラインサービスの利用状況は、利用履歴記憶部121に記憶されているサービス利用履歴に基づいて特定できる。また、端末装置10の利用状況には、端末装置10に搭載されている各種センサの検出結果を含んでいてもよい。
【0028】
情報処理装置100は、利用者Uのサービス利用履歴や、端末装置10に搭載されている各種センサの検出結果に基づいて、利用者Uのコンテキストを推定できる。たとえば、情報処理装置100は、利用者Uが動画配信サービスのアプリで動画コンテンツを再生中であり、端末装置10が一定の姿勢を保っている場合、利用者Uのコンテキストとして、利用者Uが端末装置10において再生中の動画コンテンツを視聴している(端末装置10を見ている)と推定する。
【0029】
また、利用者Uが端末装置10で再生されている動画コンテンツを視聴中である場合、利用者Uの顔の正面と端末装置10の表示面とがほぼ正対していることが想定される。そこで、情報処理装置100は、この想定に基づいて、利用者Uのコンテキストとして、利用者Uの顔の向きをさらに推定できる。このとき、情報処理装置100は、端末装置10の姿勢(端末装置10に搭載されたセンサの検出結果)を加味して、利用者Uの顔の向きを特定してもよい。なお、顔の向きには、正面(前)方向や、右方向や、左方向などが含まれていてもよい。
【0030】
また、情報処理装置100は、利用者Uのコンテキストの推定時における装着器具50の搭載センサの検出結果として推定される推定検出結果を導出する(ステップS03)。
図2は、実施形態に係る推定検出結果の導出時の想定場面の一例を示す図である。
図2では、利用者Uが端末装置10で再生されている動画コンテンツを視聴中であるという状況を想定している。
【0031】
図2に示すように、たとえば、利用者Uが端末装置10で再生されている動画コンテンツを視聴中であると推定される場合、利用者Uの顔の正面と端末装置10の表示面とがほぼ正対していることが想定される。そこで、情報処理装置100は、この想定に基づいて、装着器具50に搭載されているセンサ51-1やセンサ51-2(
図1参照)が検出結果として出力すると推定される推定検出結果を導出する。
【0032】
たとえば、情報処理装置100は、装着器具50-1と装着器具50-2の位置情報に基づいて利用者Uの顔の左右方向を推定する。また、情報処理装置100は、推定した左右方向に直交する方向のうち、端末装置10の表示面に直交する方向を利用者Uの顔の前後方向と推定する。このとき、情報処理装置100は、端末装置10のセンサにより検出された端末装置10の姿勢から推定される端末装置10の表面の方向を利用してもよい。また、情報処理装置100は、利用者Uの顔の前後方向のうち、端末装置10の側を利用者Uの顔の向き(正面方向)と推定する。そして、情報処理装置100は、推定した利用者Uの顔の向き(正面方向)に対応する検出結果が出力される場合のセンサ51の検出結果を推定検出結果として導出する。
【0033】
また、情報処理装置100は、センサ51の検出結果と推定検出結果とに基づいて、利用者Uが利用中のサービスを制御するキャリブレーションを実行する(ステップS04)。ここで、情報処理装置100が実行するキャリブレーションとは、対象センサの実際の検出結果と、対象センサの推定検出結果との差分に基づいて、利用者Uの状況を具体的に推定し、推定した利用者Uの具体的な状況に合わせて利用者Uが利用中のサービスを制御する情報処理を意味する。
【0034】
たとえば、
図2に示す場合において、情報処理装置100は、一定時間、センサ51の検出結果と推定検出結果との差分を取得し、取得した差分から利用者Uの顔の向きの経時的な変化を特定する。そして、情報処理装置100は、利用者Uの顔の方向が端末装置10の表示面に対して正対していない時間が一定時間を超えていると判断した場合、利用者Uが視聴中の動画コンテンツに対する関心が比較的低い状況にあると推定する。この場合、情報処理装置100は、利用者Uが視聴中の動画コンテンツを一時停止し、他の動画コンテンツの再生を提案する通知を実行してもよい。
【0035】
また、
図2に示す場合において、情報処理装置100は、利用者Uの顔の方向が端末装置10の表示面に対して正対していない時間が一定時間以下であると判断した場合、利用者Uが視聴中の動画コンテンツに対する関心が比較的高い状況にあると推定する。この場合、情報処理装置100は、たとえば、利用者Uが再生中の動画コンテンツを一時停止したタイミングで、類似する他の動画コンテンツを紹介する通知を実行してもよい。
【0036】
また、情報処理装置100は、利用者Uの推定コンテキストと、利用者Uのコンテキストの推定時における装着器具50の搭載センサの検出結果として導出した推定検出結果との対応関係を示す情報が未登録であれば、対応情報記憶部122に登録しておく。これにより、情報処理装置100は、次回、利用者Uのコンテキストとして、同様のコンテキストが推定された場合、対応情報記憶部122に登録されている登録情報を利用できる。
【0037】
このようにして、情報処理装置100は、利用者Uが装着する装着器具50に搭載されたセンサ51により検出された実際の検出結果と、端末装置10の利用状況に基づく利用者Uの推定コンテンツに対応するセンサ51の推定検出結果との差分から、利用者Uの具体的な状況を推定し、推定した利用者Uの具体的な状況に合わせて利用者Uが利用中のサービスを制御できる。これにより、情報処理装置100は、各種オンラインサービスの利用者のユーザビリティの向上を図ることができる。
【0038】
[3.実施形態に係る各装置の構成]
(3-1.端末装置10の構成)
図3を用いて、端末装置10の機能構成の一例について説明する。
図3は、実施形態に係る端末装置10の構成例を示す図である。
図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
【0039】
(通信部11)
通信部11は、所定のネットワーク(たとえば、
図4に示すネットワークN)と有線又は無線で接続され、ネットワークNを介して、情報処理装置100との間で情報の送受信を行う。たとえば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
【0040】
(表示部12)
表示部12は、利用者Uが利用中のオンラインサービスに関する各種情報などを表示する表示デバイスにより実装される。たとえば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、利用者Uからのタッチ操作を受付可能なタッチスクリーンディスプレイにより構成されてもよい。
【0041】
(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスにより実装される。入力部13は、たとえば、文字や数字などを入力するためのボタンなどを有する。なお、上述の表示部12がタッチスクリーンディスプレイとして構成される場合、入力部13は表示部12の一部として実装されていてもよい。なお、入力部13は、利用者Uから音声入力を受け付ける音声入力機能を有していてもよい。
【0042】
(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(たとえば、緯度および経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは一例であり、GNSS(Global Navigation Satellite System)に含まれる他のシステムの衛星からの信号を受信可能に構成されていてもよい。
【0043】
また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。たとえば、測位部14は、位置補正のための補助的な測位手段として、端末装置10の様々な通信機能を利用して位置を測位してもよい。また、測位部14は、位置の測位に際し、以下に説明する測位手段を組合せ利用してもよい。
【0044】
たとえば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位してもよい。具体的には、測位部14は、Wi-Fi通信などを行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
【0045】
たとえば、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。具体的には、測位部14は、Bluetooth機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
【0046】
たとえば、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位してもよい。
【0047】
たとえば、測位部14は、端末装置10によって決済などが行われた情報とともに、使用された位置に基づいて位置を測位してもよい。具体的には、端末装置10が駅改札や店舗などで使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済などが行われた情報とともに、使用された位置が記録される。そこで、測位部14は、かかる情報を取得することで、端末装置10の位置を測位する。なお、この場合の位置は、端末装置10が備える光学式センサや、赤外線センサなどによって測位されてもよい。
【0048】
(センサ部20)
センサ部20は、端末装置10に搭載される各種のセンサを含む。
図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。なお、上述の各センサ21~28は、端末装置10に搭載されるセンサの一例であり、センサ部20は、各センサ21~28のうちのいずれか一つまたは複数を備えてもよいし、各センサ21~28に加えてあるいは代えて、
図3に例示する以外の湿度センサなどのその他のセンサを備えていてもよい。
【0049】
加速度センサ21は、たとえば、3軸加速度センサであり、端末装置10の移動方向、速度、および、加速度などの端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度などに基づいて3軸方向の傾きなどの端末装置10の物理的な動きを検知する。気圧センサ23は、たとえば端末装置10の周囲の気圧を検知する。
【0050】
端末装置10は、上述の加速度センサ21やジャイロセンサ22、気圧センサ23などを備えることから、これらの各センサ21~23などを利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)などの技術を用いて端末装置10の位置を測位できる。これにより、GPSなどの測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。
【0051】
また、端末装置10は、加速度センサ21を利用した歩数計により、利用者Uの歩数や歩くスピード、歩いた距離を算出することができる。また、端末装置10は、ジャイロセンサ22を利用して、利用者Uの進行方向や視線の方向、体の傾きを知ることができる。また、端末装置10は、気圧センサ23で検知した気圧から、利用者Uが存在する高度やフロアの階数を知ることもできる。
【0052】
また、気温センサ24は、たとえば端末装置10の周囲の気温を検知する。音センサ25は、たとえば端末装置10の周囲の音を検知する。光センサ26は、たとえば端末装置10の周囲の照度を検知する。磁気センサ27は、たとえば端末装置10の周囲の地磁気を検知する。画像センサ28は、たとえば端末装置10の周囲の画像を撮像する。
【0053】
端末装置10は、上述の気温センサ24などの検知結果に基づく端末装置10の周囲の環境や状況などから、端末装置10の位置の測位精度を向上できる。
【0054】
(制御部30)
制御部30は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路などのハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33とを備える。
【0055】
(送信部31)
送信部31は、たとえば入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載された各センサ21~28によって検知された各種情報や、測位部14によって測位された端末装置10の位置情報などを、通信部11を介して情報処理装置100へ送信できる。
【0056】
(受信部32)
受信部32は、通信部11を介して、情報処理装置100から提供される各種情報や、情報処理装置100からの各種情報の要求を受信できる。
【0057】
(処理部33)
処理部33は、表示部12などを含め、端末装置10全体を制御できる。たとえば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信された情報処理装置100からの各種情報を表示部12へ出力することにより表示させる。
【0058】
(記憶部40)
記憶部40は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスクなどの記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データなどが記憶される。
【0059】
(3-2.情報処理装置100の構成)
以下、実施形態に係る情報処理装置100の機能構成の一例について説明する。
図4は、実施形態に係る情報処理装置100の構成例を示す図である。
図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
【0060】
(通信部110について)
通信部110は、たとえば、NIC(Network Interface Card)などによって実現される。通信部110は、ネットワークNと有線または無線で接続される。情報処理装置100は、ネットワークNを介して、端末装置10などの他の装置との間で情報の送受信を行う。
【0061】
(記憶部120について)
記憶部120は、たとえば、制御部130による制御および演算に用いられるプログラムおよびデータを記憶する。たとえば、記憶部120は、RAM(Random Access Memory)やフラッシュメモリなどの半導体メモリ素子、またはハードディスクや光ディスクなどの記憶装置によって実現される。たとえば、記憶部120は、利用履歴記憶部121と、対応情報記憶部122とを有する。なお、記憶部120は、
図4に示す例には限られず、実施形態に係る情報処理を実行する上で必要となるデータなどを適宜記憶できる。
【0062】
(利用履歴記憶部121)
利用履歴記憶部121は、各種オンラインサービスの各利用者(たとえば、
図1に示す利用者Uなど)のサービス利用履歴に関する情報を記憶する。
図5は、実施形態に係る利用履歴記憶部121に記憶されるサービス利用履歴に関する情報の概要を示す図である。
【0063】
図5に示すように、利用履歴記憶部121に記憶されるサービス利用履歴に関する情報は、「利用者ID」の項目や、「利用履歴」の項目といった複数の項目を有している。利用履歴に関する情報が有するこれらの項目は相互に対応付けられている。
【0064】
「利用者ID」の項目には、オンラインサービスの各利用者の各々を特定するための利用者識別情報である利用者IDが記憶される。「利用履歴」の項目には、オンラインサービスの各利用者のサービス利用履歴に関する情報が記憶される。
【0065】
図5によれば、利用者ID「U#001」で識別される利用者のサービス利用履歴として、「利用履歴EX001」が記憶される例が示されている。
【0066】
(対応情報記憶部122)
対応情報記憶部122は、各種オンラインサービスの各利用者について、利用者(たとえば、
図1に示す利用者Uなど)が装着する装着器具(たとえば、
図1に示す装着器具50など)に搭載されたセンサ(たとえば、
図1に示すセンサ51など)の検出結果と、利用者のコンテキストと対応付けた対応情報を記憶する。
図6は、実施形態に係る対応情報記憶部122に記憶される対応情報の概要を示す図である。
【0067】
図6に示すように、対応情報記憶部122に記憶される対応情報は、「利用者ID」の項目や、「センサ」の項目や、「検出結果」の項目や、「コンテキスト」の項目といった複数の項目を有している。対応情報が有するこれらの項目は相互に対応付けられている。
【0068】
「利用者ID」の項目には、オンラインサービスの各利用者の各々を特定するための利用者識別情報である利用者IDが記憶される。「センサ」の項目には、利用者の装着器具に搭載された搭載センサ(の種別)を示す情報が記憶されている。「検出結果」の項目には、利用者の装着器具に搭載された搭載センサの検出結果を示す情報が記憶される。たとえば、「検出結果」の項目には、利用者のコンテキストの推定時における装着器具の搭載センサの検出結果として推定される推定検出結果が記憶される。「コンテキスト」の項目には、利用者の装着器具に搭載された搭載センサの検出結果が取得されたときの利用者のコンテキストを示す情報が記憶される。たとえば、「コンテキスト」の項目には、利用者の装着器具に搭載された搭載センサの検出結果が取得されたときに、利用者の端末装置の利用状況に基づいて推定された推定コンテキストを示す情報が記憶される。
【0069】
図6によれば、利用者ID「U#001」で識別される利用者が装着する装着器具の搭載センサの1つである「センサEX-C1」の「検出結果EX001」と該当利用者の「コンテキストEX001」とが対応付けられており、「センサEX-C1」の「検出結果EX002」と該当利用者の「コンテキストEX002」とが対応付けられている例が示されている。たとえば、
図2に示す場合において、
図2に示すセンサ51が加速度センサであれば、「センサEX-C1」が加速度センサであり、「検出結果EX001」が「加速度センサの検出結果」であり、「コンテキストEX001」が「動画コンテンツを視聴中」となる。
【0070】
(制御部130について)
制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路により実現されてもよい。
【0071】
図4に示す制御部130は、取得部131と、推定部132と、実行部133とを有し、これらの各部により、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130は、以下に説明する情報処理の機能や作用を実現または実行する処理単位で複数の分割された内部構成を有していてもよい。また、制御部130は、
図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよく、
図4に示す以外の他の機能部を有していてもよい。
【0072】
(取得部131)
取得部131は、利用者が装着中の装着器具(「第1装置」の一例)に搭載されているセンサの検出結果を取得する。
【0073】
(推定部132)
推定部132は、利用者が使用中の端末装置(「第2装置」の一例)の利用状況に基づいて、取得部131によりセンサの検出結果が取得された時の利用者のコンテキストを推定する。
【0074】
例えば、推定部132は、利用者のサービス利用履歴に基づいて、取得部131によりセンサの検出結果が取得された時の利用者のコンテキストを推定してもよい。
【0075】
また、例えば、推定部132は、端末装置10に搭載されたセンサにより検出される検出結果を加味して、取得部131によりセンサの検出結果が取得された時の利用者のコンテキストを推定してもよい。
【0076】
(実行部133)
実行部133は、推定部132によるコンテキストの推定時におけるセンサの検出結果として推定される推定検出結果を導出し、導出した推定検出結果と、取得部131により取得されたセンサの検出結果とに基づいて、検出結果を用いたキャリブレーションを実行する。
【0077】
たとえば、実行部133は、利用者Uが装着する装着器具50に搭載されたセンサ51により検出された実際の検出結果と、端末装置10の利用状況に基づく利用者Uの推定コンテンツに対応するセンサ51の推定検出結果との差分から、利用者Uの具体的な状況を推定し、推定した利用者Uの具体的な状況に合わせて利用者Uが利用中のサービスを制御する。
【0078】
たとえば、
図2に示す場合において、実行部133は、一定時間、センサ51の検出結果と推定検出結果との差分を取得し、取得した差分から利用者Uの顔の向きの経時的な変化を特定する。そして、情報処理装置100は、利用者Uの顔の方向が端末装置10の表示面に対して正対していない時間が一定時間を超えていると判断した場合、利用者Uが視聴中の動画コンテンツに対する関心が比較的低い状況にあると推定する。この場合、実行部133は、利用者Uが視聴中の動画コンテンツを一時停止し、通信部110を通じて、他の動画コンテンツの再生を提案する通知を端末装置10に送信してもよい。
【0079】
また、
図2に示す場合において、実行部133は、利用者Uの顔の方向が端末装置10の表示面に対して正対していない時間が一定時間以下であると判断した場合、利用者Uが視聴中の動画コンテンツに対する関心が比較的高い状況にあると推定する。この場合、実行部133は、たとえば、利用者Uが再生中の動画コンテンツを一時停止したタイミングで、通信部110を通じて、類似する他の動画コンテンツを紹介する通知を端末装置10に送信してもよい。
【0080】
[4.実施形態に係る処理手順]
以下、実施形態に係る情報処理装置100が実行する情報処理の手順について説明する。
図7は、実施形態に係る情報処理装置100により実行される処理手順の一例を示すフローチャートである。
図7に示す処理手順は、情報処理装置100の制御部130により実行される。
図7に示す処理手順は、情報処理装置100の稼働中、繰り返し実行される。
【0081】
図7に示すように、推定部132は、取得部131により、たとえば装着器具50に搭載されたセンサの検出結果が取得されたか否かを判定する(ステップS101)。
【0082】
推定部132は、取得部131によりセンサの検出結果が取得されたと判定した場合(ステップS101;Yes)、利用者Uによる端末装置10の利用状況に基づいて、利用者Uのコンテキストを推定する(ステップS102)。
【0083】
また、推定部132は、対応情報記憶部122に記憶されている利用者Uの対応情報において、推定コンテキストに対応する対象センサ(ステップS101の検出結果を検知したセンサ)の検出結果が未登録であるか否かを判定する(ステップS103)。
【0084】
推定部132は、推定コンテキストに対応する対象センサの検出結果が未登録であると判定した場合(ステップS103;Yes)、利用者Uのコンテキストの推定時における対象センサの推定検出結果を導出する(ステップS104)。
【0085】
実行部133は、取得部131により取得された対象センサの実際の検出結果と、対象センサの推定検出結果とに基づいて、対象センサの検出結果を用いたキャリブレーションを実行する(ステップS105)。
【0086】
推定部132は、推定コンテキストを示す情報と、対象センサの推定検出結果とを対応付けて、利用者Uに対応する対応情報として対応情報記憶部122に登録し(ステップS106)、
図7に示す処理手順を終了する。
【0087】
上述のステップS103において、推定部132は、推定コンテキストに対応する対象センサの検出結果が未登録ではないと判定した場合(ステップS103;No)、対応情報記憶部122から推定コンテキストに対応する対象センサの登録情報を取得する(ステップS107)。
【0088】
実行部133は、取得部131により取得された対象センサの実際の検出結果と、対象センサの登録情報とに基づいて、対象センサの検出結果を用いたキャリブレーションを実行して(ステップS108)、
図7に示す処理手順を終了する。
【0089】
[5.変形例]
本願に係る情報処理装置、情報処理方法、及び情報処理プログラムは、上記実施形態以外にも種々の異なる形態にて実施されてよい。以下では、上記実施形態の変形例について説明する。
【0090】
(5-1.システム構成について)
上記実施形態では、情報処理装置100が実施形態に係る情報処理を実行する例を説明したが、端末装置10が実施形態に係る情報処理を実行してもよい。この場合、端末装置10の制御部30は、情報処理装置100の制御部130が有する各部に対応する機能部を有していてもよい。
【0091】
また、上記実施形態では、情報処理システムSYSが、物理的に独立した端末装置10および装着器具50により構成される例を説明したが、端末装置10と装着器具50とが物理的に一体化された装置により、情報処理システムSYSが構成されていてもよい。
【0092】
(5-2.推定検出結果について)
上記実施形態において、情報処理装置100は、利用者のコンテキストが推定されたときの利用者の状況に基づいて、かかる状況において装着器具50に搭載されたセンサ51により検知される検出結果を推定してもよい。
【0093】
たとえば、実行部133は、推定部132により利用者のコンテキストが推定された時の利用者の顔の向きに対応する推定検出結果を導出し、推定した推定検出結果と、取得部131により取得されたセンサの検出結果とに基づいて、キャリブレーションを実行してもよい。利用者が動画配信サービスを利用して動画コンテンツを視聴中である場合、実行部133は、センサの検出結果と、利用者の顔の向きに対応する推定検出結果との差分から、利用者が視聴中の動画コンテンツに重畳されている字幕情報の位置を自動で調整してもよい。
【0094】
また、実行部133は、たとえば、推定部132により利用者のコンテキストが推定された時の利用者の姿勢に対応する姿勢に対応する推定検出結果を導出し、推定した推定検出結果と、取得部131により取得されたセンサの検出結果とに基づいて、キャリブレーションを実行してもよい。利用者がウェブ会議サービスを利用してウェブ会議中である場合、実行部133は、センサの検出結果と、利用者の姿勢に対応する推定検出結果との差分から、ウェブ会議の画面のサイズや音量を調整してもよい。
【0095】
また、実行部133は、たとえば、推定部132により利用者のコンテキストが推定された時の利用者の動作に対応する動作に対応する推定検出結果を導出し、推定した推定検出結果と、取得部131により取得されたセンサの検出結果とに基づいて、キャリブレーションを実行してもよい。利用者が音楽配信サービスを利用して楽曲コンテンツを視聴中である場合、実行部133は、センサの検出結果と、利用者の動作に対応する推定検出結果との差分から、利用者の動作に応じて再生中の楽曲コンテンツを変更してもよい。たとえば、ランニング中であれば、ランニングの速度に合わせて、テンポの速い楽曲コンテンツやテンポが緩やかな楽曲コンテンツに自動的に変更してもよい。
【0096】
また、実行部133は、たとえば、推定部132により利用者のコンテキストが推定された時のセンサ51の検出結果として推定される推定検出結果を導出する際、利用者のサービス利用履歴を利用してもよい。たとえば、実行部133は、利用者のサービス利用履歴に基づいて、利用者が映画鑑賞中であると推定した場合、サービス利用履歴から映画館における座席とスクリーンの位置関係の情報を取得し、取得した情報から利用者の顔の向きを特定し、特定した顔の向きに基づいて、装着器具50に搭載されたセンサ51の推定検出結果を導出してもよい。
【0097】
(5-3.対応情報におけるセンサの検出結果の更新について)
上記実施形態において、情報処理装置100は、対応情報記憶部122に記憶されているセンサの検出結果を更新する更新部を備えていてもよい。たとえば、更新部は、利用者Uのコンテキストのうち、基準となるコンテキストが検出されたタイミングで、装着器具50に搭載されているセンサ51の検出結果を取得する。そして、更新部は、基準となるコンテキストが検出されたときのセンサ51の検出結果に基づいて、対応情報記憶部122に記憶されている利用者Uに紐付く対応関係を示す情報のうち、基準となるコンテキストに対応するセンサの検出結果を更新する。このとき、情報処理装置100は、基準となるコンテキストが検出されたときのセンサ51の検出結果を用いて、基準となるコンテキストに関連するコンテキストに対応するセンサの検出結果を更新してもよい。たとえば、基準となるコンテキストとして利用者Uが車両を運転して走行中であることが予め設定されている場合、このときのセンサ51の検出結果を取得する。そして、更新部は、車両を運転して走行中であるときの利用者Uが車両を運転して走行中である場合、利用者Uの顔の向きが前方正面であることが想定される。よって、このときのセンサ51の検出結果を用いて、利用者Uの顔の向きが前方正面であることが想定される他の関連コンテキストに対応するセンサ51の検出結果を合わせて更新してもよい。たとえば、利用者Uの顔の向きが前方正面であることが想定される他の関連コンテキストとしては、利用者Uが走っている最中などが考えられる。
【0098】
[6.効果]
実施形態に係る情報処理装置100は、取得部131と、推定部132と、実行部133とを有する。取得部131は、利用者が装着中の第1装置に搭載されているセンサの検出結果を取得する。推定部132は、利用者が使用中の第2装置の利用状況に基づいて、取得部131によりセンサの検出結果が取得された時の利用者のコンテキストを推定する。実行部133は、推定部132によるコンテキストの推定時におけるセンサの検出結果として推定される推定検出結果を導出し、導出した推定検出結果と、取得部131により取得されたセンサの検出結果とに基づいて、検出結果を用いたキャリブレーションを実行する。
【0099】
また、推定部132は、利用者のサービス利用履歴に基づいて、取得部131によりセンサの検出結果が取得された時の利用者のコンテキストを推定する。
【0100】
また、推定部132は、第2の装置に搭載されたセンサにより検出される検出結果を加味して、取得部131によりセンサの検出結果が取得された時の利用者のコンテキストを推定する。
【0101】
このようなことから、実施形態に係る情報処理装置100は、上述した各部により実行される処理、又は各部により実行される処理のいずれかの組合せにより、たとえば、利用者Uが装着する装着器具50に搭載されたセンサ51により検出された実際の検出結果と、端末装置10の利用状況に基づく利用者Uの推定コンテンツに対応するセンサ51の推定検出結果との差分から、利用者Uの具体的な状況を推定し、推定した利用者Uの具体的な状況に合わせて利用者Uが利用中のサービスを制御できる。これにより、情報処理装置100は、各種オンラインサービスの利用者のユーザビリティの向上を図ることができる。
【0102】
[7.ハードウェア構成]
また、上述してきた実施形態および各変形例に係る情報処理装置は、たとえば、
図8に示すような構成のコンピュータ1000によって実現される。
図8は、実施形態及び各変形例に係る情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【0103】
コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
【0104】
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラムなどに基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAMなど、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
【0105】
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナなどといった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USBなどにより実現される。
【0106】
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)などの光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリなどから情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリなどの外付け記憶媒体であってもよい。
【0107】
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
【0108】
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
【0109】
たとえば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラム(たとえば、情報処理プログラム)を実行することにより、制御部130と同様の機能を実現する。すなわち、演算装置1030は、一次記憶装置1040上にロードされたプログラム(たとえば、情報処理プログラム)との協働により、実施形態に係る情報処理装置100による処理を実現する。
【0110】
[8.その他]
上記実施形態などにおいて説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
【0111】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0112】
また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
【0113】
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【0114】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。
【符号の説明】
【0115】
N ネットワーク
SYS 情報処理システム
10 端末装置
50 装着器具
100 情報処理装置
110 通信部
120 記憶部
121 利用履歴記憶部
122 対応情報記憶部
130 制御部
131 取得部
132 推定部
133 実行部