(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024132649
(43)【公開日】2024-10-01
(54)【発明の名称】情報処理装置、情報処理方法、及び情報処理プログラム
(51)【国際特許分類】
G06F 16/9035 20190101AFI20240920BHJP
G06F 3/01 20060101ALI20240920BHJP
【FI】
G06F16/9035
G06F3/01 570
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2023043503
(22)【出願日】2023-03-17
(71)【出願人】
【識別番号】500257300
【氏名又は名称】LINEヤフー株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】坪内 孝太
(72)【発明者】
【氏名】清水 徹
【テーマコード(参考)】
5B175
5E555
【Fターム(参考)】
5B175GA04
5E555AA62
5E555BA02
5E555BB02
5E555BC04
5E555BC08
5E555BD10
5E555CA42
5E555CA46
5E555CB65
5E555CB66
5E555CB67
5E555DA01
5E555DA23
5E555DB42
5E555DB48
5E555FA00
(57)【要約】
【課題】利用者が容易に適切な関連情報を参照することができる情報処理装置、情報処理方法、及び情報処理プログラムを提供すること。
【解決手段】本開示に係る情報処理装置は、利用者端末にコンテンツを配信する配信部と、コンテンツを参照する利用者の状態を示すセンサデータを取得する取得部と、センサデータに基づいて、利用者が所定の行動を行ったことを検出する検出部と、利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定する特定部と、コンテンツの特定した範囲と関連性を有する関連情報を抽出する抽出部と、抽出した関連情報を音声により利用者端末に出力させる出力部と、を備える。
【選択図】
図3
【特許請求の範囲】
【請求項1】
利用者端末にコンテンツを配信する配信部と、
コンテンツを参照する利用者の状態を示すセンサデータを取得する取得部と、
前記センサデータに基づいて、利用者が所定の行動を行ったことを検出する検出部と、
利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定する特定部と、
前記コンテンツの特定した範囲と関連性を有する関連情報を抽出する抽出部と、
抽出した関連情報を音声により利用者端末に出力させる出力部と、
を備える、情報処理装置。
【請求項2】
前記取得部は、前記センサデータとして、ジャイロセンサが計測した利用者の頭の動きの角速度を取得し、
前記検出部は、前記角速度に基づいて、利用者が頭を傾げた行動を検出する、
請求項1に記載の情報処理装置。
【請求項3】
前記取得部は、前記センサデータとして、カメラが撮像した利用者の表情を示す画像データを取得し、
前記検出部は、前記画像データに基づいて、利用者が疑問に思った表情をした行動を検出する、
請求項1に記載の情報処理装置。
【請求項4】
前記抽出部は、利用者が参照していた範囲と、関連情報との関係を学習した生成モデルによって、利用者が参照した範囲に基づいて関連情報を生成して、生成された関連情報のなかから利用者に提供する関連情報を抽出する、
請求項1に記載の情報処理装置。
【請求項5】
利用者端末にコンテンツを配信するステップと、
コンテンツを参照する利用者の状態を示すセンサデータを取得するステップと、
前記センサデータに基づいて、利用者が所定の行動を行ったことを検出するステップと、
利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定するステップと、
前記コンテンツの特定した範囲と関連性を有する関連情報を抽出するステップと、
抽出した関連情報を音声により利用者端末に出力させるステップと、
を含む、情報処理方法。
【請求項6】
利用者端末にコンテンツを配信するステップと、
コンテンツを参照する利用者の状態を示すセンサデータを取得するステップと、
前記センサデータに基づいて、利用者が所定の行動を行ったことを検出するステップと、
利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定するステップと、
前記コンテンツの特定した範囲と関連性を有する関連情報を抽出するステップと、
抽出した関連情報を音声により利用者端末に出力させるステップと、
をコンピュータに実行させる、情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
【背景技術】
【0002】
インターネットの普及によって、各種の情報を容易に参照することが可能となった。例えば、知りたい内容を表す言葉を検索クエリとして検索エンジンに入力して、検索を実行することによって、知りたい情報に容易にたどり着くことができる。しかしながら、このように検索してたどり着いたページの情報だけでは、知りたい内容を全て網羅しているとは言えない場合があった。
【0003】
例えば、下記の特許文献1には、一または複数の端末装置の各々に対して個別に提供されたコンテンツおよびコンテンツ内の所望の要素を識別する指定情報を、端末装置の各々から受信する手段と、端末装置の各々から受信した指定情報を保存する手段と、保存された指定情報から、特定のコンテンツに関する指定情報を抽出する手段と、抽出された特定のコンテンツに関する指定情報に基づき、特定のコンテンツもしくは特定のコンテンツの特定の要素に対するコンテンツ利用者の興味の動向を示す興味情報を作成する手段と、興味情報と特定のコンテンツに関する指定情報とを対応づけて所定の興味情報データベースに登録する手段と、を含む興味情報作成装置が開示されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に記載の興味情報作成装置は、利用者がコンテンツに関して興味を有する箇所を指定する必要があり、関連情報の参照に手間が掛かるという課題があった。
【0006】
本開示は上記課題を鑑み、利用者が容易に適切な関連情報を参照することができる情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上述した課題を解決し、目的を達成するために、本開示に係る情報処理装置は、利用者端末にコンテンツを配信する配信部と、コンテンツを参照する利用者の状態を示すセンサデータを取得する取得部と、前記センサデータに基づいて、利用者が所定の行動を行ったことを検出する検出部と、利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定する特定部と、前記コンテンツの特定した範囲と関連性を有する関連情報を抽出する抽出部と、抽出した関連情報を音声により利用者端末に出力させる出力部と、を備える。
【発明の効果】
【0008】
本開示によれば、利用者が容易に適切な関連情報を参照することができる情報処理装置、情報処理方法、及び情報処理プログラムを提供することができる。
【図面の簡単な説明】
【0009】
【
図1】
図1は、実施形態に係る情報処理の一例を示す図である。
【
図2】
図2は、実施形態に係る情報処理システムの構成例を示す図である。
【
図3】
図3は、実施形態に係る情報処理装置の構成例を示す図である。
【
図4】
図4は、実施形態に係る情報処理装置のセンサデータ記憶部に記憶される情報の一例を示す図である。
【
図5】
図5は、実施形態に係る情報処理装置のコンテンツ記憶部に記憶される情報の一例を示す図である。
【
図6】
図6は、実施形態に係る情報処理装置の関連情報記憶部に記憶される情報の一例を示す図である。
【
図7】
図7は、実施形態に係る利用者端末の構成例を示す図である。
【
図8】
図8は、実施形態に係る情報処理の一例を示すフローチャートである。
【
図9】
図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0010】
以下に、本開示に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本開示に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。
【0011】
(実施形態)
〔1.実施形態に係る情報処理〕
〔1-1.実施形態に係る情報処理の一例〕
まず、
図1を用いて、実施形態に係る情報処理の一例について説明する。
図1は、実施形態に係る情報処理の一例を示す図である。
図1では、実施形態に係る情報処理が情報処理装置100、利用者端末200により実行される例を示す。以下、実施形態に係る情報処理についてステップごとに順を追って説明する。
【0012】
まず、情報処理装置100は、利用者端末200にコンテンツを配信する(ステップS1)。例えば、情報処理装置100は、ニュースの動画像、ニュースの記事のテキストや画像などをコンテンツとして、利用者端末200に配信する。例えば、情報処理装置100は、コンテンツが動画像である場合は、利用者端末200に動画像を出力させてコンテンツを提供する。また、情報処理装置100は、コンテンツがテキスト、及び画像である場合は、利用者端末200にテキスト、及び画像を表示させることで、コンテンツを配信してよい。
【0013】
次に、情報処理装置100は、利用者端末200からコンテンツ参照時の利用者の状態を示すセンサデータを取得する(ステップS2)。例えば、情報処理装置100は、センサデータとして、利用者端末200のジャイロセンサによって計測された利用者のコンテンツ参照時の頭の動きを角速度によって表した計測データを取得してよい。また、情報処理装置100は、センサデータとして、利用者端末200の加速度センサによって計測された利用者のコンテンツ参照時の身体の動きを加速度によって表した計測データを取得してもよい。また、情報処理装置100は、センサデータとして、利用者端末200のカメラによって撮像された利用者の表情を示す画像データを取得してもよい。なお、センサデータは、計測された時期を含む情報であってよい。
【0014】
次に、情報処理装置100は、センサデータに基づいて、利用者が所定の行動を行ったことを検出する(ステップS3)。ここで、所定の行動とは、利用者がコンテンツ参照時に求める情報と異なると感じたことや、利用者が参照中のコンテンツについて追加の情報が知りたいと感じたことを示唆する行動であってよい。例えば、利用者のコンテンツ参照時に、首を傾げた行動や、疑問に思った表情をした行動、所定の検索クエリによって検索した行動などであってよい。例えば、情報処理装置100は、ジャイロセンサによって計測された利用者のコンテンツ参照時の頭の動きの角速度に基づいて、利用者が首を傾げた行動を検出してよい。また、例えば、情報処理装置100は、利用者端末200のカメラによって撮像された利用者の表情を示す画像データに基づいて、疑問に思った表情をした行動を検出してよい。なお、
図1に示すように、情報処理装置100は、所定の行動が検出された場合は、後述して説明するステップS4の処理に進み、所定の行動が検出されなかった場合は、ステップS2に戻って以降の処理を実行する。
【0015】
次に、情報処理装置100は、利用者が所定の行動を行った時に参照していた範囲を特定する(ステップS4)。例えば、情報処理装置100は、利用者端末200からマウスの操作や、キーボードの操作、タッチパネルの操作などの操作情報を取得して、利用者が参照しているコンテンツ(例えば、
図1に示すコンテンツA)の情報と、操作情報と、センサデータに基づいて、ステップS3において検出された所定の行動を行った時に参照していた範囲を特定してよい。例えば、情報処理装置100は、利用者の表情を示す画像データに基づいて、視線検出処理を実行して、利用者の視線の先の範囲を、参照していた範囲として特定してよい。また、ステップS3において、利用者の首を傾げた行動が検出された場合は、首を傾げた時の操作情報に基づいて、操作情報が示す範囲を参照していた範囲として特定してよい。例えば、首を傾げた時のマウスのポインタの位置や、タッチパネルのタッチ位置を参照していた範囲として特定してよい。また、ステップS3において、疑問に思った表情をした行動が検出された場合も同様に、疑問に思った表情をした行動が検出された時にの操作情報に基づいて、操作情報が示す位置を参照していた範囲として特定してよい。
【0016】
次に、情報処理装置100は、利用者が参照していた範囲に関連する関連情報を抽出する(ステップS5)。例えば、情報処理装置100は、コンテンツの範囲に対応付けて記憶されている関連情報を後述して説明する関連情報記憶部123から抽出する。例えば、コンテンツがニュースの記事である場合であれば、ニュースの記事の文章の段落ごとに、関連情報を対応付けて記憶されている。また、ニュースの記事に付随する画像についても、関連情報が対応付けて記憶されている。そのため、ステップS4において、利用者が所定の行動を行った時に参照していた範囲として、ニュースの記事の文章の段落が特定されたとすると、情報処理装置100は、当該の段落に対応付けて記憶されている関連情報を、関連情報記憶部123から抽出する。例えば、
図1に示すように、情報処理装置100は、関連情報記憶部123から関連情報Aを抽出する。また、情報処理装置100は、利用者が参照していた範囲と、関連情報との関係を学習した生成モデルによって、利用者が参照した範囲に基づいて関連情報を生成して、生成された関連情報のなかから利用者に提供する関連情報を抽出してもよい。また、情報処理装置100は、利用者が参照していた範囲に対する関連情報が蓄積されたデータベースから関連情報を検索したうえで、検索結果に含まれる関連情報から利用者に提供する関連情報を抽出してもよい。
【0017】
次に、情報処理装置100は、関連情報を音声として利用者端末200に出力させる(ステップS6)。例えば、情報処理装置100は、ステップS5において抽出された関連情報のテキストメッセージを音声として、利用者端末200に出力させてよい。なお、情報処理装置100は、ステップS5において抽出された関連情報を利用者端末200に出力する方式は、音声に限定されることなく、その他の任意の方式によって利用者端末200に出力させてもよい。
【0018】
これによれば、コンテンツを参照する利用者の状態を示すセンサデータに基づいて、利用者が所定の行動を行ったことを検出し、利用者が所定の行動を行った時に参照していた範囲を特定して、参照していた範囲に関連する関連情報を提供することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理装置100を提供することができる。
【0019】
〔1-2.実施形態に係る情報処理の他の例〕
情報処理装置100は、センサデータとして、ジャイロセンサが計測した利用者の頭の動きの角速度を取得し、角速度に基づいて、利用者が頭を傾げた行動を検出する。
【0020】
この情報処理について順を追って説明する。まず、情報処理装置100は、
図1に示したステップS1と同じ処理を実行する。ステップS1は、上述した処理と同じであるから説明を省略する。
【0021】
次に、情報処理装置100は、コンテンツを参照する利用者の状態を示すセンサデータとして、ジャイロセンサが計測した利用者の頭の動きの角速度を取得する(ステップS2-1)。例えば、情報処理装置100は、利用者端末200から利用者の頭の動きの角速度として、ヨー軸、ピッチ軸、及びロール軸の三軸に対応する角速度の値を取得する。情報処理装置100は、利用者端末200から利用者の頭の動きの角速度を取得したら、取得した角速度をセンサデータとして、センサデータ記憶部121に記憶する。
【0022】
次に、情報処理装置100は、ジャイロセンサの角速度に基づいて、利用者が頭を傾げた行動を検出し、利用者が当該の行動を行った時に参照していた範囲を特定する(ステップS3-1)。例えば、情報処理装置100は、利用者の頭の横方向の回転に対応する回転軸の角速度が所定の閾値を超えた場合に、利用者の頭を傾げる行動を検出してよい。この場合の所定の閾値は、
図1に示す利用者Uが装着するヘッドフォン型のデバイスに設けられたジャイロセンサによって計測された利用者が頭を傾げたときの角速度の計測値を取得して、例えば、複数回にわたって計測された値の平均値としてよい。
【0023】
次に、情報処理装置100は、
図1に示したステップS4からS6と同じ処理を実行する。ステップS4からS6は、上述した処理と同じであるから説明を省略する。
【0024】
これによれば、センサデータとしてジャイロセンサが計測した利用者の頭の動きの角速度を取得し、ジャイロセンサの角速度に基づいて、利用者が頭を傾げた行動を検出して、当該の行動を行った時の利用者が参照していた範囲を特定して、参照していた範囲に関連する関連情報を提供することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理装置100を提供することができる。
【0025】
〔1-3.実施形態に係る情報処理の他の例〕
情報処理装置100は、センサデータとして、カメラが撮像した利用者の表情を示す画像データを取得し、画像データに基づいて、利用者が疑問に思った表情をした行動を検出する。
【0026】
次に、情報処理装置100は、センサデータとして、カメラが撮像した利用者の表情を示す画像データを取得する(ステップS2-2)。例えば、情報処理装置100は、利用者端末200が備えるフロントカメラによって撮像された利用者の表情を示す画像データを取得してよい。なお、情報処理装置100が取得する画像データは、所定間隔ごとに撮像された静止画像であってもよく、任意の期間に亘って撮像された動画像であってもよい。情報処理装置100は、利用者の表情を示す画像データを取得したら、取得した画像データをセンサデータとして、センサデータ記憶部121に記憶する。
【0027】
次に、情報処理装置100は、利用者の画像データに基づいて、利用者が疑問に思った表情をした行動を検出し、利用者が当該の行動を行った時に参照していた範囲を特定する(ステップS3-2)。例えば、情報処理装置100は、利用者の画像データに基づいて、利用者の表情の眉や頬、唇の動き、えくぼの有無、顎の角度といった特徴と、利用者の思念や、感情との関係を学習した学習済みモデルを用いて、利用者が疑問に思った表情をした行動を検出してよい。この場合の学習に用いるモデルは、例えば、CNN(Convolutional Neural Network)であってよい。
【0028】
次に、情報処理装置100は、
図1に示したステップS4からS6と同じ処理を実行する。ステップS4からS6は、上述した処理と同じであるから説明を省略する。
【0029】
これによれば、センサデータとして、カメラが撮像した利用者の表情を示す画像データを取得し、画像データに基づいて、利用者が疑問に思った表情をした行動を検出して、当該の行動を行った時の利用者が参照していた範囲を特定して、参照していた範囲に関連する関連情報を提供することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理装置100を提供することができる。
【0030】
〔2.情報処理システムの構成〕
次に、
図2を用いて実施形態に係る情報処理システムの構成について説明する。
図2は、実施形態に係る情報処理システムの構成例を示す図である。
図2に示すように、実施形態に係る情報処理システム1は、情報処理装置100と、利用者端末200と、ネットワークNを有する。以下、これらの構成について簡単に順を追って説明する。
【0031】
情報処理装置100は、例えばPC(Personal Computer)、WS(Work Station)、サーバの機能を備えるコンピュータなどの情報処理装置であってよい。情報処理装置100は、例えば、利用者端末200からネットワークNを介して送信されてきた情報に基づいて処理を行う。
【0032】
利用者端末200は、利用者が利用する情報処理装置である。利用者端末200は、例えば、ノート型PC、デスクトップ型PC、スマートフォン、タブレット型端末、携帯電話機、PDA(Personal Digital Assistant)等の情報処理装置であってよい。なお、
図1に示す例においては、利用者端末200がノート型PCである場合を示している。
【0033】
ネットワークNは、情報処理装置100と、利用者端末200を有線、又は無線により相互に通信可能に接続する。ネットワークNが有線の場合は、IEEE802.3に規定されるイーサネット(登録商標)(ETHERNET(登録商標))により実現されてよい。また、ネットワークNが無線の場合は、IEEE802.11に規定される無線LAN(Local Area Network)により実現されてよい。
【0034】
〔3.情報処理装置の構成〕
次に、
図3を用いて、情報処理装置100の構成について説明する。
【0035】
図3は、実施形態に係る情報処理装置の構成例を示す図である。
図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130と、を有する。
【0036】
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)、無線LAN(Local Area Network)カード等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、利用者端末200などとの間で情報の送受信を行う。
【0037】
(記憶部120について)
記憶部120は、主記憶装置と外部記憶装置とを備える。主記憶装置は、制御部130が実行するプログラム、あるいは制御部130が処理するデータを記憶する。主記憶装置は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)等のような半導体メモリ素子によって実現されてよい。外部記憶装置は、制御部130が処理するデータを保存する。外部記憶装置は、例えば、ハードディスクやSSD(Solid State Drive)、磁気テープ、光ディスク等によって実現されてよい。
【0038】
図3に示すように、記憶部120は、センサデータ記憶部121と、コンテンツ記憶部122と、関連情報記憶部123と、を有する。以下、これらの構成について順を追って説明する。
【0039】
(センサデータ記憶部121について)
センサデータ記憶部121は、センサデータに関係する情報を記憶する。ここで、
図4を用いて、センサデータ記憶部121が記憶する情報の一例を説明する。
図4は、実施形態に係る情報処理装置のセンサデータ記憶部に記憶される情報の一例を示す図である。
【0040】
図4に示す例において、センサデータ記憶部121は、「利用者ID」、「センサデータ」という項目に係る情報を紐付けて記憶する。
【0041】
「利用者ID」は、利用者を識別する識別子であり、文字列や番号などによって表される。「センサデータ」は、「利用者ID」に紐付けられた利用者端末200から取得したセンサデータに関する情報であり、例えば、角速度や、加速度、画像データなどのデータと、それらの計測日時を含む。
【0042】
すなわち、
図4においては、利用者ID「UID#1」により識別される利用者の利用者端末200から取得されたセンサデータ「SNDT#1」が記憶されていることを示している。
【0043】
なお、センサデータ記憶部121に記憶される情報は、「利用者ID」、「センサデータ」という項目に係る情報に限定されるものではなく、その他の任意のセンサデータに関係する情報が記憶されてよい。
【0044】
(コンテンツ記憶部122について)
コンテンツ記憶部122は、コンテンツに関係する情報を記憶する。
図5は、実施形態に係る情報処理装置のコンテンツ記憶部に記憶される情報の一例を示す図である。
【0045】
図5に示す例において、コンテンツ記憶部122は、「コンテンツID」、「コンテンツデータ」という項目に係る情報を紐付けて記憶する。
【0046】
「コンテンツID」は、コンテンツを識別する識別子であり、文字列や番号などによって表される。「コンテンツデータ」は、コンテンツのデータであり、例えば、ニュースの記事のテキストデータと画像データの組み合わせや、ニュースの動画データなどであってよい。
【0047】
すなわち、
図5においては、コンテンツID「CTID#1」によって識別されるコンテンツとして、コンテンツデータ「CDDT#1」が記憶されていることを示している。
【0048】
なお、コンテンツ記憶部122は、「コンテンツID」、「コンテンツデータ」という項目に係る情報に限定されることなく、その他の任意のコンテンツに関係する情報が記憶されてよい。
【0049】
(関連情報記憶部123について)
関連情報記憶部123は、利用者が参照していた範囲に関連する関連情報を記憶する。ここで、
図6を用いて、関連情報記憶部123が記憶する情報の一例を説明する。
図6は、実施形態に係る情報処理装置の関連情報記憶部に記憶される情報の一例を示す図である。
【0050】
図6に示す例において、関連情報記憶部123は、「コンテンツID」、「コンテンツ範囲」、「関連情報ID」、「関連情報」という項目に係る情報を紐付けて記憶する。
【0051】
「コンテンツID」は、関連情報が対応付けられたコンテンツを識別する識別子であり、文字列や番号などによって表される。「コンテンツ範囲」は、関連情報が対応付けられるコンテンツの範囲を示し、例えば、コンテンツがニュースの記事である場合であれば、記事の段落番号や、ニュースの動画である場合であれば、ニュースの動画の全体の流れの中における位置に関する情報であってよい。「関連情報ID」は、関連情報を識別する識別子であり、文字列や番号などによって表される。「関連情報」は、「関連情報ID」により識別される関連情報のデータであり、例えば、「コンテンツ範囲」が示すコンテンツの範囲に関連するテキストメッセージを読み上げた音声データであってよい。
【0052】
すなわち、
図6においては、コンテンツID「CTID#1」により識別されるコンテンツのコンテンツ範囲「SCCT#1-1」により示される範囲について、関連情報ID「RLINFID#1-1」により識別される関連情報として、関連情報「RLINF#1-1」が記憶されていることが示されている。
【0053】
関連情報記憶部123に記憶される情報は、「コンテンツID」、「コンテンツ範囲」、「関連情報ID」、「関連情報」という項目に係る情報に限定されるものではなく、その他の任意の関連情報に関係する情報が記憶されてよい。
【0054】
(制御部130について)
次に、
図3に戻って、制御部130について説明する。制御部130は、情報処理装置100を制御するコントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100の記憶部120に記憶されている各種プログラムを読み出して、RAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array))等の集積回路により実現されてもよい。
【0055】
制御部130は、
図3に示すように、配信部131と、取得部132と、検出部133と、特定部134と、抽出部135と、出力部136を有する。制御部130は、記憶部120からプログラムを読み出して、RAMを作業領域として実行することで、これらの機能を実現して、以下に説明する情報処理の機能や作用を実現または実行する。以下、これらの処理を、順を追って説明する。
【0056】
(配信部131について)
配信部131は、利用者端末200にコンテンツを配信する。例えば、配信部131は、ニュースの動画像、ニュースの記事のテキストや画像などをコンテンツとして、利用者端末200に配信する。例えば、配信部131は、コンテンツが動画像である場合は、利用者端末200に動画像を出力させてコンテンツを提供する。また、配信部131は、コンテンツがテキスト、及び画像である場合は、利用者端末200にテキスト、及び画像を表示させることで、コンテンツを配信してよい。
【0057】
(取得部132について)
取得部132は、コンテンツを参照する利用者の状態を示すセンサデータを取得する。例えば、取得部132は、センサデータとして、利用者端末200のジャイロセンサによって計測された利用者のコンテンツ参照時の頭の動きを角速度によって表した計測データを取得してよい。また、取得部132は、センサデータとして、利用者端末200の加速度センサによって計測された利用者のコンテンツ参照時の身体の動きを加速度によって表した計測データを取得してもよい。また、取得部132は、センサデータとして、利用者端末200のカメラによって撮像された利用者の表情を示す画像データを取得してもよい。なお、センサデータは、計測された時期を含む情報であってよい。
【0058】
上述したように、取得部132は、センサデータとして、ジャイロセンサが計測した利用者の頭の動きの角速度を取得する。例えば、取得部132は、利用者端末200が備えるジャイロセンサが計測した利用者の頭の動きの角速度として、ヨー軸、ピッチ軸、及びロール軸の三軸に対応する角速度の値を取得する。取得部132は、利用者端末200から利用者の頭の動きの角速度を取得したら、取得した角速度をセンサデータとして、センサデータ記憶部121に記憶する。
【0059】
上述したように、取得部132は、センサデータとして、カメラが撮像した利用者の表情を示す画像データを取得する。例えば、取得部132は、利用者端末200が備えるフロントカメラによって撮像された利用者の表情を示す画像データを取得してよい。なお、取得部132が取得する画像データは、所定間隔ごとに撮像された静止画像であってもよく、任意の期間に亘って撮像された動画像であってもよい。取得部132は、利用者の表情を示す画像データを取得したら、取得した画像データをセンサデータとして、センサデータ記憶部121に記憶する。
【0060】
(検出部133について)
検出部133は、センサデータに基づいて、利用者が所定の行動を行ったことを検出する。ここで、所定の行動とは、利用者がコンテンツ参照時に求める情報と異なると感じたことや、利用者が参照中のコンテンツについて追加の情報が知りたいと感じたことを示唆する行動であってよい。例えば、利用者のコンテンツ参照時に、首を傾げた行動や、疑問に思った表情をした行動、所定の検索クエリによって検索した行動などであってもよい。例えば、検出部133は、ジャイロセンサによって計測された利用者のコンテンツ参照時の頭の動きの角速度に基づいて、利用者が首を傾げた行動を検出してよい。また、例えば、検出部133は、利用者端末200のカメラによって撮像された利用者の表情を示す画像データに基づいて、疑問に思った表情をした行動を検出してよい。
【0061】
また、上述したように、検出部133は、取得部132がセンサデータとしてジャイロセンサが計測した利用者の頭の動きの角速度を取得した場合であれば、利用者の頭の横方向の回転に対応する回転軸の角速度が所定の閾値を超えた場合に、利用者の頭を傾げる行動を検出してよい。なお、この場合の所定の閾値は、
図1に示す利用者Uが装着するヘッドフォン型のデバイスに設けられたジャイロセンサによって計測された利用者が頭を傾げたときの角速度の計測値を取得して、例えば、複数回にわたって計測された値の平均値としてよい。
【0062】
また、上述したように、検出部133は、取得部132がセンサデータとしてカメラが撮像した利用者の表情を示す画像データを取得した場合であれば、利用者の画像データに基づいて、利用者の表情の眉や頬、唇の動き、えくぼの有無、顎の角度といった特徴と、利用者の思念や、感情との関係を学習した学習済みモデルを用いて、利用者が疑問に思った表情をした行動を検出してよい。この場合の学習に用いるモデルは、例えば、CNN(Convolutional Neural Network)であってよい。
【0063】
(特定部134について)
特定部134は、利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定する。例えば、特定部134は、利用者端末200からマウスの操作や、キーボードの操作、タッチパネルの操作などの操作情報を取得して、利用者が参照しているコンテンツの情報と、操作情報と、センサデータに基づいて、検出部133が検出した所定の行動を行った時に参照していた範囲を特定してよい。例えば、特定部134は、利用者の表情を示す画像データに基づいて、視線検出処理を実行して、利用者の視線の先の範囲を、参照していた範囲として特定してよい。また、検出部133が、利用者の首を傾げた行動が検出された場合は、首を傾げた時の操作情報に基づいて、操作情報が示す範囲を参照していた範囲として特定してよい。例えば、首を傾げた時のマウスのポインタの位置や、タッチパネルのタッチ位置を参照していた範囲として特定してよい。また、検出部133が、疑問に思った表情をした行動が検出された場合も同様に、疑問に思った表情をした行動が検出された時にの操作情報に基づいて、操作情報が示す位置を参照していた範囲として特定してよい。
【0064】
(抽出部135について)
抽出部135は、コンテンツの特定した範囲と関連性を有する関連情報を抽出する。例えば、抽出部135は、コンテンツの範囲に対応付けて記憶されている関連情報を関連情報記憶部123から抽出する。関連情報記憶部123には、例えば、コンテンツがニュースの記事である場合であれば、ニュースの記事の文章の段落ごとに、関連情報を対応付けて記憶されている。また、ニュースの記事に画像についても、関連情報が対応付けて記憶されている。そのため、特定部134が、利用者が所定の行動を行った時に参照していた範囲として、ニュースの記事の文章の段落が特定されたとすると、抽出部135は、当該の段落に対応付けて記憶されている関連情報を、関連情報記憶部123から抽出する。
【0065】
また、抽出部135は、利用者が参照していた範囲と、関連情報との関係を学習した生成モデルによって、利用者が参照した範囲に基づいて関連情報を生成して、生成された関連情報のなかから利用者に提供する関連情報を抽出してもよい。また、抽出部135は、利用者が参照していた範囲に対する関連情報が蓄積されたデータベースから関連情報を検索したうえで、検索結果に含まれる関連情報から利用者に提供する関連情報を抽出してもよい。
【0066】
(出力部136について)
出力部136は、抽出した関連情報を音声により利用者端末200に出力させる。例えば、出力部136は、抽出部135が抽出した関連情報のテキストメッセージを音声として、利用者端末200に出力させてよい。なお、出力部136は、抽出された関連情報を利用者端末200に出力する方式は、音声に限定されることなく、その他の任意の方式によって利用者端末200に出力させてもよい。
【0067】
〔4.利用者端末の構成〕
次に、
図7を用いて、実施形態に係る利用者端末200の構成について説明する。
図7は、実施形態に係る利用者端末の構成例を示す図である。
図7に示すように、利用者端末200は、通信部210と、記憶部220と、入力部230と、出力部240と、センサ部250と、制御部260と、を有する。
【0068】
通信部210は、例えば、NIC、無線LANカード等によって実現される。そして、通信部210は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、情報処理装置100との間で各種の情報の送受信を行う。
【0069】
記憶部220は、主記憶装置と外部記憶装置とを備える。主記憶装置は、制御部260が実行するプログラム、あるいは制御部260が処理するデータを記憶する。主記憶装置は、例えば、RAM、ROM、フラッシュメモリ等のような半導体メモリ素子によって実現されてよい。外部記憶装置は、制御部260が処理するデータを保存する。外部記憶装置は、例えば、ハードディスクやSSD、磁気テープ、光ディスク等によって実現されてよい。
【0070】
入力部230は、利用者から各種の操作情報が入力される。例えば、入力部230は、タッチパネルにより表示面(例えば出力部240)を介して利用者からの各種操作を受け付けてもよい。また、入力部230は、利用者端末200に設けられたボタンや、利用者端末200に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
【0071】
出力部240は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット型端末等の表示画面であり、各種情報を表示するための表示装置である。つまり、利用者端末200は、入力部230がタッチパネルである場合は、出力部240である表示画面により利用者の入力を受け付け、利用者への出力も行う。また、出力部240は、スピーカーであってもよく、スピーカーにより音声を出力してよい。
【0072】
センサ部250は、利用者の状態を示すセンサデータを計測する。以下に、センサ部250の具体的な態様について説明する。なお、センサ部250は、利用者端末200と一体構造として設けられる必要はなく、無線により利用者端末200に接続されたデバイス(例えば、
図1に示すヘッドフォン型のデバイス)に設けられたものであってもよい。
【0073】
センサ部250は、ジャイロセンサであってよい。ジャイロセンサは、可動電極に一方向に振動する一次振動を発生させておき、可動電極に回転が加わると振動方向と90°の方向にコリオリの力が働くことにより二次振動が発生し、静電容量の変化が生じるため、これを検出する静電容量型MEMS(Micro Electro Mechanical Systems)ジャイロセンサであってよい。なお、静電容量の変化と可動電極の振動位相とにより角速度を求めることができる。
【0074】
センサ部250は、加速度センサであってもよい。加速度センサは、例えば、MEMSにより可動電極と固定電極を作り、可動電極が動くことによる静電容量の変化と加速度の関係を用いて加速度を計測する静電容量式の加速度センサであってよい。なお、センサ部250は、三軸ジャイロセンサと、三軸加速度センサと、三軸磁気センサを組み合わせた9DoF(Degree of Freedom)のIMU(Inertial Measurement Unit)であってもよい。
【0075】
センサ部250は、カメラであってもよい。カメラは、光学素子と撮像素子を含む。光学素子は、例えばレンズ、ミラー、プリズム、フィルタなどの光学系を構成する素子である。撮像素子は、光学素子を通して入射した光を電気信号である画像信号に変換する素子である。なお、撮像素子は、例えば、CCD(Charge Coupled Device)センサや、CMOS(Complementary Metal Oxide Semiconductor)センサなどであってよい。
【0076】
制御部260は、例えば、CPUやMPU等によって、利用者端末200に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部260は、例えば、ASICやFPGA等の集積回路により実現されてもよい。
【0077】
図7に示すように、制御部260は、受付部261と、提供部262と、を有する。
【0078】
受付部261は、利用者の操作を受け付ける。例えば、受付部261は、コンテンツに対する利用者の操作を受け付ける。受付部261は、出力部240のタッチパネルを介して、利用者の操作を受け付けてよく、例えば、コンテンツに対するスワイプ操作や、ドラッグ操作、フリック操作などを受け付けてよい。また、受付部261は、入力部230を介して、コンテンツに対するキーボード操作、マウス操作を受け付けてもよい。
【0079】
提供部262は、利用者に対してコンテンツを提供する。ここで、コンテンツは、ニュースの動画像、ニュースの記事のテキストや画像などであってよい。例えば、提供部262は、コンテンツが動画像である場合は、出力部240に動画像を出力させてコンテンツを提供する。また、提供部262は、コンテンツがテキスト、及び画像である場合は、出力部240にテキスト、及び画像を表示させることで、コンテンツを配信してよい。
【0080】
〔5.情報処理のフロー〕
次に、
図8を用いて、実施形態に係る情報処理の手順について説明する。
図8は、実施形態に係る情報処理の一例を示すフローチャートである。以下、
図8に示すフローチャートに沿って、実施形態に係る情報処理の手順について説明する。
【0081】
まず、情報処理装置100は、利用者端末にコンテンツを配信する(ステップS101)。次に、情報処理装置100は、コンテンツを参照する利用者の状態を示すセンサデータを取得する(ステップS102)。そして、情報処理装置100は、センサデータに基づいて、利用者が所定の行動を行ったことを検出する(ステップS103)。そして、情報処理装置100は、利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定する(ステップS104)。そして、情報処理装置100は、コンテンツの特定した範囲と関連性を有する関連情報を抽出する(ステップS105)。そして、情報処理装置100は、抽出した関連情報を音声により利用者端末に出力させる(ステップS106)。
【0082】
これによれば、コンテンツを参照する利用者の状態を示すセンサデータに基づいて、利用者が所定の行動を行ったことを検出し、利用者が所定の行動を行った時に参照していた範囲を特定して、参照していた範囲に関連する関連情報を提供することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理方法、及び情報処理プログラムを提供することができる。
【0083】
〔6.ハードウェア構成〕
また、上述した実施形態に係る情報処理装置100は、例えば
図9に示すような構成のコンピュータ1000によって実現される。
図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
【0084】
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが記憶される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
【0085】
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
【0086】
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
【0087】
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
【0088】
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
【0089】
例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、情報処理装置100の制御部130の機能を実現する。
【0090】
〔7.構成と効果〕
本開示に係る情報処理装置100は、利用者端末200にコンテンツを配信する配信部131と、コンテンツを参照する利用者の状態を示すセンサデータを取得する取得部132と、センサデータに基づいて、利用者が所定の行動を行ったことを検出する検出部133と、利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定する特定部134と、コンテンツの特定した範囲と関連性を有する関連情報を抽出する抽出部135と、抽出した関連情報を音声により利用者端末200に出力させる出力部136と、を備える。
【0091】
この構成によれば、コンテンツを参照する利用者の状態を示すセンサデータに基づいて、利用者が所定の行動を行ったことを検出し、利用者が所定の行動を行った時に参照していた範囲を特定して、参照していた範囲に関連する関連情報を提供することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理装置100を提供することができる。
【0092】
本開示に係る情報処理装置100の取得部132は、センサデータとして、ジャイロセンサが計測した利用者の頭の動きの角速度を取得し、検出部133は、角速度に基づいて、利用者が頭を傾げた行動を検出する。
【0093】
この構成によれば、センサデータとしてジャイロセンサが計測した利用者の頭の動きの角速度を取得し、ジャイロセンサの角速度に基づいて、利用者が頭を傾げた行動を検出して、当該の行動を行った時の利用者が参照していた範囲を特定して、参照していた範囲に関連する関連情報を提供することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理装置100を提供することができる。
【0094】
本開示に係る情報処理装置100の取得部132は、センサデータとして、カメラが撮像した利用者の表情を示す画像データを取得し、検出部133は、画像データに基づいて、利用者が疑問に思った表情をした行動を検出する。
【0095】
この構成によれば、センサデータとして、カメラが撮像した利用者の表情を示す画像データを取得し、画像データに基づいて、利用者が疑問に思った表情をした行動を検出して、当該の行動を行った時の利用者が参照していた範囲を特定して、参照していた範囲に関連する関連情報を提供することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理装置100を提供することができる。
【0096】
本開示に係る情報処理装置100の抽出部135は、利用者が参照していた範囲と、関連情報との関係を学習した生成モデルによって、利用者が参照した範囲に基づいて関連情報を生成して、生成された関連情報のなかから利用者に提供する関連情報を抽出する。
【0097】
この構成によれば、利用者が参照した範囲と、関連情報との関係を学習した生成モデルによって、関連情報を生成して、生成された関連情報のなかから関連情報を抽出することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理装置100を提供することができる。
【0098】
本開示に係る情報処理方法は、利用者端末200にコンテンツを配信するステップと、コンテンツを参照する利用者の状態を示すセンサデータを取得するステップと、センサデータに基づいて、利用者が所定の行動を行ったことを検出するステップと、利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定するステップと、コンテンツの特定した範囲と関連性を有する関連情報を抽出するステップと、抽出した関連情報を音声により利用者端末に出力させるステップと、を含む。
【0099】
この構成によれば、コンテンツを参照する利用者の状態を示すセンサデータに基づいて、利用者が所定の行動を行ったことを検出し、利用者が所定の行動を行った時に参照していた範囲を特定して、参照していた範囲に関連する関連情報を提供することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理方法を提供することができる。
【0100】
本開示に係る情報処理プログラムは、利用者端末200にコンテンツを配信するステップと、コンテンツを参照する利用者の状態を示すセンサデータを取得するステップと、センサデータに基づいて、利用者が所定の行動を行ったことを検出するステップと、利用者が参照するコンテンツのうち、当該利用者が所定の行動を行った時に参照していた範囲を特定するステップと、コンテンツの特定した範囲と関連性を有する関連情報を抽出するステップと、抽出した関連情報を音声により利用者端末に出力させるステップと、をコンピュータに実行させる。
【0101】
この構成によれば、コンテンツを参照する利用者の状態を示すセンサデータに基づいて、利用者が所定の行動を行ったことを検出し、利用者が所定の行動を行った時に参照していた範囲を特定して、参照していた範囲に関連する関連情報を提供することができる。そのため、利用者が容易に適切な関連情報を参照することができる情報処理プログラムを提供することができる。
【0102】
以上、本願の実施形態を図面に基づいて詳細に説明したが、これは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【0103】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、配信部131は、配信手段や配信回路に読み替えることができる。
【符号の説明】
【0104】
1 情報処理システム
100 情報処理装置
110 通信部
120 記憶部
121 センサデータ記憶部
122 コンテンツ記憶部
123 関連情報記憶部
130 制御部
131 配信部
132 取得部
133 検出部
134 特定部
135 抽出部
136 出力部
200 利用者端末
210 通信部
220 記憶部
230 入力部
240 出力部
250 センサ部
260 制御部
261 受付部
262 提供部
N ネットワーク