特許第6983731号(P6983731)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤフー株式会社の特許一覧

特許6983731情報処理プログラム、情報処理方法、端末装置及び解析装置
<>
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000002
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000003
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000004
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000005
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000006
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000007
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000008
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000009
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000010
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000011
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000012
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000013
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000014
  • 特許6983731-情報処理プログラム、情報処理方法、端末装置及び解析装置 図000015
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6983731
(24)【登録日】2021年11月26日
(45)【発行日】2021年12月17日
(54)【発明の名称】情報処理プログラム、情報処理方法、端末装置及び解析装置
(51)【国際特許分類】
   G06F 16/9035 20190101AFI20211206BHJP
   G06F 3/01 20060101ALI20211206BHJP
   G06F 3/0487 20130101ALI20211206BHJP
   H04N 21/442 20110101ALI20211206BHJP
   H04N 21/258 20110101ALI20211206BHJP
【FI】
   G06F16/9035
   G06F3/01 510
   G06F3/0487
   H04N21/442
   H04N21/258
【請求項の数】11
【全頁数】22
(21)【出願番号】特願2018-135833(P2018-135833)
(22)【出願日】2018年7月19日
(65)【公開番号】特開2020-13381(P2020-13381A)
(43)【公開日】2020年1月23日
【審査請求日】2020年8月19日
(73)【特許権者】
【識別番号】319013263
【氏名又は名称】ヤフー株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】特許業務法人酒井国際特許事務所
(72)【発明者】
【氏名】畑 元
【審査官】 甲斐 哲雄
(56)【参考文献】
【文献】 特開2009−044560(JP,A)
【文献】 国際公開第2013/057882(WO,A1)
【文献】 国際公開第2011/152149(WO,A1)
【文献】 米国特許出願公開第2015/0309566(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 16/00−16/958
G06F 3/01
G06F 3/0487
H04N 21/442
H04N 21/258
(57)【特許請求の範囲】
【請求項1】
所定の画面にコンテンツを表示する表示手順と、
表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得手順と、
表示された前記コンテンツに対する前記ユーザの操作に関する操作情報を取得する操作情報取得手順と、
前記所定の画面に表示されたコンテンツに関する表示情報と、前記視線情報と、前記操作情報とに基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析手順と、
をコンピュータに実行させ
前記解析手順は、前記ユーザが特定の前記コンテンツを目視した場合より、前記ユーザがすべての前記コンテンツを目視した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
情報処理プログラム。
【請求項2】
所定の画面にコンテンツを表示する表示手順と、
表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得手順と、
表示された前記コンテンツに対する前記ユーザの操作に関する操作情報を取得する操作情報取得手順と、
前記所定の画面に表示されたコンテンツに関する表示情報と、前記視線情報と、前記操作情報とに基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析手順と、
をコンピュータに実行させ、
前記解析手順は、前記ユーザが目視または注視した特定の前記コンテンツとは別の前記コンテンツを選択した場合より、前記ユーザが目視または注視した特定の前記コンテンツを選択した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
情報処理プログラム。
【請求項3】
所定の画面にコンテンツを表示する表示手順と、
表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得手順と、
表示された前記コンテンツに対する前記ユーザの操作に関する操作情報を取得する操作情報取得手順と、
前記所定の画面に表示されたコンテンツに関する表示情報と、前記視線情報と、前記操作情報とに基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析手順と、
をコンピュータに実行させ、
前記解析手順は、前記ユーザが前記所定の画面を目視または注視せずに特定の前記コンテンツを選択した場合より、前記ユーザが前記所定の画面を目視または注視して特定の前記コンテンツを選択した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
情報処理プログラム。
【請求項4】
前記視線情報取得手順は、表示された前記コンテンツにおいて前記ユーザが視認する領域および前記領域を視認する時間を前記視線情報として取得する
ことを特徴とする請求項1〜3のいずれか一つに記載の情報処理プログラム。
【請求項5】
前記解析手順は、前記ユーザが特定の前記コンテンツを目視した場合より、前記ユーザが特定の前記コンテンツを注視した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
ことを特徴とする請求項1〜のいずれか一つに記載の情報処理プログラム。
【請求項6】
コンピュータが実行する情報処理方法であって、
所定の画面にコンテンツを表示する表示工程と、
表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得工程と、
表示された前記コンテンツに対する前記ユーザの操作に関する操作情報を取得する操作情報取得工程と、
前記所定の画面に表示されたコンテンツに関する表示情報と、前記視線情報と、前記操作情報とに基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析工程と、
を含み、
前記解析工程は、前記ユーザが特定の前記コンテンツを目視した場合より、前記ユーザがすべての前記コンテンツを目視した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
ことを特徴とする情報処理方法。
【請求項7】
コンピュータが実行する情報処理方法であって、
所定の画面にコンテンツを表示する表示工程と、
表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得工程と、
表示された前記コンテンツに対する前記ユーザの操作に関する操作情報を取得する操作情報取得工程と、
前記所定の画面に表示されたコンテンツに関する表示情報と、前記視線情報と、前記操作情報とに基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析工程と、
を含み、
前記解析工程は、前記ユーザが目視または注視した特定の前記コンテンツとは別の前記コンテンツを選択した場合より、前記ユーザが目視または注視した特定の前記コンテンツを選択した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
ことを特徴とする情報処理方法。
【請求項8】
コンピュータが実行する情報処理方法であって、
所定の画面にコンテンツを表示する表示工程と、
表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得工程と、
表示された前記コンテンツに対する前記ユーザの操作に関する操作情報を取得する操作情報取得工程と、
前記所定の画面に表示されたコンテンツに関する表示情報と、前記視線情報と、前記操作情報とに基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析工程と、
を含み、
前記解析工程は、前記ユーザが前記所定の画面を目視または注視せずに特定の前記コンテンツを選択した場合より、前記ユーザが前記所定の画面を目視または注視して特定の前記コンテンツを選択した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
ことを特徴とする情報処理方法。
【請求項9】
所定の画面にコンテンツを表示する表示部と、
表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得部と、
表示された前記コンテンツに対する前記ユーザの操作に関する操作情報を取得する操作情報取得部と、
前記所定の画面に表示されたコンテンツに関する表示情報と、前記視線情報と、前記操作情報とに基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析部と、
を備え
前記解析部は、前記ユーザが特定の前記コンテンツを目視した場合より、前記ユーザがすべての前記コンテンツを目視した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
ことを特徴とする端末装置。
【請求項10】
所定の画面にコンテンツを表示する表示部と、
表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得部と、
表示された前記コンテンツに対する前記ユーザの操作に関する操作情報を取得する操作情報取得部と、
前記所定の画面に表示されたコンテンツに関する表示情報と、前記視線情報と、前記操作情報とに基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析部と、
を備え、
前記解析部は、前記ユーザが目視または注視した特定の前記コンテンツとは別の前記コンテンツを選択した場合より、前記ユーザが目視または注視した特定の前記コンテンツを選択した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
ことを特徴とする端末装置。
【請求項11】
端末装置の所定の画面に表示されたコンテンツに関する表示情報と、前記端末装置で取得された前記コンテンツに対するユーザの視線に関する視線情報とを取得する取得部と、
取得された前記表示情報および前記視線情報に基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析部と、
を備え
前記解析部は、前記ユーザが特定の前記コンテンツを目視した場合より、前記ユーザがすべての前記コンテンツを目視した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
解析装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理プログラム、情報処理方法、端末装置及び解析装置に関する。
【背景技術】
【0002】
近年、様々なアプリやウェブサービスなどからユーザのアクション情報を取得し、かかるアクション情報に基づいて機械学習を行うことでサービスの改善を行う技術が知られている。かかるユーザのアクション情報は、たとえば、端末装置の画面にどのコンテンツが表示されていたか(表示の有無)や、表示されたコンテンツのうちどのコンテンツがクリックやタップなどで選択されたか(選択の有無)である。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2014−203442号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来の技術では、詳細なアクション情報を取得しているとは言えない場合がある。例えば、従来の技術では、コンテンツに対する評価の指標が表示の有無および選択の有無のみであるので、コンテンツに対するユーザのリッチなアクション情報を得ることが難しいという問題がある。
【0005】
本願は、上記に鑑みてなされたものであって、より詳細なアクション情報を得ることができる情報処理プログラム、情報処理方法、端末装置及び解析装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本願に係る情報処理プログラムは、表示手順と、視線情報取得手順とをコンピュータに実行させる。表示手順は、所定の画面にコンテンツを表示する。視線情報取得手順は、表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する。
【発明の効果】
【0007】
実施形態の一態様によれば、より詳細なアクション情報を得ることができる情報処理プログラム、情報処理方法、端末装置及び解析装置を提供することができる。
【図面の簡単な説明】
【0008】
図1図1は、実施形態に係る情報処理方法の一例を示す説明図である。
図2図2は、実施形態に係る情報処理システムの構成の一例を示す説明図である。
図3図3は、実施形態に係る端末装置の構成の一例を示す説明図である。
図4図4は、実施形態に係る解析装置の構成の一例を示す説明図である。
図5図5は、実施形態に係る得点定義データベースの一例を示す説明図である。
図6図6は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。
図7図7は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。
図8図8は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。
図9図9は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。
図10図10は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。
図11図11は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。
図12図12は、実施形態に係る端末装置の制御部が実行する処理を示すフローチャートである。
図13図13は、実施形態に係る解析装置の制御部が実行する処理を示すフローチャートである。
図14図14は、実施形態に係る解析装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0009】
以下に、本願に係る情報処理プログラム、情報処理方法、端末装置及び解析装置を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理プログラム、情報処理方法、端末装置及び解析装置が限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
【0010】
〔1.情報処理方法〕
まず、実施形態に係る端末装置1が行う情報処理方法について説明する。図1は、実施形態に係る情報処理方法の一例を示す説明図である。ここでは、端末装置1がネットワークN(図2参照)を介してコンテンツ配信装置3(図2参照)からコンテンツCを取得して表示する場合に行う情報処理方法について説明する。
【0011】
図1に示す端末装置1は、スマートフォンやタブレット等のスマートデバイスであり、3G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置1は、液晶ディスプレイ等の出力部13と、ユーザの視線情報を取得する視線センサ14とを備える。
【0012】
なお、端末装置1には、タッチパネルが採用されているものとする。すなわち、端末装置1のユーザは、指や専用ペンで出力部13の表示面をタッチすることにより各種操作を行う。
【0013】
コンテンツCは、たとえばニュース記事であり、記事A〜Eなどが含まれる。なお、コンテンツCはニュース記事に限られず、端末装置1で表示可能なコンテンツであればどのようなコンテンツであってもよい。
【0014】
そして、端末装置1は、かかるコンテンツCを出力部13に表示する(ステップS01)。図1の(a)では、コンテンツCのうち、記事A〜Dが出力部13に表示された例について示している。
【0015】
次に、端末装置1は、図1の(b)に示すように、視線センサ14を用いることにより、出力部13に表示されたコンテンツCに対するユーザの視線Eに関する情報(以下、視線情報とも呼称する。)を取得する(ステップS02)。
【0016】
たとえば、端末装置1は、かかる視線情報として、表示されたコンテンツCにおいてユーザが視認する領域Rと、かかる領域Rを視認する時間とを取得する。図1の(b)では、出力部13に表示された記事A〜Dのうち、ユーザが視認する領域Rに記事Bが含まれる例、すなわちユーザが記事Bを視認する例について示している。
【0017】
視線センサ14は、たとえば、ユーザの眼球に弱い赤外線を照射するとともに、かかる赤外線が照射された眼球をカメラで撮像するいわゆるアイトラッキング法により、ユーザが視認する領域Rを計測することができる。
【0018】
なお、視線センサ14でユーザの視線を計測する手法はアイトラッキング法に限られず、その他の既知の手法(たとえば、眼球の焦点を利用する手法)が用いられてもよい。
【0019】
次に、端末装置1は、図1の(c)に示すように、出力部13に表示されたコンテンツCに対するユーザの操作に関する情報(以下、操作情報とも呼称する。)を取得する(ステップS03)。
【0020】
たとえば、端末装置1は、かかる操作情報として、表示されたコンテンツCのうちユーザが選択したコンテンツに関する情報を取得する。図1の(c)では、出力部13に表示された記事A〜Dのうち、ユーザが視認する記事Bをタップして選択した例について示している。
【0021】
ここまで説明したように、実施形態では、ユーザのアクション情報として、コンテンツCの表示の有無に加えて、表示されたコンテンツCに対するユーザの視線情報を取得する。これにより、より詳細なアクション情報を得ることができる。
【0022】
また、実施形態では、ユーザのアクション情報として、表示されたコンテンツCに対するユーザの操作情報を取得する。これにより、さらに詳細なアクション情報を得ることができる。なお、ユーザの視線や操作がどのような場合に、どのようなアクション情報を得ることができるかについては後述する。
【0023】
〔2.情報処理システムの構成〕
次に、図2を参照して、実施形態に係る情報処理システム100の構成について説明する。図2は、実施形態に係る情報処理システム100の構成の一例を示す説明図である。図2に示すように、実施形態に係る情報処理システム100は、端末装置1、解析装置2、およびコンテンツ配信装置3を含む。
【0024】
端末装置1は、コンテンツを閲覧するユーザによって利用される情報処理装置である。例えば、端末装置1は、スマートフォン等の携帯電話機や、タブレット端末や、PDA(Personal Digital Assistant)や、デスクトップ型PC(Personal Computer)や、ノート型PC等である。端末装置1は、ユーザによる操作にしたがって、コンテンツ配信装置3からコンテンツCを取得し、取得したコンテンツCを表示する。
【0025】
解析装置2は、例えば、サーバであり、端末装置1に表示されたコンテンツCに関する情報(以下、表示情報とも呼称する。)と、端末装置1で取得された上述の視線情報および操作情報とを取得する。また、解析装置2は、取得された表示情報、視線情報および操作情報に基づいて、コンテンツCに対するユーザの評価について解析する。
【0026】
コンテンツ配信装置3は、端末装置1にコンテンツCを配信するコンテンツサーバ等である。例えば、コンテンツ配信装置3は、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、ウェブブログなどに関連する各種コンテンツを端末装置1に配信する。
【0027】
これら端末装置1と解析装置2とコンテンツ配信装置3とは、例えば、無線LAN(Local Area Network)通信や、WAN(Wide Area Network)通信、携帯電話通信などによってネットワーク(例えば、インターネット)Nを介して接続され、双方の間で各種情報の通信が可能である。
【0028】
〔3.端末装置の構成〕
次に、図3を参照して、実施形態に係る端末装置1の構成について説明する。図3は、実施形態に係る端末装置1の構成の一例を示す説明図である。図3に示すように、端末装置1は、通信部11と、入力部12と、出力部13と、視線センサ14と、制御部15とを備える。
【0029】
(通信部11について)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。通信部11は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、解析装置2や、コンテンツ配信装置3との間で情報の送受信を行う。
【0030】
(入力部12について)
入力部12は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部12は、キーボードやマウスや操作キー等によって実現される。
【0031】
(出力部13について)
出力部13は、各種情報を表示するための表示装置である。例えば、出力部13は、液晶ディスプレイ等によって実現される。なお、端末装置1にタッチパネルが採用される場合には、入力部12と出力部13とは一体化される。また、本願の説明では、出力部13を画面と記載する場合がある。
【0032】
(視線センサ14について)
視線センサ14は、ユーザの視線Eに関する視線情報を取得する。たとえば、視線センサ14は、赤外線照射部と、カメラとを備える。そして、視線センサ14は、かかる赤外線照射部を用いてユーザの眼球に弱い赤外線を照射するとともに、かかる赤外線が照射された眼球をカメラで撮像することによって、ユーザの眼球の動きを検出する。これにより、視線センサ14は、ユーザが視認する領域Rを計測することができる。
【0033】
また、視線センサ14は、ユーザの眼球の動きを検出することにより、ユーザが領域Rを視認する時間を計測することができる。
【0034】
(制御部15について)
制御部15は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置1内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM(Random Access Memory)を作業領域として実行されることにより実現される。また、制御部15は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
【0035】
図3に示すように、制御部15は、要求部151と、操作制御部152と、表示制御部153と、視線情報取得部156とを備え、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
【0036】
(要求部151について)
要求部151は、操作制御部152を介してユーザからコンテンツCの取得要求を受信した場合に、コンテンツ配信装置3に対してコンテンツCの取得要求を送信する。
【0037】
(操作制御部152について)
操作制御部152は、入力部12を介して受け付けたユーザの操作にしたがって、各種制御を実行する。例えば、操作制御部152は、ユーザが入力部12に対してコンテンツCの表示操作を行った場合に、表示対象となるコンテンツCの情報を要求部151に出力する。
【0038】
また、操作制御部152は、入力部12を介して受け付けたユーザの操作の内容を表示制御部153に出力する。さらに、操作制御部152は、表示されたコンテンツCに対するユーザの操作に関する情報(すなわち操作情報)を取得する。すなわち、操作制御部152は、操作情報取得部の一例である。
【0039】
(表示制御部153について)
表示制御部153は、受信したコンテンツCを出力部13に表示する処理を実行する。例えば、表示制御部153は、制御部150が、制御情報を実行することで、図3に示すように表示部154、表示情報取得部155として動作し、各種処理を実行する。表示部154、表示情報取得部155は、例えば、CPUやMPU等によって、制御情報がRAMを作業領域として実行されることにより実現される。
【0040】
(表示部154について)
表示部154は、各種情報を表示する。例えば、表示部154は、出力部13を介して各種情報を表示する。例えば、表示部154は、端末装置1において起動された各種サービスを実行するためのアプリケーションの画面を表示する。
【0041】
また、表示部154は、端末装置1において各種コンテンツを閲覧するアプリケーションが起動され、かかるアプリケーションを介してユーザからコンテンツCの閲覧要求があった場合に、かかるコンテンツCを出力部13を介して表示する。
【0042】
(表示情報取得部155について)
表示情報取得部155は、ユーザが表示操作を行ったコンテンツCが表示部154で表示された場合に、かかる表示されたコンテンツCに関する表示情報を取得する。たとえば、表示情報取得部155は、図1に示したように記事A〜Dが出力部13に表示された場合、かかる記事A〜Dを表示情報として取得する。
【0043】
(視線情報取得部156について)
視線情報取得部156は、視線センサ14からユーザの視線Eに関する視線情報を取得する。たとえば、視線情報取得部156は、視線センサ14から、ユーザが視認する領域Rおよびユーザが領域Rを視認する時間に関する情報を取得することができる。
【0044】
〔4.解析装置の構成〕
次に、図4を参照して、実施形態に係る解析装置2の構成について説明する。図4は、実施形態に係る解析装置2の構成の一例を示す説明図である。図4に示すように、解析装置2は、通信部21と、記憶部22と、制御部23とを備える。なお、解析装置2は、かかる解析装置2を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
【0045】
(通信部21について)
通信部21は、例えば、NIC等によって実現される。通信部21は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、端末装置1や、コンテンツ配信装置3との間で情報の送受信を行う。
【0046】
(記憶部22について)
記憶部22は、例えば、RAM、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図4に示すように、記憶部22は、得点定義データベース221を有する。
【0047】
(得点定義データベース221について)
得点定義データベース221は、コンテンツCに対するユーザの評価を得点化するための得点定義データが記憶される。図5は、実施形態に係る得点定義データベース221の一例を示す説明図である。
【0048】
例えば、図5に示すように、得点定義データベース221には、表示情報に含まれる(すなわち、出力部13に表示された)コンテンツCにおいて、かかるコンテンツCに関する視線情報と、操作情報と、得点とが対応付けられて登録されている。
【0049】
例えば、図5に示す得点定義データベース221は、視線情報として「特定のコンテンツを目視」、「特定のコンテンツを注視」、「すべてのコンテンツを目視」」といった項目を有する。また、図5に示す得点定義データベース221は、操作情報として「特定のコンテンツを選択」、「別のコンテンツを選択」といった項目を有する。
【0050】
すなわち、図5の例では、表示部154に表示されたコンテンツCに対して、「特定のコンテンツを注視」が「Yes」であり、「特定のコンテンツを選択」が「Yes」であり、その他の視線情報および操作情報が「No」である場合に、「得点」が「5」点であることを示している。
【0051】
また、表示部154に表示されたコンテンツCに対して、「特定のコンテンツを注視」が「Yes」であり、「別のコンテンツを選択」が「Yes」であり、その他の視線情報および操作情報が「No」である場合に、「得点」が「4」点であることを示している。
【0052】
なお、図5に示す例はあくまで一例であり、視線情報の詳細な項目や操作情報の詳細な項目、得点などは様々に定義されていてもよい。
【0053】
(制御部23について)
制御部23は、コントローラ(controller)であり、例えば、CPUやMPU等によって、解析装置2内部の記憶装置に記憶されている各種プログラム(解析プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部23は、例えば、コントローラであり、ASICやFPGA等の集積回路により実現される。
【0054】
図4に示すように、制御部23は、取得部231と、解析部232とを備え、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部23の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
【0055】
(取得部231について)
取得部231は、端末装置1から上述の表示情報、視線情報および操作情報を取得する。すなわち、取得部231は、端末装置1で表示されたコンテンツCに関する情報と、かかるコンテンツCに対するユーザの視線Eに関する情報と、表示されたコンテンツCに対するユーザの操作に関する情報とを取得する。
【0056】
(解析部232について)
解析部232は、取得部231で取得した表示情報、視線情報および操作情報に基づいて、コンテンツCに対するユーザの評価について解析する処理を実行する。例えば、解析部232は、制御部230が、制御情報を実行することで、図4に示すように評価部233、学習部234として動作し、各種処理を実行する。評価部233、学習部234は、例えば、CPUやMPU等によって、制御情報がRAMを作業領域として実行されることにより実現される。
【0057】
(評価部233について)
評価部233は、コンテンツCに対するユーザの評価を得点として評価する。たとえば、評価部233は、コンテンツCに関する表示情報、視線情報および操作情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する。
【0058】
(学習部234について)
学習部234は、評価部233で付与されたコンテンツCに対する得点を機械学習によって学習することで、図示しない学習モデルを生成する。たとえば、学習部234は、公知の種々の手法を適用することにより、かかる学習モデルを作成することができる。そして、実施形態では、かかる学習モデルを用いることにより、ユーザに対するサービスの改善を精度よく行うことができる。
【0059】
例えば、学習部234は、ユーザが視認しやすいコンテンツCの推定モデルを学習してもよく、ユーザが視認して閲覧しやすいコンテンツCの推定モデルを学習してもよい。例えば、学習部234は、後述する得点パターンに基づいて、ユーザが視認しやすいコンテンツC(すなわち、正例)とユーザが視認しにくいコンテンツC(すなわち、負例)とを特定し、特定した各コンテンツCの内容やコンテンツCの見た目を示す画像を学習データとして、モデルに学習させることで、ユーザが視認しやすいコンテンツCを推定するモデルを学習してもよい。
【0060】
また、例えば、学習部234は、後述する得点パターンに基づいて、ユーザが視認して閲覧したコンテンツC(すなわち、正例)とユーザが視認したが閲覧しなかったコンテンツC(すなわち、負例)とを特定し、特定した各コンテンツCの内容やコンテンツCの見た目を示す画像を学習データとしてモデルに学習させることで、ユーザが閲覧しやすいコンテンツCを推定するモデルを学習してもよい。
【0061】
〔5.端末装置および解析装置の動作〕
次に、図6図11を参照して、端末装置1および解析装置2の動作の一例について説明する。図6図11は、実施形態に係る端末装置1および解析装置2の動作の一例を示す説明図である。
【0062】
〔5−1.得点パターン例1〕
図6の(a)に示す例において、ユーザは、端末装置1を用いて、コンテンツC(図1参照)のうち記事A〜Dを出力部13に表示させている。この場合、端末装置1は、表示情報取得部155を用いて、表示されたコンテンツ(ここでは記事A〜D)に関する表示情報を取得する(ステップS11)。
【0063】
そして、図6の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)のうち、特定のコンテンツ(図では記事B)を注視している。この場合、端末装置1は、視線センサ14を用いて、「特定のコンテンツ(記事B)を注視した」という視線情報を取得する(ステップS12)。
【0064】
実施形態において、「注視する」(以降の図面では視線Eを太線で図示)とは、所定の時間(例えば、250ミリ秒)以上の間、同じ領域Rに視線Eが保持されることを示している。また、「目視する」(以降の図面では視線Eを破線で図示)とは、所定の時間より短い間、同じ領域Rに視線Eが保持されることを示している。
【0065】
なお、「注視する」は、所定の時間以上の間、同じ領域Rに視線Eが保持される場合に限られず、たとえば、所定の時間以上の間、同じ文章を流し目で追って見ることなども含まれる。また、本願の説明において、「視認する」には、「注視する」と「目視する」とのいずれもが含まれる。
【0066】
図6の説明に戻る。つぎに、図6の(b)に示すように、ユーザは、注視した特定のコンテンツ(すなわち、記事B)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「特定のコンテンツを選択した」という操作情報を取得する(ステップS13)。
【0067】
そして、解析装置2は、端末装置1から上述の表示情報、視線情報および操作情報を取得する(ステップS14)。さらに、解析装置2は、取得された表示情報、視線情報および操作情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS15)。
【0068】
たとえば、図6で示した例において、記事Bは、ユーザに注視されるとともに選択されていることから、得点定義データベース221において「特定のコンテンツを注視=Yes」および「特定のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「5点」として評価する。
【0069】
次に、解析装置2は、評価された得点に基づいて機械学習を行い(ステップS16)、学習モデルを生成する。そして、実施形態では、かかる学習モデルを用いることにより、ユーザに対するサービスの改善を精度よく行うことができる。
【0070】
たとえば、図6で示した例において、記事Bに対するユーザの挙動は、表示内容を理解した上で、より深い内容を知るために選択したと推定することができる。したがって、実施形態では、かかる記事Bに対して高い得点を付与することにより、ユーザに対して記事Bに関連する多くの情報をリコメンドすることができる。
【0071】
〔5−2.得点パターン例2〕
図7の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)のうち、特定のコンテンツ(図では記事B)を注視している。この場合、端末装置1は、視線センサ14を用いて、「特定のコンテンツ(記事B)を注視した」という視線情報を取得する(ステップS21)。
【0072】
つぎに、図7の(b)に示すように、ユーザは、注視した特定のコンテンツとは別のコンテンツ(図では記事C)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「別のコンテンツを選択した」という操作情報を取得する(ステップS22)。
【0073】
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS23)。
【0074】
たとえば、図7で示した例において、記事Bは、ユーザに注視される一方で選択はされていないことから、得点定義データベース221において「特定のコンテンツを注視=Yes」および「別のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「4点」として評価する。
【0075】
すなわち、図7で示した例において、記事Bに対するユーザの挙動は、表示内容を理解し興味も持ったが、別のコンテンツ(記事C)がより気になる内容だったため後回しにしたと推定することができる。
【0076】
したがって、かかる記事Bはユーザの見たい情報である可能性が高いことから、実施形態では、記事Bに対してある程度高い得点を付与することにより、ユーザに対して記事Bに関連する情報をリコメンドすることができる。
【0077】
〔5−3.得点パターン例3〕
図8の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)をすべて目視している。この場合、端末装置1は、視線センサ14を用いて、「すべてのコンテンツを目視した」という視線情報を取得する(ステップS31)。
【0078】
つぎに、図8の(b)に示すように、ユーザは、表示されたコンテンツの中から特定のコンテンツ(図では記事B)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「特定のコンテンツを選択した」という操作情報を取得する(ステップS32)。
【0079】
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS33)。
【0080】
たとえば、図8で示した例では、すべてのコンテンツを目視し、その中から特定のコンテンツ(ここでは記事B)を選択していることから、かかる記事Bは、得点定義データベース221において「すべてのコンテンツを目視=Yes」および「特定のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「3点」として評価する。
【0081】
すなわち、図8で示した例において、ユーザの挙動は、すべてのコンテンツを確認した上でもっとも興味のあるもの(すなわち、記事B)を選択したと推定することができる。
【0082】
したがって、実施形態では、記事Bにある程度高い得点を付与して、ユーザに対して記事Bに関連するより詳細な内容をリコメンドすることにより、提供されるサービスがユーザに興味を持たれるように誘導することができる。
【0083】
〔5−4.得点パターン例4〕
図9の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)のうち、特定のコンテンツ(図では記事B)を目視している。この場合、端末装置1は、視線センサ14を用いて、「特定のコンテンツ(記事B)を目視した」という視線情報を取得する(ステップS41)。
【0084】
つぎに、図9の(b)に示すように、ユーザは、目視した特定のコンテンツ(すなわち、記事B)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「特定のコンテンツを選択した」という操作情報を取得する(ステップS42)。
【0085】
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS43)。
【0086】
たとえば、図9で示した例において、記事Bは、ユーザに目視されるとともに選択されていることから、得点定義データベース221において「特定のコンテンツを目視=Yes」および「特定のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「2点」として評価する。
【0087】
すなわち、図9で示した例において、記事Bに対するユーザの挙動は、内容をあまり見ずに印象だけでより詳細な内容を見ようとしたと推定することができる。
【0088】
したがって、ユーザはサービス内を回遊する可能性が高いことから、実施形態では、記事Bに対して比較的低い得点を付与することにより、ユーザに対して記事Bとは別のコンテンツをリコメンドすることができる。
【0089】
〔5−5.得点パターン例5〕
図10の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)のうち、特定のコンテンツ(図では記事B)を目視している。この場合、端末装置1は、視線センサ14を用いて、「特定のコンテンツ(記事B)を目視した」という視線情報を取得する(ステップS51)。
【0090】
つぎに、図10の(b)に示すように、ユーザは、目視した特定のコンテンツとは別のコンテンツ(図では記事C)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「別のコンテンツを選択した」という操作情報を取得する(ステップS52)。
【0091】
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS53)。
【0092】
たとえば、図10で示した例において、記事Bは、ユーザに目視される一方で選択はされていないことから、得点定義データベース221において「特定のコンテンツを目視=Yes」および「別のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「1点」として評価する。
【0093】
すなわち、図10で示した例において、ユーザの挙動は、記事Bを確認したが興味は無かったと推定することができる。したがって、かかる記事Bはリコメンドする必要が無い可能性が高いことから、実施形態では、記事Bに対して低い得点を付与することにより、ユーザに対して記事Bに関連する情報をリコメンドしないようにすることができる。
【0094】
〔5−6.得点パターン例6〕
図11の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)を目視していない。この場合、端末装置1は、視線センサ14を用いて、「表示されたコンテンツを目視していない」という視線情報を取得する(ステップS61)。
【0095】
つぎに、図11の(b)に示すように、ユーザは、表示されたコンテンツの中から特定のコンテンツ(図では記事B)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「特定のコンテンツを選択した」という操作情報を取得する(ステップS62)。
【0096】
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS63)。
【0097】
たとえば、図11で示した例では、コンテンツを目視していないにもかかわらず特定のコンテンツ(ここでは記事B)を選択していることから、かかる記事Bは、得点定義データベース221におけるすべての目視情報が「No」であり、かつ「特定のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「0点」として評価する。
【0098】
すなわち、図11で示した例において、ユーザの挙動は、記事Bを誤って選択したと推定することができる。したがって、かかる記事Bに対して得点を付与するのは妥当ではないと考えられることから、解析装置2は、記事Bに対して「0点」を付与することにより、選択されたコンテンツに妥当ではない評価が付与されることを抑制することができる。
【0099】
なお、得点として「0点」が付与される場合は上記の例に限られず、たとえば、まったく視認されていないコンテンツに対して「0点」を付与してもよい。なぜなら、まったく視認されていないコンテンツは、ユーザに認知すらされていないからである。
【0100】
ここまで説明したように、実施形態では、ユーザのアクション情報として、表示情報および操作情報に加えて、視線情報を取得することにより、より詳細なアクション情報を得ることができる。
【0101】
また、実施形態では、表示されたコンテンツCにおいてユーザが視認する領域Rおよび領域Rを視認する時間を視線情報として取得する。これにより、ユーザの視認するコンテンツCが注視されているか、あるいは目視されているかを判別することができる。
【0102】
したがって、実施形態によれば、さらに詳細なアクション情報を得ることができる。
【0103】
〔6.処理手順〕
次に、図12および図13を参照して、端末装置1の制御部15および解析装置2の制御部23が実行する処理について説明する。図12は、実施形態に係る端末装置1の制御部15が実行する処理を示すフローチャートである。
【0104】
図12に示すように、制御部15は、まず、コンテンツCを表示する(ステップS101)。次に、制御部15は、視線センサ14を用いることにより、出力部13に表示されたコンテンツCに対するユーザの視線情報を取得する(ステップS102)。
【0105】
そして、制御部15は、出力部13に表示されたコンテンツCに対するユーザの操作情報を取得し(ステップS103)、処理を終了する。
【0106】
図13は、実施形態に係る解析装置2の制御部23が実行する処理を示すフローチャートである。図13に示すように、制御部23は、まず、端末装置1から表示情報、視線情報および操作情報を取得する(ステップS201)。
【0107】
次に、制御部23は、取得された表示情報、視線情報および操作情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS202)。
【0108】
そして、制御部23は、評価された得点に基づいて機械学習を行い(ステップS203)、学習モデルを生成して処理を終了する。
【0109】
〔7.ハードウェア構成〕
なお、実施形態における端末装置1および解析装置2は、例えば図14に示すような構成のコンピュータ50によって実現される。図14は、解析装置2の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ50は、CPU51、RAM52、ROM(Read Only Memory)53、HDD(Hard Disk Drive)54、通信インターフェイス(I/F)55、入出力インターフェイス(I/F)56、およびメディアインターフェイス(I/F)57を備える。
【0110】
CPU51は、ROM53またはHDD54に記憶されたプログラムに基づいて動作し、各部の制御を行う。ROM53は、コンピュータ50の起動時にCPU51によって実行されるブートプログラムや、コンピュータ50のハードウェアに依存するプログラム等を記憶する。
【0111】
HDD54は、CPU51によって実行されるプログラム、および当該プログラムによって使用されるデータ等を記憶する。通信インターフェイス55は、通信部21に対応し、ネットワークNを介して他の機器からデータを受信してCPU51へ送り、CPU51が生成したデータを、ネットワークNを介して他の機器へ送信する。
【0112】
CPU51は、入出力インターフェイス56を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU51は、入出力インターフェイス56を介して、入力装置からデータを取得する。また、CPU51は、生成したデータを、入出力インターフェイス56を介して出力装置へ出力する。
【0113】
メディアインターフェイス57は、記録媒体58に記憶されたプログラムまたはデータを読み取り、RAM52を介してCPU51に提供する。CPU51は、当該プログラムを、メディアインターフェイス57を介して記録媒体58からRAM52上にロードし、ロードしたプログラムを実行する。記録媒体58は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
【0114】
例えば、コンピュータ50が実施形態に係る解析装置2として機能する場合、コンピュータ50のCPU51は、RAM52上にロードされたプログラムを実行することにより、制御部23の機能を実現する。また、HDD54には、記憶部22内のデータが記憶される。コンピュータ50のCPU51は、これらのプログラムを記録媒体58から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
【0115】
〔8.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
【0116】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。たとえば、実施形態では、視線情報を用いて端末装置1に配信されるコンテンツCを評価する例について示したが、評価される対象はコンテンツに限られず、たとえば、端末装置1に配信される広告を評価してもよい。
【0117】
また、実施形態では、視線情報取得部156により取得された視線情報をユーザの属性を示す属性情報(サイコグラフィック属性やデモグラフィック属性など)として活用してもよい。また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
【0118】
〔9.効果〕
上述してきたように、実施形態に係る情報処理プログラムは、所定の画面にコンテンツCを表示する表示手順と、表示されたコンテンツCに対するユーザの視線Eに関する視線情報を取得する視線情報取得手順と、をコンピュータに実行させる。
【0119】
これにより、より詳細なアクション情報を得ることができる。
【0120】
また、実施形態に係る情報処理プログラムにおいて、視線情報取得手順は、表示されたコンテンツCにおいてユーザが視認する領域Rおよび領域Rを視認する時間を視線情報として取得する。
【0121】
これにより、ユーザの視認するコンテンツCが注視されているか、あるいは目視されているかを判別することができる。
【0122】
また、実施形態に係る情報処理プログラムは、表示されたコンテンツCに対するユーザの操作に関する操作情報を取得する操作情報取得手順をさらにコンピュータに実行させる。
【0123】
これにより、さらに詳細なアクション情報を得ることができる。
【0124】
また、実施形態に係る情報処理プログラムは、所定の画面に表示されたコンテンツに関する表示情報と、視線情報と、操作情報とに基づいて、コンテンツCに対するユーザの評価について解析する解析手順をさらにコンピュータに実行させる。
【0125】
これにより、端末装置1から得られるより詳細なアクション情報に基づいて、ユーザに対するサービスの改善を精度よく行うための学習モデルを作成することができる。
【0126】
また、実施形態に係る情報処理プログラムにおいて、解析手順は、ユーザが特定のコンテンツCを目視した場合より、ユーザが特定のコンテンツCを注視した場合のほうが特定のコンテンツに対するユーザの評価を高くする。
【0127】
これにより、取得されたより詳細なアクション情報に基づいて、ユーザに対して適切な情報をリコメンドすることができる。
【0128】
また、実施形態に係る情報処理プログラムにおいて、解析手順は、ユーザが特定のコンテンツCを目視した場合より、ユーザがすべてのコンテンツCを目視した場合のほうが特定のコンテンツに対するユーザの評価を高くする。
【0129】
これにより、取得されたより詳細なアクション情報に基づいて、ユーザに対して適切な情報をリコメンドすることができる。
【0130】
また、実施形態に係る情報処理プログラムにおいて、解析手順は、ユーザが目視または注視した特定のコンテンツCとは別のコンテンツCを選択した場合より、ユーザが目視または注視した特定のコンテンツCを選択した場合のほうが特定のコンテンツCに対するユーザの評価を高くする。
【0131】
これにより、取得されたより詳細なアクション情報に基づいて、ユーザに対して適切な情報をリコメンドすることができる。
【0132】
また、実施形態に係る情報処理プログラムにおいて、解析手順は、ユーザが所定の画面を目視または注視せずに特定のコンテンツを選択した場合より、ユーザが所定の画面を目視または注視して特定のコンテンツを選択した場合のほうが特定のコンテンツに対するユーザの評価を高くする。
【0133】
これにより、取得されたより詳細なアクション情報に基づいて、ユーザに対して適切な情報をリコメンドすることができる。
【0134】
また、実施形態に係る解析装置2は、取得部231と、解析部232とを備える。取得部231は、端末装置1に表示されたコンテンツCに関する表示情報と、端末装置1で取得されたコンテンツCに対するユーザの視線Eに関する視線情報とを取得する。解析部232は、取得された表示情報および視線情報に基づいて、コンテンツCに対するユーザの評価について解析する。
【0135】
これにより、解析装置2は、端末装置1から得られるより詳細なアクション情報に基づいて、ユーザに対するサービスの改善を精度よく行うための学習モデルを作成することができる。
【0136】
以上、本願の実施形態を図面に基づいて詳細に説明したが、これは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【0137】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
【符号の説明】
【0138】
1 端末装置
2 解析装置
3 コンテンツ配信装置
11、21 通信部
12 入力部
13 出力部
14 視線センサ
15、23 制御部
22 記憶部
100 情報処理システム
151 要求部
152 操作制御部
153 表示制御部
154 表示部
155 表示情報取得部
156 視線情報取得部
221 得点定義データベース
231 取得部
232 解析部
233 評価部
234 学習部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14