(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023162818
(43)【公開日】2023-11-09
(54)【発明の名称】データ処理装置、データ処理方法、及びプログラム
(51)【国際特許分類】
H04N 21/258 20110101AFI20231101BHJP
H04N 7/18 20060101ALI20231101BHJP
H04L 67/1396 20220101ALI20231101BHJP
H04L 67/75 20220101ALI20231101BHJP
A61B 5/16 20060101ALI20231101BHJP
A61B 3/113 20060101ALI20231101BHJP
G06T 7/20 20170101ALI20231101BHJP
【FI】
H04N21/258
H04N7/18 K
H04L67/1396
H04L67/75
A61B5/16 120
A61B3/113
G06T7/20 300B
【審査請求】未請求
【請求項の数】24
【出願形態】OL
(21)【出願番号】P 2022073480
(22)【出願日】2022-04-27
(71)【出願人】
【識別番号】503360115
【氏名又は名称】国立研究開発法人科学技術振興機構
(74)【代理人】
【識別番号】110000408
【氏名又は名称】弁理士法人高橋・林アンドパートナーズ
(72)【発明者】
【氏名】中野 珠実
【テーマコード(参考)】
4C038
4C316
5C054
5C164
5L096
【Fターム(参考)】
4C038PP03
4C038PS07
4C316AA30
4C316AB16
4C316FA01
4C316FA20
4C316FZ01
4C316FZ03
5C054CC02
5C054EA01
5C054EA03
5C054EA05
5C054EA07
5C054FC01
5C054FC12
5C054FC13
5C054FC14
5C054FE05
5C054FE16
5C054FE18
5C054FE28
5C054FF06
5C054GB01
5C164FA26
5C164SB08S
5C164SB29S
5C164SC11P
5C164UB26S
5C164YA12
5L096AA06
5L096CA04
5L096DA01
5L096DA02
5L096FA09
5L096FA35
5L096FA67
5L096FA69
5L096GA51
(57)【要約】
【課題】コンテンツを観察する集団の関心の一致度をリアルタイムにコンテンツ配信者に提供すること。
【解決手段】データ処理装置は、データの各部に第1タイムスタンプが付されたコンテンツデータを複数の第1端末装置に送信し、前記複数の第1端末装置の各々から前記データの各部に対応付けられた第1瞬きデータを順次取得し、取得された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における前記コンテンツデータに対する瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価する制御部を含む。
【選択図】
図1
【特許請求の範囲】
【請求項1】
データの各部に第1タイムスタンプが付されたコンテンツデータを複数の第1端末装置に送信し、
前記複数の第1端末装置の各々から前記データの各部に対応付けられた第1瞬きデータを順次取得し、
取得された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における前記コンテンツデータに対する瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価する制御部を含む、
データ処理装置。
【請求項2】
前記制御部は、取得された前記第1瞬きデータを、対応する第1タイムスタンプ毎に分類し、
対応する第1タイムスタンプ毎に分類された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における瞬きの一致度を、前記コンテンツデータの送信と並行して、順次評価する、
請求項1に記載のデータ処理装置。
【請求項3】
前記制御部は、前記第1瞬きデータを取得した時刻を示す第2タイムスタンプを生成し、
前記第1タイムスタンプと、前記第2タイムスタンプとの関係が所定の条件を満たす第1瞬きデータを、前記瞬きの一致度を評価する対象から除外する、
請求項2に記載のデータ処理装置。
【請求項4】
前記制御部は、前記瞬きの一致度に基づいて前記コンテンツに対する関心度データを、前記コンテンツデータの送信と並行して順次生成し、
生成された前記関心度データを、前記コンテンツデータを生成した第2端末装置に順次送信する、
請求項1に記載のデータ処理装置。
【請求項5】
前記関心度データは、前記第1端末装置のユーザの関心度に応じた表示データを含む、
請求項4に記載のデータ処理装置。
【請求項6】
前記表示データは、前記第2端末装置のユーザが前記関心度を認識可能に表示される色表示データまたはグラフデータを含む、
請求項5に記載のデータ処理装置。
【請求項7】
前記第1瞬きデータは、瞬きの有無情報を含む、
請求項1に記載のデータ処理装置。
【請求項8】
対応する第1タイムスタンプ毎に分類された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価するとき、所定の期間におけるサロゲート法を用いた処理を行い順次評価する、
請求項2に記載のデータ処理装置。
【請求項9】
前記第1端末装置のユーザの第2瞬きデータをあらかじめ取得し、
前記第1瞬きデータおよび前記第2瞬きデータに基づいて瞬きの一致度を評価する、
請求項1に記載のデータ処理装置。
【請求項10】
前記第2瞬きデータは、前記コンテンツデータの送信開始前に前記第1端末装置のユーザから取得される、
請求項9に記載のデータ処理装置。
【請求項11】
前記第2瞬きデータは前記第1端末装置のユーザ固有の瞬き頻度の特性を測るために取得される、
請求項9に記載のデータ処理装置。
【請求項12】
コンピュータが実行するデータ処理方法であって、
データの各部に第1タイムスタンプが付されたコンテンツデータを複数の第1端末装置に送信し、
前記複数の第1端末装置の各々から前記データの各部に対応付けられた第1瞬きデータを順次取得し、
取得された前記第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における前記コンテンツデータに対する瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価することを含む、
データ処理方法。
【請求項13】
取得された前記第1瞬きデータを、対応する第1タイムスタンプ毎に分類し、
前記対応する第1タイムスタンプ毎に分類された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価する、
請求項12に記載のデータ処理方法。
【請求項14】
前記第1瞬きデータを取得した時刻を示す第2タイムスタンプを生成し、
前記第1タイムスタンプと、前記第2タイムスタンプとの関係が所定の条件を満たす第1瞬きデータを、前記瞬きの一致度を評価する対象から除外することさらに含む、
請求項13に記載のデータ処理方法。
【請求項15】
前記瞬きの一致度に基づいて前記コンテンツデータに対する関心度データを、前記コンテンツデータの送信と並行して順次生成し、
生成された前記関心度データを、前記コンテンツデータを生成した第2端末装置に送信することをさらに含む、
請求項12に記載のデータ処理方法。
【請求項16】
前記関心度データは、第1端末装置のユーザの関心度に応じた表示データを含む、
請求項15に記載のデータ処理方法。
【請求項17】
前記表示データは、前記第2端末装置のユーザが前記関心度を認識可能に表示される色表示データまたはグラフデータを含む、
請求項16に記載のデータ処理方法。
【請求項18】
前記第1瞬きデータは、瞬きの有無情報を含む、
請求項12に記載のデータ処理方法。
【請求項19】
対応する第1タイムスタンプ毎に分類された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価するとき、所定の期間におけるサロゲート法を用いた処理を行い順次評価する、
請求項12に記載のデータ処理方法。
【請求項20】
前記第1端末装置のユーザの第2瞬きデータをあらかじめ取得し、
前記第1瞬きデータおよび前記第2瞬きデータに基づいて瞬きの一致度を評価する、
請求項12に記載のデータ処理方法。
【請求項21】
前記第2瞬きデータは、前記コンテンツデータの送信開始前に前記第1端末装置のユーザから取得される、
請求項20に記載のデータ処理方法。
【請求項22】
前記第2瞬きデータは前記第1端末装置のユーザ固有の瞬き頻度の特性を測るために取得される、
請求項20に記載のデータ処理方法。
【請求項23】
コンピュータに、
データの各部に第1タイムスタンプが付されたコンテンツデータを複数の第1端末装置に送信し、
前記複数の第1端末装置の各々から前記データの各部に対応付けられた第1瞬きデータを順次取得し、
取得された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における前記コンテンツデータに対する瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価することを実行させる、
プログラム。
【請求項24】
コンピュータに、
データの各部に第1タイムスタンプが付されたコンテンツデータを取得し、
前記データの各部に対応付けて第1瞬きデータを生成することを実行させる、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザ間の瞬きの一致度を評価するデータ処理装置、データ処理方法、及びプログラムに関する。
【背景技術】
【0002】
人が無意識に行う動作に基づいて、その人が観察する視覚情報への関心の度合いを推定する技術が従来から提案されている。特許文献1には、ユーザの瞬きのタイミングを示すデータを取得し、複数のユーザの視覚情報に対する瞬きタイミングの差異に基づいて複数のユーザにおける視覚情報に対する瞬きタイミングの一致度合いに応じた指標を算出する技術が開示されている。
【0003】
また、特許文献2には、被験者の瞬きの頻度の時間経過に関連する情報と、被験者に提示される動的コンテンツとの同期情報とを、外部通信ネットワークを介して送信する送信部を有する注目度評価システムが開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-169805号公報
【特許文献2】特開2018-93350号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1及び2の場合、コンテンツに対するネットワークを介して夫々繋がっている複数のユーザ間における瞬きの一致度を評価できるが、配信されるコンテンツを観察する集団の関心の一致度をリアルタイムにコンテンツ配信者に提供することができなかった。すなわち、特開2019-169805ではネットワークにおけるコンテンツの配信遅延時間の影響を受け、瞬きのタイミングの一致度合いの評価値に誤差が出る怖れがあり、しかも一致度合いは、あらかじめ決められたタイミング(たとえば、コンテンツの送信終了後)に統計的な処理を用いて判定されるのであり、リアルタイムに配信されるコンテンツに対して、評価値をリアルタイムに提供できない。また特開2018-93350では瞬きの頻度については評価しているが、集団の瞬きのタイミングの一致度合いを評価できない。同様にリアルタイムに配信されるコンテンツに対して、評価値をリアルタイムに提供できない課題がある。
【0006】
そこで、本発明は、コンテンツを観察する集団の関心の一致度をリアルタイムにコンテンツ配信者に提供することを目的の一つとする。かかる目的の下で、本発明は、コンテンツに対する瞬きタイミングの一致度をリアルタイムにコンテンツ配信者に提供することを目的の一つとする。
【課題を解決するための手段】
【0007】
本発明の一実施形態によれば、データの各部に第1タイムスタンプが付されたコンテンツデータを複数の第1端末装置に送信し、前記複数の第1端末装置の各々から前記データの各部に対応付けられた第1瞬きデータを順次取得し、取得された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における前記コンテンツデータに対する瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価する制御部を含む、データ処理装置が提供される。
【0008】
上記データ処理装置において、前記制御部は、取得された前記第1瞬きデータを、対応する第1タイムスタンプ毎に分類し、対応する第1タイムスタンプ毎に分類された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における瞬きの一致度を、前記コンテンツデータの送信と並行して、順次評価してもよい。
【0009】
上記データ処理装置において、前記制御部は、前記第1瞬きデータを取得した時刻を示す第2タイムスタンプを生成し、前記第1タイムスタンプと、前記第2タイムスタンプとの関係が所定の条件を満たす第1瞬きデータを、前記瞬きの一致度を評価する対象から除外してもよい。
【0010】
上記データ処理装置において、前記制御部は、前記瞬きの一致度に基づいて前記コンテンツに対する関心度データを、前記コンテンツデータの送信と並行して順次生成し、生成された前記関心度データを、前記コンテンツデータを生成した第2端末装置に順次送信してもよい。
【0011】
上記データ処理装置において、前記関心度データは、前記第1端末装置のユーザの関心度に応じた表示データを含んでもよい。
【0012】
上記データ処理装置において、前記表示データは、前記第2端末装置のユーザが前記関心度を認識可能に表示される色表示データまたはグラフデータを含んでもよい。
【0013】
上記データ処理装置において、前記第1瞬きデータは、瞬きの有無情報を含んでもよい。
【0014】
上記データ処理装置において、対応する第1タイムスタンプ毎に分類された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価するとき、所定の期間におけるサロゲート法を用いて処理を行い順次評価してもよい。
【0015】
上記データ処理装置において、前記第1端末装置のユーザの第2瞬きデータをあらかじめ取得し、前記第1瞬きデータおよび前記第2瞬きデータに基づいて瞬きの一致度を評価してもよい。
【0016】
上記データ処理装置において、前記第2瞬きデータは、前記コンテンツデータの送信開始前に前記第1端末装置のユーザから取得されてもよい。
【0017】
上記データ処理装置において、前記第2瞬きデータは前記第1端末装置のユーザ固有の瞬き頻度の特性を測るために取得されてもよい。
【0018】
本発明の一実施形態によれば、コンピュータが実行するデータ処理方法であって、データの各部に第1タイムスタンプが付されたコンテンツデータを複数の第1端末装置に送信し、前記複数の第1端末装置の各々から前記データの各部に対応付けられた第1瞬きデータを順次取得し、取得された前記第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における前記コンテンツデータに対する瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価することを含むデータ処理方法が提供される。
【0019】
上記データ処理方法において、取得された前記第1瞬きデータを、対応する第1タイムスタンプ毎に分類し、前記対応する第1タイムスタンプ毎に分類された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価してもよい。
【0020】
上記データ処理方法において、前記第1瞬きデータを取得した時刻を示す第2タイムスタンプを生成し、前記第1タイムスタンプと、前記第2タイムスタンプとの関係が所定の条件を満たす第1瞬きデータを、前記瞬きの一致度を評価する対象から除外することを含んでもよい。
【0021】
上記データ処理方法において、前記瞬きの一致度に基づいて前記コンテンツデータに対する関心度データを、前記コンテンツデータの送信と並行して順次生成し、生成された前記関心度データを、前記コンテンツデータを生成した第2端末装置に送信することをさらに含んでもよい。
【0022】
上記データ処理方法において、前記関心度データは、第1端末装置のユーザの関心度に応じた表示データを含んでもよい。
【0023】
上記データ処理方法において、前記表示データは、前記第2端末装置のユーザが前記関心度を認識可能に表示される色表示データまたはグラフデータを含んでもよい。
【0024】
上記データ処理方法において、前記第1瞬きデータは、瞬きの有無情報を含んでもよい。
【0025】
上記データ処理方法において、対応する第1タイムスタンプ毎に分類された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価するとき、所定の期間におけるサロゲート法を用いて処理を行い順次評価してもよい。
【0026】
上記データ処理方法において、前記第1端末装置のユーザの第2瞬きデータをあらかじめ取得し、前記第1瞬きデータおよび前記第2瞬きデータに基づいて瞬きの一致度を評価してもよい。
【0027】
上記データ処理方法において、前記第2瞬きデータは、前記コンテンツデータの送信開始前に前記第1端末装置のユーザから取得されてもよい。
【0028】
上記データ処理方法において、前記第2瞬きデータは前記第1端末装置のユーザ固有の瞬き頻度の特性を測るために取得されてもよい。
【0029】
本発明の一実施形態によれば、コンピュータに、データの各部に第1タイムスタンプが付されたコンテンツデータを複数の第1端末装置に送信し、前記複数の第1端末装置の各々から前記データの各部に対応付けられた第1瞬きデータを順次取得し、取得された第1瞬きデータに基づいて、前記複数の第1端末装置のユーザ間における前記コンテンツデータに対する瞬きの一致度を、前記コンテンツデータの送信と並行して順次評価することを実行させる、プログラムが提供される。
【0030】
本発明の一実施形態によれば、コンピュータに、データの各部に第1タイムスタンプが付されたコンテンツデータを取得し、前記データの各部に対応付けて第1瞬きデータを生成することを実行させる、プログラムが提供される。
【発明の効果】
【0031】
本発明によれば、コンテンツを観察する集団の関心の一致度をリアルタイムにコンテンツ配信者に提供することができる。また、本発明によれば、コンテンツに対する瞬きタイミングの一致度をリアルタイムにコンテンツ配信者に提供することができる。
【図面の簡単な説明】
【0032】
【
図1】本発明の一実施形態に係るデータ処理システムの全体構成を示す概要図である。
【
図2】本発明の一実施形態に係るサーバ装置のハードウェア構成を示すブロック図である。
【
図3】本発明の一実施形態に係る端末装置のハードウェア構成を示すブロック図である。
【
図4】本発明の一実施形態に係るデータ処理システムの機能構成を示すブロック図である。
【
図5】コンテンツデータのデータセットの一例である。
【
図6】各生徒ユーザの瞬きデータのデータセットの一例である。
【
図7】生徒ユーザ間の瞬き一致度を示すデータセットの一例である。
【
図9】本発明の一実施形態に係るデータ処理システムが実行する処理を示すフローチャートである。
【
図10】講師端末装置の表示部に表示される画像データの一例である。
【
図11】本発明の一実施形態に係るデータ処理システムが実行する瞬きデータの生成を示すフローチャートである。
【
図12】生徒ユーザの瞬きを検出するための画像データの一例である。
【
図13】本発明の一実施形態に係るデータ処理システムが実行する瞬き一致度の評価および関心度データの生成を示すフローチャートである。
【
図14】各生徒ユーザの瞬きデータのデータセットの一例である。
【
図15】本発明の一実施形態に係るデータ処理システムが実行する瞬き一致度の評価および関心度データの生成を示すフローチャートである。
【
図16】本発明の一実施形態に係るデータ処理システムの機能構成を示すブロック図である。
【
図17】本発明の一実施形態に係るデータ処理システムが実行する処理を示すフローチャートである。
【
図18】本発明の一実施形態に係るデータ処理システムの機能構成を示すブロック図である。
【
図19】本発明の一実施形態に係るデータ処理システムが実行する処理を示すフローチャートである。
【
図20】本発明の一実施形態に係るデータ処理システムが実行する処理を示すフローチャートである。
【
図21】本発明の一実施形態に係るデータ処理システムが実行する処理を示すフローチャートである。
【
図22】本発明の一実施形態に係る瞬きのタイミングの差異の算出方法を説明する図である。
【
図23】本発明の一実施形態に係るタイミング差の出現頻度の分布を示すグラフを示す。
【
図24】本発明の一実施形態に係るランダムデータの一例を示す図である。
【
図25】本発明の一実施形態に係る評価値の一例を示す図である。
【
図26】本発明の一実施形態に係る関心度データの一例を示す図である。
【
図27】本発明の一実施形態に係る関心度データの一例を示す図である。
【
図28】本発明の一実施形態に係るデータ処理システムが実行する処理を示すフローチャートである。
【
図29】本発明の一実施形態に係るデータ処理システムが実行する処理を示すフローチャートである。
【
図30】本発明の一実施形態に係るデータ処理システムの全体構成を示す概要図である。
【
図31】生徒端末装置で撮像される画像データの一例である。
【
図32】本発明の一実施形態に係るデータ処理システムが実行する処理を示すフローチャートである。
【
図33】各生徒ユーザの瞬きデータのデータセットの一例である。
【
図34】講師端末装置の表示部に表示される画像データの一例である。
【発明を実施するための形態】
【0033】
以下、本発明の一実施形態におけるシステムについて、図面を参照しながら詳細に説明する。以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。なお、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号(数字の後にA、B,-1,-2等を付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。
【0034】
<第1実施形態>
本実施形態では、コンテンツを観察する集団の関心の一致度をリアルタイムにコンテンツ配信者に提供するため、コンテンツを観察する集団の瞬きタイミングの一致度合いをリアルタイムにコンテンツ配信者に提供するデータ処理システムについて、図面を参照しながら説明する。
【0035】
(1-1.データ処理システムの構成)
(1-1-1.データ処理システムの概要)
図1は、本発明の第1実施形態であるデータ処理システム1の全体構成を示すブロック図である。データ処理システム1は、生徒端末装置20a(コンテンツ観察者端末装置、第1端末装置ともいう)に表示された視覚情報に対する複数の生徒ユーザUaの瞬きに基づいて、当該視覚情報を評価する。視覚情報は、人が視覚を通じて得られる情報を総称する。視覚情報は、本実施形態においては、講師ユーザUbにより行われる動画(コンテンツデータ)である。動画は、人が視覚を通じて認識できる情報が時間的に変化する。動画は、さらに、人が聴覚を通じて認識できる情報(つまり、音)を含んでもよい。本実施形態における動画は、例えば、講師端末装置20b(コンテンツ配信者端末装置、第2端末装置ともいう)から送られた講義の動画である。
【0036】
データ処理システム1は、サーバ装置10、複数の生徒端末装置20a、および講師端末装置20bを有する。サーバ装置10は、複数の生徒端末装置20aの各々から、生徒ユーザUaの瞬きデータ(第1瞬きデータともいう)を取得し、取得した瞬きデータに基づいて、動画の関心度評価を行う。サーバ装置10は、講師端末装置20bおよび複数の生徒端末装置20aの各々と通信回線NWを介して通信する。通信回線NWは、例えばインターネットで例示される公衆通信回線、又は専用回線である。サーバ装置10は、本開示に係るデータ処理装置を有する装置の一例である。
【0037】
複数の生徒端末装置20aは、講師ユーザUbにより行われるネットワークを介した講義を視聴する生徒ユーザUaによって使用される。
図1には、複数の生徒端末装置20aとして、生徒端末装置20a-1,20a-2,・・・,20a-N(ただし、Nは2以上の自然数)が示されている。また、生徒端末装置20a-1,20a-2,・・・,20a-Nに対応して、生徒ユーザUa-1,Ua-2,・・・Ua-Nが示されている。生徒端末装置20a-1,20a-2,・・・,20a-N、および生徒ユーザUa-1,Ua-2,・・・Ua-Nを区別する必要がない場合、生徒端末装置20a、生徒ユーザUaとして説明する。
【0038】
講師端末装置20bは、ネットワークを介して講義を行う講師ユーザUbによって使用される。本実施形態において、生徒端末装置20aおよび講師端末装置20bを分けて説明する必要がないときには、端末装置20として説明する。
【0039】
端末装置20は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、及びウェアラブル型コンピュータで例示されるコンピュータ装置である。
【0040】
(1-1-2.サーバ装置)
図2は、サーバ装置10のハードウェア構成を示すブロック図である。サーバ装置10は、制御部11、記憶部13、および通信部15を有する。制御部11、記憶部13、および通信部15は配線バス17を介して接続される。
【0041】
制御部11は、演算処理装置111(例えば、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programable Gate Array)、またはその他の演算処理回路)、並びにメモリ112(例えば、ROM(Read Only Memory)およびRAM(Random Access Memory))を含む。制御部11は、メモリ112に含まれた制御プログラムを用いて各部の機能を制御する。制御部11は、さらに、所定の時間軸上で規定される時刻を計る計時部を有する。この計時部は、制御プログラム(アプリケーションソフトウェア)とは異なるソフトウェア(例えば、基本ソフトウェアであるOS(Operating System))に含まれる時計機能を用いてもよい。時間軸として、例えば、絶対時刻が用いられてもよい。
【0042】
記憶部13には、SSD(Solid State Drive)等の半導体メモリのほか、磁気記録媒体(磁気テープ、磁気ディスク等)、光記録媒体、光磁気記録媒体、記憶媒体である記憶可能な素子が用いられる。記憶部13は、制御プログラムで用いられる各種情報を記憶するデータベースとしての機能を有する。
【0043】
通信部15は、通信回線NWを介して、複数の端末装置20の各々と有線又は無線により通信する。通信部15は、例えば、通信回路及びアンテナを含む。
【0044】
(1-1-3.端末装置の構成)
図3は、端末装置20のハードウェア構成を示すブロック図である。端末装置20は、制御部21、記憶部22、通信部23、撮像部25、およびユーザインタフェース27を有する。制御部21、記憶部22、通信部23、撮像部25、およびユーザインタフェース27は配線バス29を介して接続される。
【0045】
制御部21は、演算処理装置211およびメモリ212を含む。制御部21は、さらに、所定の時間軸上で規定される時刻を計る計時部を有する。この計時部はOSに含まれる時計機能を用いてもよい、時間軸として、例えば、絶対時刻が用いられてもよい。制御部21は、メモリ212に含まれた制御プログラムを用いて各部の機能を制御する。
【0046】
記憶部22には、SSD等の半導体メモリのほか、磁気記録媒体、光記録媒体、光磁気記録媒体、記憶媒体である記憶可能な素子が用いられる。記憶部22は、制御プログラムで用いられる各種情報を記憶するデータベースとしての機能を有する。
【0047】
通信部23は、通信回線NWを介して、サーバ装置10と通信する。通信部23は、例えば、通信回路及びアンテナを含む。
【0048】
撮像部25は、端末装置20のユーザである被写体を撮像し、当該撮像した画像を示す撮像データを生成する。被写体は、少なくとも、ユーザの顔、より詳細にはユーザの目を含む。撮像部25は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサで例示される撮像素子、及び当該ユーザの光学像を前記撮像素子上へ結像するレンズを含む。
【0049】
ユーザインタフェース27は、ユーザと端末装置をつなぐためのインタフェースである。この例では、ユーザインタフェース27は、情報を表示する表示部271(例えば、液晶ディスプレイ)、音声入力部272、音声出力部273、および操作を受け付ける操作部274(例えば、物理キー又はタッチセンサ)を含む。タッチパネルの場合、表示部271および操作部274が同じ位置に設けられてもよい。音声入力部272(例えばマイクロフォン)はユーザから発せられた音声情報を入力する。音声出力部273(例えばスピーカ)は、ユーザに対して音声情報を提供する。音声入力部272および音声出力部273は、ヘッドセットのように一体として設けられてもよい。
【0050】
(1-2.データ処理システムの機能構成)
図4は、データ処理システム1の機能構成の一例を示すブロック図である。以下で説明する各機能は、ハードウェア、ソフトウェア、またはハードウェアおよびソフトウェアの組み合わせによって実現される。
【0051】
図2にハードウェア構成が示されたサーバ装置10は、第1取得部1101、第1送信部1103、第2取得部1105、評価部1107、生成部1109、および第2送信部1111の各機能構成ブロックを有する。
【0052】
第1取得部1101は、通信部15を用いて、講師端末装置20bから取得したコンテンツデータの一部(コンテンツサブデータSCともいう)を順次取得する。
【0053】
第1送信部1103は、講師端末装置20bから取得したコンテンツサブデータSCを複数の生徒端末装置20aに順次送信する。
【0054】
図5は、講師端末装置20bから送信されるコンテンツデータのデータセット1010である。コンテンツデータのデータセット1010は、コンテンツサブデータ(SC)1010aおよびコンテンツサブデータSCに付されるコンテンツタイムスタンプ(T1)(第1タイムスタンプともいう)時刻1010bを含む。コンテンツタイムスタンプ1010bの時刻は、この例ではコンテンツサブデータSCを送信する時刻である。コンテンツデータのデータセット1010は、記憶部13に記憶される。
【0055】
第2取得部1105は、通信部15を用いて、複数の生徒端末装置20aの各々からデータの各部に対応付けられた瞬きデータ(第1瞬きデータともいう)を順次取得する。瞬きデータは、生徒ユーザUaによってなされる瞬きの特徴を示すデータである。この例では、瞬きデータは、瞬きの有無を示す。
【0056】
図6は、各生徒ユーザUaの瞬きデータ1030のデータセットである。各生徒ユーザUaの瞬きデータ1030は、コンテンツサブデータ(SC)1030a、コンテンツタイムスタンプ時刻(サーバ装置10がコンテンツサブデータSCを生徒端末装置20aに送信する時刻)1030b、表示タイムスタンプ(T2)時刻(生徒端末装置20aがコンテンツサブデータSCを表示する時刻)1030c、コンテンツサブデータSCに対する瞬きの有無情報1030d、および取得タイムスタンプ(T3)(第2タイムスタンプともいう)時刻(サーバ装置10が瞬きデータを受信する時刻)1030eを含む。
図6においてはコンテンツサブデータSCが表示された時刻に、瞬きがあったことが検出されたので、1030dに「ON」として図示されている。
【0057】
図4のサーバ装置10内の評価部1107は、取得された瞬きデータに基づいて、複数の生徒端末装置20aのユーザU間における瞬きの一致度を順次評価する。当該評価処理は、第1送信部1103によるコンテンツデータの送信と並行して処理される。
【0058】
図7は、生徒ユーザUa間の瞬き一致度を示すデータセット1050である。データセット1050は、コンテンツサブデータ(SC)1050a、コンテンツタイムスタンプ1050b、各生徒ユーザUaのコンテンツサブデータSCに対する瞬きの有無1050c、および一致度1050dを含む。
図7の場合、各生徒ユーザUaにおける瞬きデータは、対応するコンテンツタイムスタンプ毎に分類される。
【0059】
生成部1109は、評価部1107によって評価された瞬きの一致度に基づいてコンテンツデータに対する関心度データを生成する。評価された一致度が高くなれば関心度が高いとして関心度データが生成される。当該生成処理は、第1送信部1103によるコンテンツデータの送信と並行して順次行われる。関心度データは、生徒端末装置20aのユーザUaの関心度に応じた表示データを含む。この例では、表示データは、講師端末装置20bのユーザUbが関心度を認識可能に表示される色表示データを含む。
【0060】
図8は、関心度を示すインジケータ1070の模式図である。インジケータ1070は、関心度に応じて色が変化する。インジケータ1070において、関心度が最も低い関心度1(赤色)から、関心度が高まるごとに関心度2(橙色)、関心度(黄色)、関心度(緑色)の順で点灯する。例えば、コンテンツサブデータSCに対する関心度が低いとき、インジケータ1070は、赤色で表示される。一方、コンテンツサブデータSCに対する関心度が高いとき、インジケータ1070は、緑色で表示される。
【0061】
第2送信部1111は、生成された関心度データを、コンテンツデータを生成した講師端末装置20bに順次送信する。
【0062】
講師端末装置20bは、コンテンツデータ生成部21b1、送信部21b3、取得部21b5、および表示制御部21b7を含む。
【0063】
コンテンツデータ生成部21b1は、コンテンツデータ情報を生成する。例えば、コンテンツデータは、講義を提供する講師ユーザUbのビデオ画像、音声、講義に使用されるアプリケーションソフトウェア(アプリ)、例えばパワーポイント(登録商標、マイクロソフト社製)、ワード(登録商標、マイクロソフト社製)などのソフトウェアにより生成されるコンテンツである。
【0064】
送信部21b3は、通信部23を介してコンテンツデータを構成するコンテンツサブデータSC毎にサーバ装置10に順次送信する。
【0065】
取得部21b5は、通信部23を介してサーバ装置10から送信された関心度データを取得する。
【0066】
表示制御部21b7は、関心度データを
図3の表示部271に表示するための制御を実行する。
【0067】
生徒端末装置20aは、取得部21a1、表示制御部21a3、瞬き検出部21a5、および送信部21a7を含む。
【0068】
取得部21a1は、通信部23を介してサーバ装置10から送信されたコンテンツデータのうちコンテンツサブデータSCを順次取得する。
【0069】
表示制御部21a3は、取得したコンテンツサブデータSCを表示部271に表示するための制御を実行する。
【0070】
瞬き検出部21a5は、取得したコンテンツサブデータSCに対する生徒ユーザUaの瞬きを検出する。この例では、瞬き検出部21a5は、撮像部25により生成された撮像データに基づいてユーザの瞬きを検出する(瞬きデータを生成する)。より具体的には、瞬き検出部21a5は、生徒ユーザUaの目の動き常時監視し、瞬きの有無をリアルタイムで検出する。
【0071】
送信部21a7は、通信部23を介して生成された瞬きデータをサーバ装置10に順次送信する。
【0072】
(1-3.データ処理方法)
次に、データ処理システム1におけるデータ処理方法を説明する。
【0073】
(1-3-1.コンテンツデータの生成)
図9は、データ処理システム1で実行されるコンテンツデータの生成および送信を示すフローチャートS100である。
【0074】
まず、講師端末装置20b内のコンテンツデータ生成部21b1は、コンテンツデータを生成する(S101)。本実施形態では、講師端末装置20bにおいて、講師ユーザUbからの入力によってwebミーティング用のアプリケーションソフトウェア(この例では、“ZOOM(登録商標)”アプリ)が実行されることにより、特定のコンテンツデータが生成される。また、講師端末装置20bでは、“ZOOM”アプリと合わせて、“hostinterface.exe”というプログラムがインストールされる。かかるプログラムは以下を実行する。まず“hostinterface.exe”が始動すると、会議の番号と、会議の開始のための入力表示が表示部271上に行われる。続いて、講師ユーザUbからの入力により会議の番号が設定され、表示部271(画面)上のSTARTボタンを押すと、“hostinterface.exe”は、生徒ユーザUaの瞬き検出指示情報を生徒端末装置20aに送信する。
【0075】
また、生徒端末装置20aにおいても同様のwebミーティング用アプリケーションソフトウェアが実行されるとともに、詳細は後述する瞬き検出用のアプリケーションソフトウェアが実行される。これにより、講師ユーザUbと、生徒ユーザUaとの間でネットワークを介してコミュニケーションを図る(講義を行う)環境が構築される。
図10は、講師端末装置20bの表示部271に表示される画面の一例である。
図10に示すように、講師端末装置20bの表示部271には、生徒ユーザUaの顔画像が表示されてもよい。
【0076】
また、本実施形態の生徒端末装置20aでは、予め“OBS Studio”(オープンソースとして開発されている、クロスプラットフォーム対応のライブ配信ツール(“OBS”は“Open Broadcaster Software”登録商標)の略。)アプリがインストールされるとともに、“ZOOM”アプリのカメラ設定で“OBS Virtual Camera”が選択可能となる。また、生徒端末装置20aでは、生徒ユーザUaにより“Clientinterface.exe”というプログラムがインストールされる。かかるプログラムは以下を実行する。生徒ユーザ(あるいは“Clientinterface.exe”)が、“ZOOM”アプリのカメラ設定で“OBS Virtual Camera”を選択すると、“Clientinterface.exe”は、撮像部25からの撮像信号を取り込み、生徒ユーザUaの目の形状の検出を開始する。“Clientinterface.exe”が実行された生徒端末装置20aは、生徒ユーザUaの目の形状の変化から、瞬きの時刻(タイミング)を計測することができるとともに、サーバ装置10に瞬きの時刻を送信する。
【0077】
また、本実施形態では、
図5に示すように、講師ユーザUbが話す講義内容(コンテンツデータ1010)は、一部分(コンテンツサブデータSCともいう)ごとにサーバ装置10に順次送信される(S103)。コンテンツサブデータSCは、所定の期間ごとに分けられてもよい。
図5に示すように、この例では、コンテンツデータは、9つのコンテンツサブデータを含むが、9つ以上であってもよい。より具体的には、コンテンツデータとして講師ユーザUbが発する音声情報、講師ユーザUbのビデオ画像情報などのリアルタイムで生成される情報(コンテンツサブデータ)が、動画レート、例えば毎秒30フレームの速度で(1/30秒毎に)タイムスタンプとともに送信される。
【0078】
サーバ装置10の第1取得部1101は、講師端末装置20bから送信されたコンテンツデータを順次コンテンツサブデータSCとして取得する(S105)。サーバ装置10は、コンテンツサブデータSCを識別する識別情報IDおよび送信する生徒ユーザUaの識別情報を生成してもよい。サーバ装置10は、コンテンツサブデータSCを送信するに際して、コンテンツタイムスタンプ(サーバ装置10からの送信時刻)を生成する(S107)。コンテンツサブデータSCは、コンテンツタイムスタンプ(サーバ装置10からの送信時刻)とともに記憶部13に一旦記憶される。サーバ装置10の第1送信部1103は、タイムスタンプに示された送信時刻に、タイムスタンプとともにコンテンツサブデータSCを生徒端末装置20aに送信する(S109)。
【0079】
生徒端末装置20aは、通信部23を介して各コンテンツサブデータSCを順次取得する(S111)。コンテンツデータ生成送信フローS100は、すべてのコンテンツサブデータSCが生成されるまで繰り返し処理される。
【0080】
(1-3-2.瞬きデータの生成)
図11は、データ処理システム1で実行される瞬きデータの生成を示すフローチャートS200である。
【0081】
まず、生徒端末装置20aは、コンテンツデータ(コンテンツサブデータSC)取得すると(S111)、コンテンツサブデータSCに対して表示タイムスタンプ(T2)を生成する(S201)。表示タイムスタンプ(T2)は、コンテンツサブデータSCを表示部271に表示する時間であってもよい。表示タイムスタンプ(T2)を生成することにより、サーバ装置10から生徒端末装置20aへのコンテンツデータの伝送遅延時間を後に取得することができる。
【0082】
次に、生徒端末装置20aの表示制御部21a3は、表示部271にコンテンツサブデータSCを表示する(S203)。
【0083】
瞬き検出部21a5は、コンテンツサブデータが表示されたタイミングにおける生徒ユーザUaの瞬き有無を検出する。瞬きの検出方法について以下に説明する。瞬き検出のアルゴリズムは、種々の公知技術が適用されてよい。
【0084】
瞬き検出部21a5は、撮像部25にユーザの目を撮像させる。
図12は、生徒ユーザUaの瞬きを検出するための画像データの一例である。瞬き検出部21a5は、撮像部25により生成された撮像データから、ユーザの目の周縁に沿って
図12に示す複数の特徴点p1~p6を抽出する。瞬き検出部21a5は、例えば、Haar-like特徴量に基づいて該特徴点(特徴点p1~p6)を抽出する。瞬き検出部21a5は、複数のフレームの撮像データに基づいて、抽出した特徴点の移動の方向、及びその速度の時間的な変化に基づき、瞬きの有無を検出する。瞬きが検出される場合、所定の期間内に特徴点の急激な速度の変化が生じる。そのため、瞬き検出部21a5は、所定期間内の速度変化が閾値以上となった場合、ユーザの瞬きがあったことを検出する。さらに、例えば特徴点p2と特徴点p3を結ぶ第1線と、特徴点p5と特徴点p6とを結ぶ第2線との間の第1間隔(縦幅)と、特徴点1と特徴点4との間の第2間隔(横幅)との比における時間的な変化を特定することにより、ユーザの瞬きの有無を容易にしかも精度良く検出することができる。瞬きは、1フレームの画像が表示されている時間と同程度の時間間隔(100ミリ秒~150ミリ秒)内で行われる。そのため、表示時刻と瞬き検出時刻を同じとしてもよい。
【0085】
本実施形態において、瞬き検出部21a5は、生徒ユーザUaの目の動きを常時監視することにより、
図11に示す瞬きデータ生成処理(S111~S207)がリアルタイムに(より具体的には、例えば毎秒30フレーム毎(1/30秒毎))繰り返し行われ、
図6に示す瞬きデータがリアルタイムに(より具体的には、例えば毎秒30フレーム毎(1/30秒毎))生成される。これにより、瞬き検出を容易にしかも精度良く、ユーザの関心度の判定を行うことができる。すなわち、ユーザの表情判定などの方法によってもユーザの関心度の判定は可能であるが、表情判定のためには、計算負荷のより大きい判定アルゴリズムが必要であるが、本実施の形態に開示された方法によれば、上述のように、より計算負荷の小さい方法により、判定が可能となる。また、ユーザの瞳さえ、撮像部25に撮影されていれば判定が可能であるので、ユーザの顔全体が端末装置の撮像部に撮影されていなくても、判定が可能となり、判定不能である場合を減らすことができる。このとき、
図6に示すように、コンテンツサブデータSCに対する瞬き有無の情報(瞬き有をON,瞬き無をOFFとする)含む第1瞬きデータが生成される(S205)。
【0086】
生徒端末装置20aの送信部21a7は、生成された瞬きデータをサーバ装置10に送信する(S207)。以上により、瞬きデータ生成フローS200は終了となる。瞬きデータ生成処理は、コンテンツデータの各コンテンツサブデータSCに対して行われる。また、瞬きデータ生成処理は、コンテンツサブデータSCについて複数の生徒端末装置20aの各々において独立して行われる。
【0087】
(1-3-3.瞬き一致度の評価・関心度データの生成)
図13~
図15は、データ処理システム1で実行される瞬き一致度の評価および関心度データの生成を示すフローチャートS300である。
【0088】
図13に示すように、まずサーバ装置10の第2取得部1105は、通信部15を介して複数の生徒端末装置20aの各々から送信された瞬きデータを順次取得する(S301)。このとき、サーバ装置10は、
図6に示すように、それぞれの瞬きデータに対して、瞬きデータを取得した時刻に対応するタイムスタンプ(取得タイムスタンプ(T3)を生成する(S303)。このとき、サーバ装置10の評価部1107は、
図14に示すように、取得タイムスタンプ(T3)の時刻と、コンテンツタイムスタンプの時刻との間の時間差Δ(T3-T1)を算出する。評価部1107は、時間差Δ(T3-T1)が所定時間内であるか(コンテンツタイムスタンプと取得タイムスタンプとの関係が所定の条件を満たすか)を判定する(S305)。時間差Δ(T3-T1)が所定時間を超える場合(S305;No)、評価部1107は、当該瞬きデータを瞬きの一致度を評価する対象から除外する(S307)。この例では、所定時間は500ミリ秒(0.5秒)である。
【0089】
時間差Δ(T3-T1)が所定期間内である場合(S305;Yes)、評価部1107は、当該瞬きデータを瞬きの一致度評価に使用する(S309)。上述のS307、S309を実行することによって、時間差Δ(T3-T1)が所定値より大きい生徒端末装置20aの影響を除いて瞬きの一致度を評価できるので、ネットワーク遅延の影響によって、一致度の評価の精度が低下することを防止することができる。
【0090】
次に、
図15に示すように、評価部1107は、
図7に示す瞬きデータセット1050に基づいて、複数の生徒ユーザUa間の瞬きの一致度を評価する(S311)。
【0091】
本実施形態の場合、評価部1107は、取得された第1瞬きデータ1030を、対応するコンテンツタイムスタンプ毎に分類し、対応するコンテンツタイムスタンプ毎に分類された第1瞬きデータに基づいて、複数の生徒端末装置20aの生徒ユーザUa間における瞬きの一致度を順次評価する。なお、当該評価処理は、コンテンツデータのうち異なるコンテンツサブデータの送信処理と並行してリアルタイムに(より具体的には、毎秒30フレーム毎(1/30秒毎)行われる。より具体的には、コンテンツデータとして講師ユーザUbによって発せられる音声情報、講師ユーザUbのビデオ画像情報などのリアルタイムで生成される情報(コンテンツサブデータ)が、毎秒30フレームの速度でタイムスタンプとともに送信される。本実施形態では毎秒30フレーム毎に瞬き検出を行ったが、カメラ撮像性能、瞬き判定アルゴリズムを実行するための負荷などに応じて瞬き検出の頻度は変えてもよい。講師ユーザUbが、後述する関心度データの提供を、講義進行に伴ってリアルタイム性を感じることができるような頻度で瞬き検出を行えばよい。
【0092】
生成部1109は、瞬きの一致度に応じて関心度データを生成する(S313)。関心度は、例えば生徒ユーザUaの数のうち所定期間内に瞬きを行った生徒ユーザUaの数の割合で評価されてもよい。
【0093】
サーバ装置10の第2送信部1111は、生成された関心度データを講師端末装置20bに送信する(S315)。
【0094】
講師端末装置20bにおいて、取得部21b5が関心度データを取得すると(S317)、表示制御部21b7は、講師端末装置20bの表示部に関心度データを表示するように制御する(S319)。関心度データは、
図8に示すようにインジケータ1070が点灯することにより表示されてもよい。インジケータ1070は、関心度が最も低い関心度1(赤色)から、関心度が高まるごとに関心度2(橙色)、関心度3(黄色)、関心度4(緑色)の順で点灯する。インジケータ1070の表示により講師ユーザUbは、生徒ユーザUaの現在のコンテンツデータ(コンテンツサブデータ)に対する関心度を、講義をしながらリアルタイムで把握することができる。換言すると、インジケータの色を、いわゆるチラ見して識別するだけで、前記関心度を把握することができる。これによって、講師ユーザUbは講義内容を、講義をしながら、修正することもできる。以上により、関心度データ生成処理S300が終了する。
【0095】
このとき、サーバ装置10は、瞬き一致度の評価がなされていない残りのコンテンツサブデータがあるかどうかを判定してもよい。残りのコンテンツサブデータがある場合(S314;Yes)、S301に戻って、再度関心度データの生成が行われる。残りのコンテンツサブデータがない場合(S314;No)、関心度データの生成処理が終了する。これにより、関心度データは、コンテンツサブデータSCごとに生成される。
【0096】
本実施形態の場合、講師ユーザUbが発する音声データや、講師ユーザUbのビデオ画像データなどのデータを含むコンテンツデータが、例えば毎秒30フレームの速度で(1/30秒ごとに)リアルタイムで生成され、タイムスタンプと共に順次送信される。また、コンテンツデータの一部(1フレーム)であるコンテンツサブデータSCごとにコンテンツタイムスタンプ(T1)、表示タイムスタンプ(T2)、および取得タイムスタンプ(T3)が付される。さらに、コンテンツサブデータSCを送信してから瞬きデータの時間を取得するまでの時間が判定される。これにより、同じコンテンツサブデータSCに対する各生徒ユーザUaの瞬きの有無を判定することができるとともに、伝送時間のずれにより、異なるコンテンツサブデータSCに対して複数の生徒ユーザUa間で瞬きのタイミングが誤って一致した場合には所定の時間差以上の瞬きデータは除外される。
【0097】
さらに、本実施形態において、サーバ装置10は、生徒端末装置20aで検出・生成された各コンテンツサブデータに対する瞬きデータを順次取得し、瞬きの一致度を評価する。つまり、コンテンツデータの全てが取得されていなくても、取得されたコンテンツデータの一部に対して瞬きの一致度を評価することができる。
【0098】
したがって、本実施形態を用いることにより、伝送遅延が大きい瞬きデータの影響を受けずに正確かつリアルタイムに瞬きの一致度を評価することができる。
【0099】
<第2実施形態>
本実施形態では、第1実施形態とは異なるデータ処理システムについて説明する。具体的には、2つの異なる瞬きデータを用いて瞬きの一致度を評価する例について説明する。
【0100】
本第2実施形態では、サーバ装置10の評価部1107の機能が先に説明した第1実施形態とは異なる。すなわち本第2実施形態のサーバ装置10の評価部1107は、複数の種類の瞬きデータを用いて、複数のユーザ間の瞬きの一致度を評価する。具体的には、評価部1107は、第1実施形態で示した瞬きデータ(第1瞬きデータ)とともに、第2瞬きデータを用いて生徒ユーザUa間の瞬きの一致度を評価してもよい。第2瞬きデータは、第1瞬きデータとは異なる方式で取得されてもよいし、異なる時間軸で取得されてもよい。すなわち、第2瞬きデータは、サーバ装置10(例えば、第1取得部1101)によって端末装置20からあらかじめ取得されてもよい。第2瞬きデータは、コンテンツサブデータが送信される前に第1取得部1101によってあらかじめ取得されてもよい。この例では、第2瞬きデータは生徒端末装置20aの生徒ユーザUa固有の瞬き頻度データである。なお、第2瞬きデータは、瞬き頻度の情報とともに、生徒ユーザUaの性別、年齢、性格、既往歴、持病、趣味、得意な教科、又はこれらの組み合わせを含んでもよい。第2瞬きデータは、機械学習により取得されてもよい。
【0101】
例えば、生徒ユーザUaの中に特異な瞬き特性を有する生徒ユーザUaがいる場合、評価部1107は、特異な瞬き特性を有する生徒ユーザUaを一時的に瞬きの一致度の評価対象から除外する。例えば、本第2実施形態における評価部1107は、チック症や、極度の緊張状態など、瞬き頻度が通常人よりも極めて大きい生徒ユーザUaは、他の生徒ユーザUaの瞬きとの一致度を評価する対象から除外する。
【0102】
図16は、データ処理システム1Aの機能構成の一例を示すブロック図である。
図16に示すように、データ処理システム1Aにおいて、サーバ装置10Aは、さらに第3取得部1113を含む。第3取得部1113は、前述した第2瞬きデータを取得する。また、サーバ装置10Aにおいて、評価部1107Aは、特異な瞬き特性を有する生徒ユーザUaの判定1107Aaと、瞬きの一致度評価1107Abという2つの処理をリアルタイムで並行して行うことができる。
【0103】
図17は、瞬き一致度の評価および関心度データの生成を示すフローチャートS300Aの一例である。
図17に示すように、評価部1107Aは、取得された瞬きデータが判定処理によって判定された特異な瞬き特性を有する生徒ユーザUaの瞬きデータであるかを判定する(S3041)。特異な瞬き特性を有する生徒ユーザUaのデータの場合(S3041;Yes)、当該瞬きデータは、瞬きの一致度評価の対象から除外される。特異な瞬き特性を有しない生徒ユーザUaのデータの場合(S304;No)、評価処理(S305)が実行される。これにより、ユーザ間の瞬きの一致度をリアルタイムに評価することができるとともに、ユーザ固有の情報を組み合わせることにより、ユーザ固有の瞬きの影響を除外してユーザ間の瞬きの一致度を評価することできる。したがって、コンテンツデータに対するユーザ間の瞬きの一致度(関心度)をリアルタイムかつ正確に評価することができる。
【0104】
また、本実施形態において、生徒ユーザUaの第1瞬きデータを第2瞬きデータによって補正して瞬きの一致度を評価してもよい。
【0105】
図18は、データ処理システム1Bの機能構成の一例を示すブロック図である。
図18に示すように、データ処理システム1Bにおいて、サーバ装置10Bは、さらに第3取得部1113を含む。第3取得部1113は、第2瞬きデータを取得する。サーバ装置10Bにおいて、評価部1107Bは、第3取得部1113によって取得された第2瞬きデータを用いた第1瞬きデータの補正(キャリブレーション)1107Baと、瞬きの一致度評価1107Bbという2つの処理をリアルタイムで並行して実行することができる。
図19は、瞬き一致度の評価および関心度データの生成を示すフローチャートS300Bの一例である。
図19に示すように、評価部1107Bは取得された瞬きデータ(第1瞬きデータ)を第2瞬きデータで補正する(S3042)。補正された第1瞬きデータに対して評価処理(S305)が実行される。これにより、特異な瞬き特性を有する生徒ユーザUaの第1瞬きデータを他の生徒ユーザUaの瞬きデータと一緒に用いて生徒ユーザUa間の瞬きの一致度を評価することができる。
【0106】
<第3実施形態>
本実施形態では、データ処理システムにおける警告情報生成処理について説明する。
【0107】
図20は、データ処理システム1で実行される警告情報の生成を示すフローチャートS400である。
【0108】
まず、第1実施形態において、除外された瞬きデータを評価する(S401)。このとき、サーバ装置10は、コンテンツサブデータが表示されてから瞬きが行われるまでの時間幅ΔT2を計算する。時間幅ΔT2が所定の時間以内である場合、警告情報生成処理は終了となる。
【0109】
時間幅ΔT2が所定時間を超える場合(S403;No)、当該瞬きデータに対応する生徒ユーザUaについての登録情報があるのか判定する(S405)。登録情報は記憶部12にあらかじめ記憶されていてもよい。登録情報はコンテンツサブデータが送信される前にあらかじめ取得されてもよい。登録情報は、瞬き頻度の情報、生徒ユーザUaの性別、年齢、性格、既往歴、持病、趣味、得意な教科、又はこれらの組み合わせを含んでもよい。登録情報がある場合(S405;Yes)、警告情報生成処理は終了となる。
【0110】
登録情報がない場合(S405;No)、サーバ装置10の評価部1107は当該生徒ユーザUaあるいはそのユーザが使用としている端末装置20において異常ありと判定してもよい。このとき、サーバ装置10の生成部1109は、警告情報を生成する(S407)。サーバ装置の第2送信部1111は、警告情報を講師端末装置20bに送信する。(S409)。
【0111】
講師端末装置20bは、警告情報を取得し、表示部271に表示してもよい。これにより、講師端末装置20bの講師ユーザUbは、警告情報に対応する生徒ユーザUaを認識することができる。このとき、講師ユーザUbは、警告情報に対応する生徒ユーザUaとコミュニケーションを図る、または講義の内容を変更するなど、生徒ユーザUaを講義に集中させるためのきっかけを得ることができる。
【0112】
<第4実施形態>
本発明の第1実施形態において、瞬きの一致度は、複数の生徒ユーザUa間の瞬きの有無の割合で評価する例を示したが、本発明はこれに限定されない。本実施形態では、所定の期間内におけるサロゲート法を用いて演算処理に行う例について説明する。
【0113】
本実施形態において、評価部1107は、所定の期間におけるサロゲート法を用いた演算処理を行い、複数の生徒端末装置20aの生徒30ユーザUa間における瞬きタイミングの一致度を評価する。当該評価処理は、コンテンツデータのうち異なるコンテンツサブデータの送信と並行して行われる。この例では、コンテンツサブデータの所定の期間は30秒という時間幅である。また、本実施形態では、コンテンツサブデータは、1秒ずつずらしながら生成される。具体的には、コンテンツデータにおいて、第1コンテンツサブデータを0秒から30秒までの30秒間としたとき、新たなコンテンツサブデータは、1秒ずらした1秒から31秒までの30秒間となる。この1秒毎にずらした、30秒間のコンテンツデータが繰り返し生成される。
【0114】
図21は、評価処理を示すフローチャートS311Cである。まず、サーバ装置10は、各生徒端末装置30aから30秒間のコンテンツデータを視聴した生徒ユーザの瞬きデータ(瞬きのタイミングデータ)を取得する(S301C)。
【0115】
評価部1107は、N人の生徒ユーザUa-1~Ua-Nの中から2人の生徒ユーザを選択する(S311C1)。選択した2人の生徒ユーザを、以下、それぞれ「第1生徒ユーザ」、「第2生徒ユーザ」と称する。評価部1107は、ここでは、生徒ユーザUa-1と生徒ユーザUa-2を選択したものとする。
【0116】
次に、評価部1107は、第1生徒ユーザの瞬きのタイミングと、第2生徒ユーザの瞬きのタイミングとの差異を算出する(S311C2)。評価部1107は、第1生徒ユーザ(生徒ユーザUa-1)の瞬きのタイミングと、第2生徒ユーザ(生徒ユーザUa-2)の瞬きのタイミングとのすべての組み合わせについて、タイミングの差異(以下「タイミング差」という。)を算出する。
【0117】
図22は、瞬きのタイミングの差異の算出方法を説明する図である。
図23は、瞬きが検出されたタイミングを示すタイミングチャートが示されている。
図23に示すように、生徒ユーザUa-1の瞬きのタイミングを、その時刻順に、t11,t12,・・・t1Bと表す。生徒ユーザUa-2の瞬きのタイミングを、その時刻順に、t21,t22,・・・t27と表す。この場合、評価部1107は、t11,t12,・・・t1Bの各々について、t21,t22,・・・t27の各々との差異を算出する。瞬きタイミングt1i(ただし、1≦i≦m)と瞬きタイミングt2j(ただし、1≦j≦n)との差異であるタイミング差を、以下「Δtij」と表す。この場合、評価部1107は、タイミング差TD{Δt11、Δt12、・・・、Δt17、Δt21、Δt22、・・・、Δt27、・・・ΔtB1、ΔtB2、・・・、ΔtBn}を算出する。
【0118】
図23は、タイミング差の出現頻度の分布を示すグラフDGを示す。
図23のグラフDGにおいて、横軸がタイミング差に対応し、縦軸が各タイミング差の出現の度合い(つまり、出現頻度)に対応する。
図23に示す例では、タイミング差が比較的小さい時間範囲T内で、出現頻度が高くなる。
【0119】
次に、評価部1107は、ランダムデータを生成する(S311C3)。ランダムデータは、ここでは、S311C1で選択した2人の生徒ユーザUaの一方又は両方について、時間軸上で瞬きの間隔の順番をランダムに変更したK通り(例えば、1000通り)のランダムデータR1~RK(第2データ)を含む。
【0120】
図24は、ランダムデータR1~RKの一例を示す図である。
図24に示すランダムデータR1~RKには、生徒ユーザUa-1について瞬きの間隔の順番が変更されておらず、生徒ユーザUa-2について瞬きの間隔の順番が変更されているランダムデータである。ランダムデータR1~RKにおいて、生徒ユーザUa-2の瞬きのタイミングは、その時刻順に、t21a,t25a,・・・t23aと表される。なお、
図22に示すタイミング「t2j」と、
図24に示すタイミング「t2ja」とが対応する。
【0121】
次に、評価部1107は、K通りのランダムデータR1~RKの各々について、第1生徒ユーザUaの瞬きのタイミングと、第2生徒ユーザUaの瞬きのタイミングとの差異であるタイミング差を算出する(S311C4)。タイミング差の算出方法は、S311C2と同じでよい。すなわち、評価部1107は、ランダムデータR1~RKの各々について、生徒ユーザUa-1の瞬きのタイミングと、生徒ユーザUa-2の瞬きのタイミングとのすべての組み合わせについて、タイミング差を算出する。瞬きタイミングt1ia(ただし、1≦i≦m)と瞬きタイミングt2ja(ただし、1≦j≦n)との差異であるタイミング差を、以下「Δtija」と表す。この場合、評価部1107は、タイミング差TR{Δt11a、Δt15a、・・・、Δt13a、Δt21a、Δt25a、・・・、Δt23a、・・・ΔtB1a、ΔtB5a、・・・、ΔtB3a}を算出する。ランダムデータR1~RKにおけるタイミング差の出現頻度は、例えば、
図23のグラフRGで示される。なお、グラフRGは、ランダムデータR1~RKのタイミング差の出現頻度の平均を示す。
【0122】
次に、評価部1107は、瞬きデータに基づくタイミング差と、ランダムデータに基づくタイミング差とに基づいて、評価値を算出する(S311C5)。ランダムデータは、生徒ユーザUa-2の瞬きの間隔をランダムに変更したデータであり、生徒ユーザUa-2の瞬きの回数及び間隔を維持したまま、時系列の情報が崩されたデータといえる。よって、瞬きデータとランダムデータとを比較することによって、当該瞬きデータが示すタイミング差の出現分布が、動画の観察に起因して現れた度合いを把握することができる。
【0123】
具体的には、評価部1107は、評価値をZ値によって算出する。すなわち、評価部1107は、瞬きデータが示すタイミング差TD{Δt11、Δt12、・・・、Δt17、Δt21、Δt22、・・・、Δt27、・・・ΔtB1、ΔtB2、・・・、ΔtBn}の各々から、ランダムデータR1~RKにおけるタイミング差の平均値を減じ、さらに、得られた値をランダムデータR1~RKにおけるタイミング差の標準偏差で除することによって、評価値Zを算出する。例えば、瞬きデータがランダムデータと同じである場合、評価値Zは0である。この場合、瞬きデータが示す出現頻度の分布が、動画の観察に起因して現れていないと推測することができる。一方、評価値Zが大きく、瞬きデータがランダムデータに対して差異が大きい場合、瞬きデータが示す出現頻度の分布が、動画の観察に起因して現れたと推測することができる。
図23を用いて説明すると、出現頻度の差異Δが大きい場合ほど、評価値Zは大きくなる。
【0124】
図25は、評価値Zの一例を示すグラフである。
図25に示すグラフにおいて、横軸はタイミング差に対応し、縦軸は評価値に対応する。タイミング差は、ここでは、ビンの値によって表す。ビン番号「7」は、タイミング差が「0」と扱われることを示す。ビン間の時間幅は300ミリ秒で、ビン番号の値が大きくなる方向に、正の方向にタイミング差が大きいことを意味する。例えば、ビン番号「8」は+300ミリ秒の差異があり、ビン番号「9」は+600ミリ秒の差異があることを意味する。反対に、ビン番号の値が小さくなる方向に、負の方向にタイミング差が大きいことを意味する。例えば、ビン番号「6」は-300ミリ秒の差異があり、ビン番号「5」は-600ミリ秒の差異があることを意味する。なお、タイミング差が正の値である場合、第2生徒ユーザUa-2の瞬きのタイミングが第1生徒ユーザUa-1の瞬きのタイミングよりも早いことを意味する。タイミング差が負の値である場合、第1生徒ユーザUa-1の瞬きのタイミングが第2生徒ユーザUa-2の瞬きのタイミングよりも早いことを意味する。本実施形態では、タイミング差が300ミリ秒以下である瞬きの出現頻度が、ビン番号「7」の評価値Zを示す。
【0125】
次に、評価部1107は、すべての生徒ユーザUaの組み合わせについて、評価値を算出したかどうかを判断する(S311C6)。すべての生徒ユーザUaの組み合わせについて、評価値を算出していない場合(S311C6;No)、評価部1107はS311C1の処理に戻す。そして、評価部1107は、選択する2人の生徒ユーザUaの組み合わせを変更して、評価値を算出する(S311C1~S154)。そして、S311C6で「Yes」と判断した場合、評価部1107は評価処理を終了する。
【0126】
評価処理311Aが終了すると、生成部1109は、評価値に応じた関心度データを生成する(
図13のS313)。前述したように本実施形態では、コンテンツサブデータは、1秒ずつずらしながら生成される。具体的には、コンテンツデータにおいて、第1コンテンツサブデータを0秒から30秒までの30秒間としたとき、新たなコンテンツサブデータは、1秒ずらした1秒から31秒までの30秒間となる。この1秒毎にずらした、30秒間のコンテンツデータが繰り返し生成される。したがって、
図21に示されるS311Cの全体のフローチャートの処理は、この1秒毎にずらした、30秒間のコンテンツデータに対して繰り返し行われる。かかる処理によって、生成部1109は、評価値に応じた関心度データを、1秒毎にずらした、30秒間のコンテンツデータに対して繰り返し生成する。
【0127】
図26は、1秒毎にずらした、30秒間のコンテンツデータに対して繰り返し生成された関心度データを示すグラフデータである。この例では、生成部1109は、時刻と関連付けた評価値(関心度データ)を生成する。関心度データは、グラフデータとして表示されてもよい。グラフデータの場合、横軸を時間(時刻)とし、縦軸を関心度としてもよい。なお、
図27に示すように、
図26図示の関心度データは、時間軸に対して平滑化処理した後に表示してもよい。これにより、講師ユーザUbは、関心度を認識しやすくなる。
【0128】
本実施形態の場合、通常のサロゲート法における演算期間に比べて短い30秒が設定される。これにより、瞬きの一致度をリアルタイムかつ正確に評価することができる。また、講師ユーザUbは、コンテンツデータに対する生徒ユーザUaの関心度を正確に把握することができる。
【0129】
<第5実施形態>
本実施形態では、生徒ユーザUaの人数に応じて特異な瞬き特性を有する生徒ユーザUaを瞬きの一致度評価の対象から除外するかどうかを判定する例について説明する。
【0130】
図28は、瞬き一致度の評価および関心度データの生成を示すフローチャートS300Dの一例である。
図28に示すように、評価部1107は生徒ユーザUaの数が所定の人数(この例では20人)以上であるかどうかを判定する(S304D1)。生徒ユーザUaの数が所定の人数未満の場合(S304D1;No)、特異な瞬き特性を有する生徒ユーザUaのデータであるか否かの判定がなされる(S304D2)。所定の人数以上の場合(S304D1;Yes)、特異な瞬き特性を有する生徒ユーザUaのデータであるか否かの判定はなされずに評価処理(S305)が実行される。つまり、生徒ユーザUaの数が所定の人数(例えば20人以上)の場合、第2実施形態のように特異な瞬き特性を有する生徒ユーザUaがいたとしても、当該生徒ユーザUaの瞬きデータを除外しなくても瞬きの一致度が、特異な瞬き特性を有する生徒ユーザからの大きな影響を受けずに精度よくに評価することができる。
【0131】
<第6実施形態>
本実施形態では、瞬きの一致度を評価するとともに、瞬きが抑圧された状態(時間)を評価する例について説明する。
【0132】
図29は、瞬き一致度の評価および関心度データの生成を示すフローチャートS300Eの一例である。
図29に示すように、評価部1107は、瞬きの一致度評価処理(S311)と並行して瞬き抑圧状態(時間)評価を行ってもよい(S312)。例えば、評価部1107は、複数のコンテンツサブデータに対する瞬きデータを用いて瞬き抑圧状態の評価を行ってもよい。瞬き抑圧状態(時間)評価では、例えば、複数の生徒ユーザUaにおいて瞬きをしない時間が所定の時間以上である場合、評価部1107は瞬きが抑圧されていると判定し、生成度1109Aは、複数の生徒ユーザUaがコンテンツデータに興味を持っていると判定してもよい。生成部1109は、瞬きの一致度および瞬き抑圧状態の結果をもとに、関心度情報を生成することができる(S313)。
【0133】
<第7実施形態>
本実施形態では、第1実施形態とは異なるデータ処理システム一つの生徒ユーザUa端末装置で取得される画像データの中に複数の生徒ユーザUaの顔が含まれる例について説明する。なお、第1実施形態と重複する構成については、適宜省略して説明する。
【0134】
図30は、本発明の第1実施形態であるデータ処理システム1Fの全体構成を示すブロック図である。データ処理システム1Fにおいて、生徒端末装置20Fa-1から表示されるコンテンツデータを複数の生徒ユーザUa1-1(Ua1-1~m、mは2以上)が視聴している。より具体的には、塾の講義を生徒がモニタ越しに視聴する例が挙げられる。
【0135】
図31は、コンテンツデータを視聴する生徒ユーザUaを撮像した画像である。前述したとおり、生徒端末装置20Fa-1から表示されるコンテンツデータを複数の生徒ユーザUa1-1(Ua1-1~m、mは2以上)が視聴しているので、一つの撮像装置に複数の生徒ユーザUa1-1(Ua1-1~m、mは2以上)が一画面内に撮影された画像データが出力される。各生徒ユーザUa1には、あらかじめ生徒ユーザUa1-1(Ua1-1~m、mは2以上)を識別するための固有の識別情報が付与され、生徒端末装置20Fa-1は生徒ユーザUa1-1(Ua1-1~m、mは2以上)を、顔認識アルゴリズムなどの実行することにより生徒の識別情報を認識する。
図31に示すように当該画像をモニタ表示器に表示するに際しては、各生徒ユーザUaに対して識別情報が表示される。
【0136】
図32は、データ処理システム1Fで実行される瞬きデータの生成を示すフローチャートS200Fである。
【0137】
瞬き検出部21a5は、生徒端末装置20aF-1に表示されたコンテンツサブデータを視聴する複数の生徒ユーザUa-1の瞬き有無を検出する(S205F)。このとき、瞬き検出部21a5は、撮像部25によって複数の生徒ユーザUa-1の目を撮像し、各生徒ユーザUa-1の瞬きを検出する。先の実施形態で説明したように本実施形態おける瞬き検出部21a5は比較的少ない計算負荷で精度良く瞬きの有無を判定することができるので、
図31に示すような生徒ユーザUa端末装置で取得される画像データの中に複数の生徒ユーザUaの顔が含まれる場合でもリアルタイムに瞬きの有無の判定処理が行える。なお、生徒端末装置20Fa-1が、生徒ユーザUa1-1(Ua1-1~m、mは2以上)を、顔認識アルゴリズムなどの実行することにより生徒の識別情報を認識する処理は1フレーム毎に実行する必要はない。コンテンツサブデータを視聴する生徒ユーザUa1-1(Ua1-1~m、mは2以上)の画像上の位置は大きく変動することはないからである。したがって、本実施形態によれば、複数の生徒ユーザUaの顔を撮像する画素数が小さくても精度良く瞬きの有無の判定処理を行う事ができる。
【0138】
図33は、各生徒ユーザUaの瞬きデータ1030Fのデータセットである。瞬きデータ1030Fは、コンテンツサブデータ(SC)1030a、コンテンツタイムスタンプ(T1)時刻(サーバ装置10がコンテンツサブデータSCを生徒端末装置20Fa-1に送信する時刻)1030b、表示タイムスタンプ(T2)時刻(生徒端末装置20Fa-1がコンテンツサブデータSCを表示する時刻(瞬き検出時刻))1030c、コンテンツサブデータSCに対する瞬きの有無情報1030d、および取得タイムスタンプ(T3)時刻(サーバ装置10が瞬きデータを受信する時刻)1030eに加えて、生徒ユーザUa-1の識別情報1030iを含む。
【0139】
生徒端末装置20Faの送信部21a7は、生成された瞬きデータ1030Fをサーバ装置10に送信する(S207)。以上により、瞬きデータ生成フローS200は終了となる。瞬きデータ生成処理は、コンテンツデータの各コンテンツサブデータSCに対して行われる。送信された瞬きデータを用いて、サーバ装置10は、第1実施形態と同様に瞬きの一致度を評価する。
【0140】
本実施形態において、一つの生徒端末装置を複数の生徒ユーザUaが視聴する場合においても、各生徒ユーザUaの瞬きを常時監視し、リアルタイムに(より具体的には、毎秒30フレーム毎(1/30秒毎))瞬き検出を行うことができる。
【0141】
本実施形態では、一つの生徒端末装置で生成された複数の生徒ユーザUaの瞬きデータ1030Fがサーバ装置10に送信されて、サーバ装置10で瞬きの一致度を評価する例を示したが、本発明はこれに限定されない。例えば、生徒端末装置20Fa-1で生成された複数の生徒ユーザUaの瞬きデータ1030Fを用いて、生徒端末装置20Faが、瞬きの一致度を評価してもよい。この場合、生徒端末装置20Faが、瞬きの一致度を評価する前述した機能を有し、評価した瞬きの一致度結果が、サーバ装置10に送信される。これにより、サーバ装置における評価部1107の処理負荷を低減することができる。
【0142】
(変形例)
本発明の思想の範疇において、当業者であれば、各種の変更例および修正例に想到し得るものであり、それら変更例および修正例についても本発明の範囲に属するものと了解される。例えば、前述の各実施形態に対して、当業者が適宜、構成要素の追加、削除若しくは設計変更を行ったもの、又は、処理の追加、省略若しくは条件変更を行ったものも、本発明の要旨を備えている限り、本発明の範囲に含まれる。また、各実施形態の構成を組み合わせた場合も本発明の範囲に含まれる。
【0143】
本発明の第1実施形態では、コンテンツタイムスタンプとして、サーバ装置10からの送信時刻が付されたが、本発明はこれに限定されない。例えば、コンテンツタイムスタンプとしてコンテンツサブデータSCが生成された時刻が付されてもよい。
【0144】
本発明の第1実施形態では、関心度データは、色を変えて表示される例を示したが、本発明はこれに限定されない。例えば、関心度データは、同じ色で階調を変化させて表示(例えば5段階表示)されてもよい。
【0145】
本発明の第1実施形態では、関心度データは、色表示データで表示される例を示したが、本発明はこれに限定されない。関心度データは、メータで表示されてもよい。また、関心度は、色表示データまたはグラフデータなどの視覚的な情報により表現されることに限定されず、聴覚的または触覚的に表現されてもよい。例えば、関心度が聴覚的に表現される場合、関心度に応じて音声入出力部から出力されるアラーム音の音量・音周波数が変化してもよい。例えば、関心度が触覚的に表現される場合、操作部(例えばマウス、またはキーボード)、または音声入力部、音声出力部(例えばヘッドセット)における振動の強度または振動周波数が変化してもよい。
【0146】
瞬き検出部21a5は、撮像データを記憶部24に記憶させておき、所定の期間に当該撮像データを読み出して、瞬きを検出してもよい。
【0147】
本発明の第1実施形態では、講師端末装置20bに関心度を示す一つのインジケータ1070が表示される例を示したが、本発明はこれに限定されない。
図34は、講師端末装置の表示部に表示される画面の一例である。
図34に示すように、各生徒ユーザUaのウィンドウに関心度を示すインジケータが表示されてもよい。これにより、各生徒ユーザUaの関心度を把握することができる。
【符号の説明】
【0148】
1・・・データ処理システム,10・・・サーバ装置,11・・・制御部,13・・・記憶部,15・・・通信部,17・・・配線バス,20・・・端末装置,20a・・・生徒端末装置,20b・・・講師端末装置,21・・・制御部,21a1・・・取得部,21a3・・・表示制御部,21a5・・・検出部,21a7・・・送信部,21b1・・・コンテンツデータ生成部,21b3・・・送信部,21b5・・・取得部,21b7・・・表示制御部,22・・・記憶部,23・・・通信部,24・・・記憶部,25・・・撮像部,27・・・ユーザインタフェース,29・・・配線バス,111・・・演算処理装置,112・・・メモリ,271・・・表示部,272・・・音声入力部,273・・・音声出力部,274・・・操作部,1010・・・コンテンツデータ,1030・・・瞬きデータ,1050・・・瞬きの一致度を示すデータ,1070・・・インジケータ,1101・・・第1取得部,1103・・・第1送信部,1105・・・第2取得部,1107・・・評価部,1109・・・生成部,1111・・・第2送信部