【文献】
八尾智幸, 外4名,”テレビ視聴行動からの個人的選好獲得のための行動認識”,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2004年 1月16日,第103巻, 第585号,p.65-70
(58)【調査した分野】(Int.Cl.,DB名)
前記集中度算出部は、前記人物の顔が前記表示物へ向いている時間が短いほど前記人物の表情の変化及び前記人物の動作の変化に基づいて求まる値を大きくすることを特徴とする、請求項1に記載の情報処理装置。
前記集中度算出部は、前記人物の顔が前記表示物へ連続して向いている時間が長いほど前記集中度が高くなるように前記集中度を算出することを特徴とする、請求項1に記載の情報処理装置。
【発明を実施するための形態】
【0012】
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0013】
<1.本発明の一実施形態>
[表示装置の外観例]
以下では、本発明の情報処理装置の一例として、カメラその他の撮像装置及びマイクを備える表示装置を例示して、本発明の一実施形態を説明する。
図1は、本発明の一実施形態に係る表示装置の外観例を示す説明図である。以下、
図1を用いて本発明の一実施形態に係る表示装置の外観例について説明する。
【0014】
図1は、表示装置100を正面から見た状態を示したものである。
図1に示した表示装置100は、例えばテレビ受像機であり、テレビジョン放送を受信して表示することができる装置である。
図1に示したように、表示装置100は、テレビジョン放送を受信して表示するための表示部110を有する。表示部110は、液晶ディスプレイパネルであってもよく、プラズマディスプレイパネルであってもよく、有機ELディスプレイパネルであってもよく、またこれら以外のディスプレイパネルであってもよい。
【0015】
そして本発明の一実施形態に係る表示装置100は、
図1に示したように、表示部110の上部中央部分に撮像部102及びマイク103を有する。撮像部102は、CCDイメージセンサ、CMOSイメージセンサその他の撮像素子によって静止画像や動画像を電子的に撮像する機能を有する。またマイク103は、表示装置100の前方に位置するユーザの声を集音する機能を有する。本実施形態では、撮像部102は特に、表示装置100が表示する映像を見るユーザの姿を撮像するために設けられる。本実施形態に係る表示装置100は、撮像部102が撮像し、マイク103が集音したことで得られる映像に映っているユーザの姿を解析することで、そのユーザがどの程度集中して表示装置100が表示する映像を見ているかの関心度合いを算出する。本実施形態では、その関心度合いのことを「集中度」と規定する。
【0016】
本発明の一実施形態に係る表示装置100は、ユーザの集中度を算出する際に、ユーザの視線方向の情報を用いることはもちろん、ユーザの表情の変化の情報や、ユーザの体の動きの変化の情報を用いる。本発明の一実施形態に係る表示装置100は、ユーザの視線方向の情報、ユーザの表情の変化の情報、ユーザの体の動きの変化の情報を用いることで、表示物等に対するそのユーザの集中度を精度高く算出することができる。
【0017】
以上、
図1を用いて本発明の一実施形態に係る表示装置100の外観例について説明した。次に、本発明の一実施形態に係る表示装置100の機能構成例について説明する。
【0018】
[表示装置の機能構成例]
図2は、本発明の一実施形態に係る表示装置100の機能構成例を示す説明図である。以下、
図2を用いて本発明の一実施形態に係る表示装置100の機能構成例について説明する。
【0019】
図2に示したように、本発明の一実施形態に係る表示装置100は、撮像部102と、マイク103と、表示部110と、映像処理部112と、顔向き検出部114と、表情検出部116と、動作検出部118と、集中度算出部120と、を含んで構成される。
【0020】
撮像部102は、
図1に示したように、CCDイメージセンサ、CMOSイメージセンサその他の撮像素子によって、表示装置100が表示する映像を見るユーザの姿を電子的に撮像するように設けられる。撮像部102は、レンズや上述した撮像素子、A/Dコンバータ等で構成される。そして撮像部102は、撮像した画像を後段の映像処理部112に供給する。マイク103は、表示装置100の前方に位置するユーザの声を集音する機能を有する。マイク103は、集音した音を後段の映像処理部112に供給する。
【0021】
表示部110は、テレビジョン放送を受信して表示する装置であり、テレビジョン放送を受信するためのチューナ(図示せず)から送られてくる信号に基づいて映像を表示する。
【0022】
映像処理部112は、撮像部102が撮像し、マイク103が集音したことで得られる映像に対する映像処理を実行する。映像処理部112が実行する映像処理には、例えば撮像部102が撮像した動画像のノイズを除去して画質を向上させる処理等がある。映像処理部112は、撮像部102が撮像し、マイク103が集音したことで得られる映像に対する映像に対する映像処理を実行すると、映像を顔向き検出部114、表情検出部116及び動作検出部118に供給する。
【0023】
顔向き検出部114は、映像処理部112から供給される映像に人間が含まれていれば、その人間の顔の向きを検出する。顔向き検出部114は、映像中の人間の顔の向きの情報を集中度算出部120に送る。
【0024】
表情検出部116は、映像処理部112から供給される映像に人間が含まれていれば、その人間の表情の変化を検出する。表情検出部116は、人間の表情の変化を、例えばフレーム間の差分を取るなどして検出する。表情検出部116は、映像中の人間の表情の変化の情報を集中度算出部120に送る。
【0025】
動作検出部118は、映像処理部112から供給される映像に人間が含まれていれば、その人間の動作の変化を検出する。動作検出部118は、人間の動作の変化を、例えばフレーム間の差分を取るなどして検出する。動作検出部118は、映像中の人間の動作の変化の情報を集中度算出部120に送る。
【0026】
集中度算出部120は、顔向き検出部114が検出した映像中の人間の顔の向きの情報、表情検出部116が検出した映像中の人間の表情の変化の情報、動作検出部118が検出した映像中の人間の動作の変化の情報から、その人間の集中度を算出する。
【0027】
本実施形態では、集中度算出部120は、撮像部102が撮像し、マイク103が集音したことで得られる映像に映っている人物が、視線を表示部110の方向に向け、表情も動作も全く変えてない状態で最大の集中度となるように集中度を算出する。そして集中度算出部120は、撮像部102が撮像し、マイク103が集音したことで得られる映像に映っている人物の視線が変化したり、表情や動きに変化があったりすると、その人物は表示部110が表示している映像から興味が逸れているとみなし、集中度を減少させるように集中度を算出する。
【0028】
集中度算出部120が算出した集中度は様々な形態で活用することができる。一例を挙げれば、集中度算出部120が算出した集中度は、表示部110に表示されるようにしても良い。また集中度算出部120が算出した集中度は、表示部110が表示している映像を放送している放送局に送られるようにしても良い。
【0029】
本発明の一実施形態に係る表示装置100は、
図2に示したような構成を有することで、表示部110が表示している映像を見ている人物の集中度を、その人物が映っている映像の解析結果から算出することが出来る。
【0030】
以上、
図2を用いて本発明の一実施形態に係る表示装置100の機能構成例について説明した。次に、本発明の一実施形態に係る表示装置100の動作例について説明する。
【0031】
[表示装置の動作例]
図3は、本発明の一実施形態に係る表示装置100の動作例を示す流れ図である。
図3に示したのは、表示装置100に設けられた撮像部102が撮像し、マイク103が集音したことで得られる映像から、ユーザの集中度を算出する際の、表示装置100の動作例である。以下、
図3を用いて本発明の一実施形態に係る表示装置100の動作例について説明する。
【0032】
表示装置100は、表示部110で映像を表示している際に、撮像部102によって表示部110の前方方向の画像を撮像し、マイク103で表示部110の前方方向の音を集音することで、表示部110が表示する映像を見ているユーザの姿を映像で撮像する(ステップS101)。
【0033】
上記ステップS101で、表示部110が表示する映像を見ているユーザの姿を映像で撮像すると、続いて表示装置100は、撮像部102が撮像し、マイク103が集音したことで得られる映像から、表示部110が表示する映像を見ているユーザの顔の向き、ユーザの表情の変化、ユーザの動作の変化をそれぞれ検出する(ステップS102、S103、S104)。
【0034】
このステップS102、S103、S104において、ユーザの顔の向きは顔向き検出部114が、表情の変化は表情検出部116が、動作の変化は動作検出部118が、それぞれ検出する。なお、表情の変化や動作の変化の検出に際しては、表情検出部116や動作検出部118は、ある所定の時間(例えば30秒間等)における変化量を、フレーム間差分その他の方法によって検出する。
【0035】
表示部110が表示する映像を見ているユーザの顔の向き、ユーザの表情の変化、ユーザの動作の変化をそれぞれ検出すると、続いて表示装置100は、これらの情報を用いて、そのユーザの集中度を算出する(ステップS105)。集中度の算出は集中度算出部120が行なう。なお、撮像部102が撮像し、マイク103が集音したことで得られる映像に複数のユーザが含まれていれば、集中度算出部120はユーザごとに集中度を算出する。表示装置100は、ユーザの違いを例えばユーザの顔を認識することによって判別するようにしても良い。
【0036】
上述したように本実施形態では、集中度算出部120は、撮像部102が撮像し、マイク103が集音したことで得られる映像に映っている人物が、視線を表示部110の方向に向け続け、表情も動作も全く変えていない状態で最大の集中度となるように集中度を算出する。以下の説明では、集中度算出部120は最大の集中度を100とし、人物の視線が変化したり、表情や動きに変化があったりすると、最大の集中度100から減算するようにしてユーザの集中度を算出する場合を説明する。もちろん、集中度の最大値は係る例に限定されるものではない。
【0037】
例えば、集中度算出部120は、以下の数式を用いることで、撮像部102が撮像し、マイク103が集音したことで得られる映像に映っている人物の集中度Aを算出する。なお、下記の数式においてαおよびβは係数であり、映像の表示状況や表示装置100の設置環境等に応じて変化する値である。
【0038】
集中度A=100−(α×表情の変化量+β×動作の変化量)×顔向き率
【0039】
この数式は、顔向き検出部114が検出したユーザの顔の向きの情報を、顔向き率というパラメータに換算することで集中度Aを算出するものである。つまり集中度算出部120は、ユーザが所定の時間内に表示部110の方向を何パーセント向いているかを求め、その率を、表情の変化量と動作の変化量の和に掛け合わせることで、最大の集中度(100)から減算する値を決定する。
【0040】
なお、表情の変化量より動作の変化量の方が、集中度の減少に与える影響は大きいと考えられるので、集中度算出部120は、係数αより係数βの値を大きく設定して集中度Aを算出しても良い。もちろん、集中度算出部120は、係数βより係数αの値を大きく設定して集中度Aを算出しても良く、係数αと係数βの値を同じ値に設定して集中度Aを算出しても良い。
【0041】
本発明の一実施形態に係る表示装置100は、このように動作することで、表示部110が表示する映像を見ているユーザの集中度を求めることが出来る。
【0042】
ここで、撮像部102が撮像し、マイク103が集音したことで得られる映像からユーザの集中度を算出する具体例を説明する。
図4は、撮像部102が撮像し、マイク103が集音したことで得られる映像の例を示す説明図である。
図4に示したのは、ユーザが表示部110の方を向いている状態の映像における、あるフレームの画像の例である。
【0043】
図4に示したように、ユーザが表示部110の方を向いている状態が継続すれば、そのユーザは表示部110が表示する映像を集中して見ているものと考えられる。従って、
図4に示した状態を続けていれば、集中度算出部120は、そのユーザの集中度は100であるとするように集中度を算出する。そして集中度算出部120は、この
図4に示した状態を基準としてユーザの集中度を算出していく。
【0044】
図5は、撮像部102が撮像し、マイク103が集音したことで得られる映像の例を示す説明図である。
図5に示したのは、ユーザが
図4と同様に表示部110の方を向いているが、表情が
図4に示した場合から変化した状態の画像の例である。
【0045】
表示部110が表示する映像を見ているユーザの表情が変化したということは、表示部110が表示している映像に反応したということも考えられるが、表示部110が表示している映像とは無関係に反応したということも考えられる。そこで本実施形態では、表情検出部114が、撮像部102が撮像し、マイク103が集音したことで得られる映像に映っているユーザの表情の変化を検出し、集中度算出部120は、表情検出部114が検出したユーザの表情の変化に応じて集中度を減算させていく。
【0046】
図6は、撮像部102が撮像し、マイク103が集音したことで得られる映像の例を示す説明図である。
図6に示したのは、ユーザが
図4と同様に表示部110の方を向いているが、ユーザの体勢が
図4に示した場合から変化した状態の画像の例である。
【0047】
表示部110が表示する映像を見ているユーザの体勢が変化したということは、表示部110が表示している映像に反応したということも考えられるが、表示部110が表示している映像とは無関係に反応したということも考えられる。そこで本実施形態では、動作検出部116が、撮像部102が撮像し、マイク103が集音したことで得られる映像に映っているユーザの体勢の変化を検出し、集中度算出部120は、表情の変化の場合と同様に、動作検出部116が検出したユーザの体勢の変化に応じて集中度を減算させていく。動作検出部116は、ユーザの体勢の変化の他に、ユーザが発した声の変化を検出しても良く、集中度算出部120は、動作検出部116が検出した、ユーザが発した声の変化の状況を用いて集中度を減算させていくようにしてもよい。
【0048】
図7は、撮像部102が撮像し、マイク103が集音したことで得られる映像の例を示す説明図である。
図7に示したのは、ユーザの顔の向きが表示部110の方ではない方向を向いている状態の画像の例である。
【0049】
ユーザの顔の向きが表示部110の方ではない方向を向いているということは、表示部110が表示している映像へのユーザの集中度が低下したことを意味すると考えられる。そこで上述したように、集中度算出部120は、ユーザが所定の時間内に表示部110の方向を何パーセント向いているかを求め、その率を、表情の変化量と動作の変化量の和に掛け合わせることで、最大の集中度(100)から減算する値を決定する。
【0050】
集中度算出部120は、このようにして撮像部102が撮像し、マイク103が集音したことで得られる映像から、その映像に映っているユーザの集中度を求めることができる。
【0051】
集中度算出部120は、上述の係数αおよびβを、顔向き率に応じて変化させても良い。つまり、顔向き率に応じて下記の数式のように係数を変化させても良い。
【0052】
(顔向き率が80%以上の場合)
集中度A=100−(α
1×表情の変化量+β
1×動作の変化量)
(顔向き率が50%以上80%未満の場合)
集中度A=100−(α
2×表情の変化量+β
2×動作の変化量)
(顔向き率が50%未満の場合)
集中度A=100−(α
3×表情の変化量+β
3×動作の変化量)
【0053】
上述の数式では、α
1<α
2<α
3、β
1<β
2<β
3であるとする。つまり、ユーザが表示部110の方向を向いている割合が多ければ多いほど、変化量に乗じる係数を小さくする。集中度算出部120は、このように係数を変化させることで、ユーザが表示部110の方向をあまり向いていなければ、少しの変化でも集中度Aが大きく減少するようにユーザの集中度を算出する。
【0054】
上述の説明では、顔向き検出部114、表情検出部116、動作検出部118、及び集中度算出部120が、表示装置100の内部に設けられる形態を示したが、本発明は係る例に限定されるものではない。例えば、表示装置100の表示部110に表示されている映像を見ているユーザを撮像部102で撮像した映像データを表示装置100から取得して、その映像データを、上述の顔向き検出部114、表情検出部116、動作検出部118、及び集中度算出部120と同じ機能を実行する装置に与えて、当該装置で映像データを解析することで、ユーザの集中度を算出するようにしてもよい。
【0055】
また上述の説明では、表示装置100は、上記数式を用いてユーザの集中度を算出していたが、表示装置100は、算出される集中度の妥当性を学習し、ユーザの集中度の算出にその学習結果をフィードバックするようにしても良い。また表示装置100は、ユーザの動き等から算出される集中度を学習することで、ユーザの動きの変化と集中度との因果関係をモデル化してもよい。ユーザの動きの変化と集中度との因果関係のモデル化には、例えばベイジアンネットワーク等の確率推論アルゴリズムが用いられていても良い。
【0056】
例えば、算出される集中度の学習の結果、ユーザが腕を上げた時に集中度が10低下することが明らかになってくると、表示装置100は、ユーザが腕を上げたことを検知すると、その検知によって集中度を10低下させるように集中度算出部120で算出するようにしてもよい。
【0057】
また、表示装置100に撮像部102が設けられる形態の他に、
図8に示したように、表示装置100に撮像装置200が接続される形態も考えられる。なお、
図8に示したように、表示装置100に撮像装置200が接続される場合は、ユーザが撮像装置200の方を向いている場合に、ユーザが表示部110の方を向いているとは限らない。従って、集中度の算出に際し、表示装置100と撮像装置200との位置関係に応じて、ユーザが向いている方向を補正することが望ましい。
【0058】
図9は、本発明の一実施形態に係る表示装置100の動作例を示す説明図である。
図9に示したのは、
図8のように表示装置100に撮像装置200及びマイク210が接続されている場合に、撮像装置200が撮像し、マイク210が集音したことで得られる映像からユーザの集中度を算出する際の、表示装置100の動作例である。以下、
図9を用いて本発明の一実施形態に係る表示装置100の動作例について説明する。
【0059】
表示装置100は、表示部110で映像を表示している際に、表示部110が表示する映像を見ているユーザの姿を撮像装置200で撮像させる(ステップS111)。
【0060】
上記ステップS111で、表示部110が表示する映像を見ているユーザの姿を撮像装置200で撮像させると、続いて表示装置100は、撮像装置200が撮像し、マイク210が集音したことで得られる映像から、表示部110が表示する映像を見ているユーザの顔の向き、ユーザの表情の変化、ユーザの動作の変化をそれぞれ検出する(ステップS112、S113、S114)。ユーザの顔の向きは顔向き検出部114が、表情の変化は表情検出部116が、動作の変化は動作検出部118が、それぞれ検出する。なお、表情の変化や動作の変化の検出に際しては、表情検出部116や動作検出部118は、ある所定の時間(例えば30秒間等)における変化量を検出する。
【0061】
続いて表示装置100は、撮像装置200の撮像方向及び表示部110の表示方向の情報を用いて、上記ステップS112で検出した顔向きを補正する(ステップS115)。この補正は例えば顔向き検出部114が実行する。例えば、撮像装置200の撮像方向と表示部110の表示方向との間に10度の開きがあれば、撮像装置200が撮像した画像を水平方向に10度ずらした方向が表示部110の方向であるので、顔向き検出部114は、上記ステップS112で検出した顔向きを10度ずらして、実際のユーザの顔向きとする。
【0062】
表示部110が表示する映像を見ているユーザの顔の向き、ユーザの表情の変化、ユーザの動作の変化をそれぞれ検出すると、続いて表示装置100は、これらの情報を用いて、そのユーザの集中度を算出する(ステップS116)。集中度の算出は集中度算出部120が行なう。なお、撮像装置200が撮像し、マイク210が集音したことで得られる映像に複数のユーザが含まれていれば、集中度算出部120はユーザごとに集中度を算出する。
【0063】
このように本発明の一実施形態に係る表示装置100は、表示装置100に撮像装置200が接続される場合であっても、撮像装置200の撮像方向及び表示部110の表示方向の情報を用いて顔向きを補正することで、適切にユーザの集中度を算出することができる。
【0064】
上述の説明では、ユーザが所定の時間内に表示部110の方向を何パーセント向いているかを求め、顔向き率を表情の変化量と動作の変化量との和に掛け合わせることで、最大の集中度(100)から減算する値を決定していたが、本発明は係る例に限定されるものではない。例えば、1分間あたりの顔向き率が同じ75%であっても、ユーザが表示部110を45秒間見続けて、15秒間見なかった場合と、4秒に1秒のペースでユーザが表示部110から目を離した場合とで、集中度に差をつけても良い。
【0065】
<2.まとめ>
以上説明したように本発明の一実施形態によれば、表示部110が表示する映像を見ているユーザの姿を撮像し、そのユーザの状態から、集中度を求めることが出来る表示装置100を提供することができる。表示装置100は、表示部110が表示する映像を見ているユーザの姿の撮像結果から、そのユーザの表情や動きの変化、または表示部110の方を向いている割合を求め、これらの情報から集中度を求めることが出来る。
【0066】
なお、上述した本発明の一実施形態では、表示装置100はテレビジョン放送を受信して映像を表示する装置であると説明したが、本発明は係る例に限定されるものではない。例えば表示装置100は、インターネットその他のネットワークを経由して配信される映像を表示してもよく、DVDなどのソフトを再生することによって映像を表示してもよい。
【0067】
また、上述した本発明の一実施形態では、表示装置100が表示する映像を見るユーザの姿を撮像する場合を示したが、本発明が適用される形態は係る例に限定されるものではない。例えば、絵画や音、広告の近くに、上記実施形態における撮像装置200を設置しておき、その絵画や広告を見たり、音を聞いたりしている人物の姿を撮像する場合にも、本発明は同様に適用されてもよい。この場合は、その絵画や広告を見たり、音を聞いたりしている人物の集中度を算出することになり、どの絵画や広告が集中して閲覧されているか、またどの音が集中して聴かれているかが取得できる。
【0068】
本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
【0069】
また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアで構成することで、一連の処理をハードウェアで実現することもできる。
【0070】
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。