IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ レノボ・シンガポール・プライベート・リミテッドの特許一覧

<>
  • 特許-情報処理装置、及び制御方法 図1
  • 特許-情報処理装置、及び制御方法 図2
  • 特許-情報処理装置、及び制御方法 図3
  • 特許-情報処理装置、及び制御方法 図4
  • 特許-情報処理装置、及び制御方法 図5
  • 特許-情報処理装置、及び制御方法 図6
  • 特許-情報処理装置、及び制御方法 図7
  • 特許-情報処理装置、及び制御方法 図8
  • 特許-情報処理装置、及び制御方法 図9
  • 特許-情報処理装置、及び制御方法 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2024-11-05
(45)【発行日】2024-11-13
(54)【発明の名称】情報処理装置、及び制御方法
(51)【国際特許分類】
   G06T 7/00 20170101AFI20241106BHJP
   G09G 5/00 20060101ALI20241106BHJP
【FI】
G06T7/00 660A
G09G5/00 550C
G09G5/00 550X
【請求項の数】 8
(21)【出願番号】P 2024028554
(22)【出願日】2024-02-28
【審査請求日】2024-02-28
(73)【特許権者】
【識別番号】505205731
【氏名又は名称】レノボ・シンガポール・プライベート・リミテッド
(74)【代理人】
【識別番号】100161207
【弁理士】
【氏名又は名称】西澤 和純
(74)【代理人】
【識別番号】100169764
【弁理士】
【氏名又は名称】清水 雄一郎
(74)【代理人】
【識別番号】100175824
【弁理士】
【氏名又は名称】小林 淳一
(74)【代理人】
【識別番号】100206081
【弁理士】
【氏名又は名称】片岡 央
(72)【発明者】
【氏名】西尾 匡史
(72)【発明者】
【氏名】和田 祐司
(72)【発明者】
【氏名】莫 立恒
【審査官】松永 隆志
(56)【参考文献】
【文献】特開2010-205269(JP,A)
【文献】特開2019-179386(JP,A)
【文献】国際公開第2020/189196(WO,A1)
【文献】中国特許出願公開第117472316(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G09G 5/00
(57)【特許請求の範囲】
【請求項1】
物体との距離を測定する測距センサと、
前記測距センサにより測定された距離を示す距離情報を一時的に記憶するメモリと、
前記距離情報に基づいて処理を実行するプロセッサと、
を備え、
前記プロセッサは、
前記測距センサを用いて第1距離の範囲内に存在する人物を検出する人物検出処理と、
前記人物検出処理により前記第1距離の範囲内に人物が検出された場合に、当該人物の顔の向きを判定する顔方向判定処理と、
を行い、
前記顔方向判定処理において、
前記人物検出処理により検出された人物が前記第1距離よりも近い第2距離の範囲内である場合、前記測距センサを用いて当該人物の顔の向きを判定し、
前記人物検出処理により検出された人物が前記第2距離の範囲内から前記第2距離の範囲外へ移動した場合には、前記第2距離の範囲内で判定された顔の向きの判定結果を維持し、
前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態から前記第1距離の範囲内のうちの前記第2距離の範囲外に人物が検出された場合には、予め設定された顔の向きの判定結果に固定する、
情報処理装置。
【請求項2】
前記プロセッサは、
前記顔方向判定処理において、
前記人物検出処理により検出された人物が前記第2距離の範囲内から前記第2距離の範囲外へ移動したことにより前記第2距離の範囲内で判定された顔の向きの判定結果を維持した後、前記人物検出処理により検出された人物が再び前記第2距離の範囲内へ移動したときには、判定結果の維持を解除し、前記測距センサを用いて当該人物の顔の向きを判定する、
請求項1に記載の情報処理装置。
【請求項3】
前記プロセッサは、
前記顔方向判定処理において、
前記人物検出処理により検出された人物が前記第2距離の範囲内から前記第2距離の範囲外へ移動したことにより前記第2距離の範囲内で判定された顔の向きの判定結果を維持した後、前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態になった場合、判定結果の維持を解除し、前記顔方向判定処理を終了する、
請求項1に記載の情報処理装置。
【請求項4】
前記プロセッサは、
前記顔方向判定処理において、
前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態から前記第1距離の範囲内のうちの前記第2距離の範囲外に人物が検出されたことにより顔の向きの判定結果を固定した後、前記人物検出処理により検出された人物が前記第2距離の範囲外から前記第2距離の範囲内へ移動したときには、判定結果の固定を解除し、前記測距センサを用いて当該人物の顔の向きを判定する、
請求項1に記載の情報処理装置。
【請求項5】
前記プロセッサは、
前記顔方向判定処理において、
前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態から前記第1距離の範囲内のうちの前記第2距離の範囲外に人物が検出されたことにより顔の向きの判定結果を固定した後、前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態になった場合、判定結果の固定を解除し、前記顔方向判定処理を終了する、
請求項1に記載の情報処理装置。
【請求項6】
前記プロセッサは、
前記顔方向判定処理において、前記人物検出処理により前記第1距離の範囲内に検出された人物の顔の向きが前記情報処理装置の方向を向いているか否かを判定し、
予め設定された顔の向きの判定結果に固定する際には、人物の顔の向きが前記情報処理装置の方向を向いていると判定した判定結果に固定する、
請求項1に記載の情報処理装置。
【請求項7】
前記プロセッサは、
前記顔方向判定処理により判定された前記顔の向きに基づいて、表示部の画面輝度を制御する画面輝度制御処理を行う、
請求項1から請求項6のいずれか一項に記載の情報処理装置。
【請求項8】
物体との距離を測定する測距センサと、前記測距センサにより測定された距離を示す距離情報を一時的に記憶するメモリと、前記距離情報に基づいて処理を実行するプロセッサと、を備える情報処理装置における制御方法であって、
前記プロセッサが、
前記測距センサを用いて第1距離の範囲内に存在する人物を検出する人物検出ステップと、
前記人物検出ステップにより前記第1距離の範囲内に人物が検出された場合に、当該人物の顔の向きを判定する顔方向判定ステップと、
を含み、
前記顔方向判定ステップにおいて、
前記人物検出ステップにより検出された人物が前記第1距離よりも近い第2距離の範囲内である場合、前記測距センサを用いて当該人物の顔の向きを判定し、
前記人物検出ステップにより検出された人物が前記第2距離の範囲内から前記第2距離の範囲外へ移動した場合には、前記第2距離の範囲内で判定された顔の向きの判定結果を維持し、
前記人物検出ステップにより前記第1距離の範囲内に人物が検出されない状態から前記第1距離の範囲内のうちの前記第2距離の範囲外に人物が検出された場合には、予め設定された顔の向きの判定結果に固定する、
制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、及び制御方法に関する。
【背景技術】
【0002】
赤外線などを用いて距離を検出する距離センサ(測距センサ)で人物の接近を検出すると自動でシステムを起動させる機器がある(例えば、特許文献1)。
【0003】
また、近年、コンピュータビジョンなどの発展により、カメラで撮像した撮像画像から顔を検出する際の検出精度が高くなり、顔検出による人物の検出も行われている。顔検出による人物の検出では、単に人物を検出するだけでなく顔の向きを判定することも可能であるため、顔の向き(正面を向いているか、横を向いているか等)に応じた制御を行うことも可能である。例えば、顔が横を向いた場合には、画面輝度を低減またはオフに制御することにより、ユーザが使用していない期間に無駄に電力が消費されないようにすることも行われている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2020-102151号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
上述した顔検出による顔の向きの判定は、顔検出のための画像認識などに係る開発負荷が大きく、またカメラを用いて撮像する必要があるため消費電力も高い。そのため、測距センサを用いた簡易な方法で人物の顔の向きを判定することで消費電力を抑制する方法が考えられる。例えば、測距センサで顔の向きを判定するには、顔の上部の測距値と下部の測距値との差分や顔の左部の測距値と右部の測距値との差分などを利用して判定することが可能である。しかしながら、顔の向きの変化による測距値のわずかな差分で判定する必要があるため、遠距離では測距時の誤差に埋もれてしまい、判定可能な範囲が近距離に限られてしまう。そのため、人物の検出が可能な範囲のうち近距離の範囲では測距センサを用いて人物の顔の向きを判定するものの、測距センサで顔の向きを判定可能な距離の範囲を超えた場合には、顔が正面を向いているものとして判定を固定するなどの対応がとられている。
【0006】
顔の向きを判定可能な距離の範囲内では測距センサを用いて顔の向きを判定し、顔の向きを判定可能な距離の範囲を超えると顔が正面を向いているものとして判定を固定する対応をとった場合には、判定可能な距離の範囲の境界付近では判定結果が不安定に変化してしまい、この判定結果を元に画面輝度を制御すると画面輝度も不安定になってしまう懸念がある。
【0007】
本発明は、上記した事情に鑑みてなされたもので、測距センサを用いた制御の安定性を向上させる情報処理装置、及び制御方法を提供することを目的の一つとする。
【課題を解決するための手段】
【0008】
本発明は上記の課題を解決するためになされたものであり、本発明の第1態様に係る情報処理装置は、物体との距離を測定する測距センサと、前記測距センサにより測定された距離を示す距離情報を一時的に記憶するメモリと、前記距離情報に基づいて処理を実行するプロセッサと、を備え、前記プロセッサは、前記測距センサを用いて第1距離の範囲内に存在する人物を検出する人物検出処理と、前記人物検出処理により前記第1距離の範囲内に人物が検出された場合に、当該人物の顔の向きを判定する顔方向判定処理と、を行い、前記顔方向判定処理において、前記人物検出処理により検出された人物が前記第1距離よりも近い第2距離の範囲内である場合、前記測距センサを用いて当該人物の顔の向きを判定し、前記人物検出処理により検出された人物が前記第2距離の範囲内から前記第2距離の範囲外へ移動した場合には、前記第2距離の範囲内で判定された顔の向きの判定結果を維持し、前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態から前記第1距離の範囲内のうちの前記第2距離の範囲外に人物が検出された場合には、予め設定された顔の向きの判定結果に固定する。
【0009】
上記情報処理装置において、前記プロセッサは、前記顔方向判定処理において、前記人物検出処理により検出された人物が前記第2距離の範囲内から前記第2距離の範囲外へ移動したことにより前記第2距離の範囲内で判定された顔の向きの判定結果を維持した後、前記人物検出処理により検出された人物が再び前記第2距離の範囲内へ移動したときには、判定結果の維持を解除し、前記測距センサを用いて当該人物の顔の向きを判定してもよい。
【0010】
上記情報処理装置において、前記プロセッサは、前記顔方向判定処理において、前記人物検出処理により検出された人物が前記第2距離の範囲内から前記第2距離の範囲外へ移動したことにより前記第2距離の範囲内で判定された顔の向きの判定結果を維持した後、前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態になった場合、判定結果の維持を解除し、前記顔方向判定処理を終了してもよい。
【0011】
上記情報処理装置において、前記プロセッサは、前記顔方向判定処理において、前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態から前記第1距離の範囲内のうちの前記第2距離の範囲外に人物が検出されたことにより顔の向きの判定結果を固定した後、前記人物検出処理により検出された人物が前記第2距離の範囲外から前記第2距離の範囲内へ移動したときには、判定結果の固定を解除し、前記測距センサを用いて当該人物の顔の向きを判定してもよい。
【0012】
上記情報処理装置において、前記プロセッサは、前記顔方向判定処理において、前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態から前記第1距離の範囲内のうちの前記第2距離の範囲外に人物が検出されたことにより顔の向きの判定結果を固定した後、前記人物検出処理により前記第1距離の範囲内に人物が検出されない状態になった場合、判定結果の固定を解除し、前記顔方向判定処理を終了してもよい。
【0013】
上記情報処理装置において、前記プロセッサは、前記顔方向判定処理において、前記人物検出処理により前記第1距離の範囲内に検出された人物の顔の向きが前記情報処理装置の方向を向いているか否かを判定し、予め設定された顔の向きの判定結果に固定する際には、人物の顔の向きが前記情報処理装置の方向を向いていると判定した判定結果に固定してもよい。
【0014】
上記情報処理装置において、前記プロセッサは、前記顔方向判定処理により判定された前記顔の向きに基づいて、表示部の画面輝度を制御する画面輝度制御処理を行ってもよい。
【0015】
また、本発明の第2態様に係る、物体との距離を測定する測距センサと、前記測距センサにより測定された距離を示す距離情報を一時的に記憶するメモリと、前記距離情報に基づいて処理を実行するプロセッサと、を備える情報処理装置における制御方法は、前記プロセッサが、前記測距センサを用いて第1距離の範囲内に存在する人物を検出する人物検出ステップと、前記人物検出ステップにより前記第1距離の範囲内に人物が検出された場合に、当該人物の顔の向きを判定する顔方向判定ステップと、を含み、前記顔方向判定ステップにおいて、前記人物検出ステップにより検出された人物が前記第1距離よりも近い第2距離の範囲内である場合、前記測距センサを用いて当該人物の顔の向きを判定し、前記人物検出ステップにより検出された人物が前記第2距離の範囲内から前記第2距離の範囲外へ移動した場合には、前記第2距離の範囲内で判定された顔の向きの判定結果を維持し、前記人物検出ステップにより前記第1距離の範囲内に人物が検出されない状態から前記第1距離の範囲内のうちの前記第2距離の範囲外に人物が検出された場合には、予め設定された顔の向きの判定結果に固定する。
【発明の効果】
【0016】
本発明の上記態様によれば、測距センサを用いた制御の安定性を向上させることができる。
【図面の簡単な説明】
【0017】
図1】実施形態に係る情報処理装置の外観の構成例を示す斜視図。
図2】実施形態に係る情報処理装置の人物の検出範囲の一例を示す図。
図3】実施形態に係る顔の向きの判定方法の説明図。
図4】実施形態に係るTOFセンサを用いた人物検出および顔方向判定の第1例を示す模式図。
図5】実施形態に係るTOFセンサを用いた人物検出および顔方向判定の第2例を示す模式図。
図6】実施形態に係るTOFセンサを用いた人物検出および顔方向判定の第3例を示す模式図。
図7】実施形態に係る情報処理装置のハードウェア構成の一例を示す概略ブロック図。
図8】実施形態に係る情報処理装置の機能構成の一例を示す概略ブロック図。
図9】実施形態に係る顔方向判定処理の一例を示すフローチャート。
図10】実施形態に係る画面輝度制御処理の一例を示すフローチャート。
【発明を実施するための形態】
【0018】
以下、図面を参照して、本発明の実施形態について説明する。
まず、本実施形態に係る情報処理装置1の概要について説明する。
[概要]
図1は、本実施形態に係る情報処理装置1の外観の構成例を示す斜視図である。情報処理装置1は、例えば、ノートブック型のPC(Personal Computer;パーソナルコンピュータ)である。
【0019】
情報処理装置1は、例えば、ノート型(クラムシェル型)のPC(Personal Computer)である。情報処理装置1は、第1筐体10、第2筐体20、及びヒンジ機構15を備える。第1筐体10と第2筐体20は、ヒンジ機構15を用いて結合されている。第1筐体10は、第2筐体20に対して、ヒンジ機構15がなす回転軸の周りに相対的に回動可能である。第1筐体10と第2筐体20との回動による開き角を「θ」として図示している。
【0020】
第1筐体10は、Aカバー、ディスプレイ筐体とも呼ばれる。第2筐体20は、Cカバー、システム筐体とも呼ばれる。以下の説明では、第1筐体10と第2筐体20の側面のうち、ヒンジ機構15が備わる面を、それぞれ側面10c、20cと呼ぶ。第1筐体10と第2筐体20の側面のうち、側面10c、20cとは反対側の面を、それぞれ側面10a、20aと呼ぶ。図示において、側面20aから側面20cに向かう方向を「後方」とし、側面20cから側面20aに向かう方向を「前方」とする。また、情報処理装置1から前方を見たときに、右へ向かう方向を「右方」とし、左へ向かう方向を「左方」とする。第1筐体10、第2筐体20の右側の側面をそれぞれ側面10b、20bと呼び、左側の側面をそれぞれ側面10d、20dと呼ぶ。また、第1筐体10と第2筐体20とが重なり合って完全に閉じた状態(開き角θ=0°の状態)を「閉状態」と呼ぶ。閉状態において第1筐体10と第2筐体20との互いに対面する側の面を、それぞれの「内面」と呼び、内面に対して反対側の面を「外面」と呼ぶ。また、閉状態に対して第1筐体10と第2筐体20とが開いた状態のことを「開状態」と呼ぶ。
【0021】
図1に示す情報処理装置1の外観は開状態の例を示している。開状態は、第1筐体10の側面10aと第2筐体20の側面20aとが離れた状態である。開状態では、第1筐体10と第2筐体20とのそれぞれの内面が表れる。開状態はユーザが情報処理装置1を使用する際の状態の一つであり、典型的には開き角θ=100~130°程度の状態で使用されることが多い。なお、開状態となる開き角θの範囲は、ヒンジ機構15よって回動可能な角度の範囲等に応じて任意に定めることができる。
【0022】
第1筐体10の内面には、表示部110が設けられている。表示部110は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどを含んで構成されている。また、第1筐体10の内面のうち表示部110の周縁の領域に、TOFセンサ130が設けられている。例えば、TOFセンサ130は、表示部110の周縁の領域のうち側面20a側に配置されている。なお、TOFセンサ130が配置される位置は一例であって、表示部110の表示画面に対面する方向を向くことが可能であれば他の場所であってもよい。
【0023】
TOFセンサ130は、表示部110の表示画面に対面する方向(即ち、情報処理装置1の前方)に存在する物体(例えば、人物)との距離を測定する測距センサである。例えば、TOFセンサ130は、赤外線を発光する発光部と、発光した赤外線が物体の表面に反射して戻ってくる反射光を受光する受光部とを含んで構成されている。TOFセンサ130は、所定のサンプリング周期(例えば、1Hz)で前方へ赤外線を発光し、発光した赤外線の反射光を受光することにより、発光から受光までの時間差を距離に換算するToF(Time of Flight)方式を用いて、物体(例えば、人物)との距離に応じた測距信号を出力する。
【0024】
また、第2筐体20の側面20bには、電源ボタン140が設けられている。電源ボタン140は、電源のオンまたはオフ、待機状態から通常動作状態への遷移、通常動作状態から待機状態への遷移などをユーザが指示するための操作子である。通常動作状態とは、特に制限なく処理の実行が可能なシステムの動作状態であり、例えば、ACPI(Advanced Configuration and Power Interface)で規定されているS0状態に相当する。
【0025】
待機状態とは、システム処理の少なくとも一部が制限されている状態であって、通常動作状態よりも消費電力が低い状態である。例えば、待機状態は、スタンバイ状態、スリープ状態等であってもよく、Windows(登録商標)におけるモダンスタンバイや、ACPIで規定されているS3状態(スリープ状態)等に相当する状態であってもよい。また、待機状態には、少なくとも表示部の表示がOFF(画面OFF)となる状態、または画面ロックとなる状態が含まれてもよい。画面ロックとは、処理中の内容が視認できないように予め設定された画像(例えば、画面ロック用の画像)が表示部に表示され、ロックを解除(例えば、ユーザ認証)するまで、使用できない状態である。
【0026】
また、第2筐体20の内面には、ユーザの操作入力を受け付ける入力デバイスとして、キーボード151及びタッチパッド153が設けられている。なお、入力デバイスとして、キーボード151及びタッチパッド153に代えて、または加えて、タッチセンサが設けられてもよいし、マウスや外付けのキーボードが接続されてもよい。タッチセンサが設けられた構成の場合、表示部110の表示画面に対応する領域が操作を受け付けるタッチパネルとして構成されてもよい。また、入力デバイスには、音声が入力されるマイクが含まれてもよい。
【0027】
なお、第1筐体10と第2筐体20とが閉じた閉状態では、第1筐体10の内面に設けられている表示部110と、第2筐体20の内面に設けられているキーボード151及びタッチパッド153は、互いに他方の筐体面で覆われ、機能を発揮できない状態となる。
【0028】
情報処理装置1は、TOFセンサ130により出力される測距信号に基づいて、情報処理装置1の前方に存在する人物を検出するHPD(Human Presence Detection)処理を実行する。
【0029】
図2は、本実施形態に係るTOFセンサ130の測距範囲の一例を示す図である。開状態において、第1筐体10の内面に配置されているTOFセンサ130は、第1筐体10の内面に対面する方向(前方)における物体(例えば、人物)との距離を測定する。このTOFセンサ130は、前方に存在する人物(例えば、ユーザ)を検出するための測距センサであり、人物を検出する検出範囲を検出範囲FoV(Field of View:検出視野角)と称する。検出範囲FoVは、TOFセンサ130が測距可能な角度の範囲に相当する。
【0030】
例えば、TOFセンサ130は、検出範囲FoVを8×8マスの測定単位に分割し、1マス(測定単位)ごとに測距を行う。なお、情報処理装置1を使用する人物(ユーザ)を検出することが目的であるため、一定距離(例えば、2m)以上離れた物体との距離は、測距対象から除外しても良い。なお、赤外線が届かないほど離れた物体との距離は、そもそも測距不可能である。
【0031】
情報処理装置1は、HPD処理により人物の存在の有無に応じて情報処理装置1のシステムの動作状態を制御する。例えば、情報処理装置1は、情報処理装置1へ人物が接近(Approach)して前方に人物が存在(Presence)することを検出した場合には、システムを起動して通常動作状態に制御する。また、情報処理装置1は、情報処理装置1から人物が離脱(Leave)して前方に人物が検出されなくなった場合には待機状態に制御する。
【0032】
また、情報処理装置1は、情報処理装置1の前方に人物が存在することが検出された場合には、TOFセンサ130により出力される測距信号に基づいて、その人物の顔の向きを検出する。例えば、情報処理装置1は、人物の顔の向きが、情報処理装置1の方向(表示部110の方向)を向いているか否かを判定する。ここで、人物の顔の向きが、情報処理装置1の方向(表示部110の方向)を向いている状態(情報処理装置1に対して顔の向きが正面を向いている状態)を、情報処理装置1を注目している状態とする。一方、人物の顔の向きが、情報処理装置1の方向(表示部110の方向)を向いていない状態(情報処理装置1に対して顔の向きが左、右、上、または下向きなどであって情報処理装置1に対して顔の向きが正面を向いていない状態)を、情報処理装置1を注目していない状態とする。
【0033】
例えば、情報処理装置1は、顔の向きの判定結果に応じて表示部110の画面輝度を制御(調光制御)する。具体的には、情報処理装置1は、顔の向きが正面を向いていない状態(情報処理装置1を注目していない状態)になると、表示部110の画面輝度を下げることで省電力化する。また、情報処理装置1は、再び顔の向きが正面を向いたときには(情報処理装置1を注目している状態になると)、下げる前の元の画面輝度に戻す。
【0034】
以下では、下げる前の元の画面輝度のことを「標準輝度」と称する。また、顔の向きが正面を向いていないときに標準輝度から下げた画面輝度のことを「低輝度」と称する。低輝度は、少なくとも標準輝度よりも低い輝度であるが、より低い輝度にするほど省電力化の効果が上がる。例えば、低輝度は、標準輝度の0~10%程度の輝度としてもよい。
【0035】
(顔の向きの判定方法)
次に、TOFセンサ130から出力される測距信号に基づいて顔の向きを判定する判定方法について説明する。本実施形態では、情報処理装置1は、顔の向きとして、正面、左、右、上、または下の向きを判定する。左右の向きとは、顔の中心をとおる垂直軸を中心軸とした回転方向に対応する水平方向への顔の向きである。また、上下の向きとは、顔の中心をとおる水平軸を中心軸とした回転方向に対応する垂直方向への顔の向きである。
【0036】
図3は、本実施形態に係る顔の向きの判定方法の説明図である。この図は、検出範囲FoVを8×8マスの64マスの測定単位に分割し、1マス(測定単位)ごとの測距値の一例を各マス内に数字で表している。例えば、各マスの測距値は、TOFセンサ130で所定の周期(例えば、1秒間隔)で測定された測距値である。人物には少なからず動きがあるため、各マスの測距値は常に変動している。そのため、信頼性の高い測距値を得るために、所定の周期(例えば、1秒間隔)で測定された測距値を時間平均してもよい。
【0037】
この図において、各マス内に数字で表している測距値の単位はミリメートルである。図示する例では、測距値が450~610のマスが、人物が存在する範囲である。測距値が1000以上のマスは、天井や人物の後方にある物体の測距値である。また、測距値が表示されていないマスは、物体が離れてすぎており測距不可能なマスである。
【0038】
人物の範囲は、その範囲のエッジが概ね山型となり、胴体の肩から上の部分の幅が、肩の幅に対して短くなるといった特徴がある。例えば、情報処理装置1は、測距値が1m(1000mm)以内で差分の少ない測距値(ここでは、450~610程度)が得られたマスの範囲のエッジが人物の特徴を持つ山型となった場合、その範囲を人物の範囲として検出(即ち、人物が存在することを検出)する。図示する例では、SL(Shoulder Left)と記載されているマスからSR(Shoulder Right)と記載されているマスまでの水平方向(左右方向)に並ぶ6マスが肩の範囲(肩の幅)に相当し、肩の範囲から上の部分の幅が肩の幅に対して短い。
【0039】
また、情報処理装置1は、肩の範囲よりも上側の左右の幅が狭い範囲を顔の範囲として検出する。例えば、情報処理装置1は、人物の範囲のうち肩の範囲よりも上側の3(横)×4(縦)マスを顔の範囲として検出する。この顔の範囲の大きさは、検出範囲FoVを8×8マスで測距を行ったときに、情報処理装置1を使用している(キーボード操作を行っている)距離に存在する人物の顔の範囲に相当する。
【0040】
なお、情報処理装置1は、人物の範囲のうち肩の範囲よりも上側の3×3マスを顔の範囲として検出してもよい。また、検出範囲FoVを8×8マス以外の測定単位で測距を行った場合には、顔の範囲も3×4マスまたは3×3マスに代えて、測定単位の数に合わせた範囲に設定される。
【0041】
また、図示するように、顔の範囲のうちの中心のマスを顔の中心として、中心のマスの上側のFT(Face Top)と記載しているマスの測距値を顔の上部(おでこの位置)の測距値とする。また、中心のマスの下側のFB(Face Bottom)と記載しているマスの測距値を顔の下部(顎の位置)の測距値とする。また、中心のマスの左側のFL(Face Left)と記載しているマスの測距値を顔の左部の測距値とする。また、中心のマスの右側のFR(Face Right)と記載しているマスの測距値を顔の左部の測距値とする。
【0042】
なお、顔の範囲のうちの中心のマスは、顔の範囲が3×3マスの場合には、3×3マスの中心のマスとなるが、顔の範囲が3(横)×4(縦)マスの場合には、2行目の中央列のマスと3行目の中央列のマストとのいずれか一方のマスとなる。ここでは、下側のマス(3行目のマス)を優先的に中心のマスとしている。
【0043】
なお、上側のマス(2行目のマス)を優先的に中心のマスとしてもよい。また、両方のマスの測距値をトラッキングして、測距値の小さい方を優先的に中心のマスとしてもよいし、測距値の変動量(移動量)が大きい方を優先的に中心のマスとしてもよい。
【0044】
情報処理装置1は、顔の上部、下部、左部、および右部の測距値に基づいて顔の向きを判定する。例えば、情報処理装置1は、顔の上部の測距値と下部の測距値との差分に基づいて、垂直方向(上下方向)への顔の向きを判定する。また、情報処理装置1は、顔の左部の測距値と右部の測距値との差分に基づいて、水平方向(左右方向)への顔の向きを判定する。
【0045】
例えば、情報処理装置1は、顔の上部の測距値と下部の測距値との差分が所定の閾値以上であって、顔の上部の測距値が下部の測距値より小さい場合、顔の向きが下向きであると判定する。一方、情報処理装置1は、顔の上部の測距値と下部の測距値との差分が所定の閾値以上であって、顔の下部の測距値が上部の測距値より小さい場合、顔の向きが上向きであると判定する。
【0046】
また、情報処理装置1は、顔の左部の測距値と右部の測距値との差分が所定の閾値以上であって、顔の左部の測距値が右部の測距値より小さい場合、顔の向きが右向きであると判定する。一方、情報処理装置1は、顔の左部の測距値と右部の測距値との差分が所定の閾値以上であって、顔の右部の測距値が左部の測距値より小さい場合、顔の向きが左向きであると判定する。
【0047】
また、情報処理装置1は、顔の上部の測距値と下部の測距値との差分が所定の閾値未満であって、且つ顔の左部の測距値と右部の測距値との差分が所定の閾値未満である場合、顔が正面を向いていると判定する。このように、情報処理装置1は、顔の上部、下部、左部、および右部の測距値に基づいて顔の向きが上向きであるか下向きであるか、左向きであるか右向きであるか、或いは正面であるかを判定することにより、顔の向きを判定する。
【0048】
なお、情報処理装置1は、顔の上部、下部、左部、および右部のうち測距値が最も小さい部分がどの部分であるかによって、垂直方向(上下方向)および水平方向(左右方向)への顔の向きを判定してもよい。また、情報処理装置1は、顔の上部、下部、左部、および右部の測距値の差分が所定の閾値未満の場合、顔が正面を向いていると判定してもよい。
【0049】
ここで、顔の上部、下部、左部、および右部の測距値の差分は大きくないため、顔の向きを判定可能な範囲は、人物の検出が可能な範囲よりも近距離の範囲に限られる。つまり、情報処理装置1は、TOFセンサ130を用いて図2に示す検出範囲FoV(例えば、2m程度の範囲)で人物を検出するとしても、検出された人物の顔の向きを判定可能な範囲(判定の)は、比較して近距離の狭い範囲(例えば、1m程度の範囲)となる。図4図6を参照して、本実施形態におけるTOFセンサ130を用いた人物の検出と顔方向の判定について説明する。
【0050】
図4は、本実施形態に係るTOFセンサ130を用いた人物検出および顔方向判定の第1例を示す模式図である。検出範囲FoVに相当する人物の検出が可能な範囲を、人物検出範囲R1として示している。また、人物検出範囲R1のうち顔の向きを判定可能な範囲を、顔方向判定範囲R2として示している。顔方向判定範囲R2は、人物検出範囲R1のうち、人物検出範囲R1よりも情報処理装置1から近距離の狭い範囲である。人物検出範囲R1のうち顔方向判定範囲R2の外側の範囲は、TOFセンサ130を用いて人物の検出は可能であっても、TOFセンサ130では顔の向きを精度よく判定できない可能性がある範囲である。
【0051】
情報処理装置1は、人物検出範囲R1に人物Uが検出され、検出された人物Uが顔方向判定範囲R2内である場合、TOFセンサ130を用いて人物Uの顔の向きを判定する。情報処理装置1は、人物Uの顔の向きの判定結果に基づいて、人物Uが情報処理装置1を注目している状態か否かを判定する。以下では、人物Uが情報処理装置1を注目している状態か否かの判定を「Attention判定」と称する。
【0052】
情報処理装置1は、人物Uの顔の向きが正面を向いていると判定した場合、人物Uが情報処理装置1を注目している状態であるとして、Attention判定の判定結果を「Attention=True」とする。一方、情報処理装置1は、人物Uの顔の向きが正面を向いていないと判定した場合、人物Uが情報処理装置1を注目していない状態であるとして、Attention判定の判定結果を「Attention=False」とする。
【0053】
図5は、本実施形態に係るTOFセンサ130を用いた人物検出および顔方向判定の第2例を示す模式図である。この図では、人物検出範囲R1に検出された人物Uが顔方向判定範囲R2内である状態(図4参照)から顔方向判定範囲R2外へ移動したときのAttention判定について示している。情報処理装置1は、人物検出範囲R1に検出された人物Uが顔方向判定範囲R2内から顔方向判定範囲R2外へ移動した場合には、顔方向判定範囲R2内で判定されたときの顔の向きの判定結果、即ちAttention判定の判定結果を維持する。
【0054】
例えば、情報処理装置1は、顔方向判定範囲R2内で「Attention=True」と判定していた人物Uが顔方向判定範囲R2外へ移動した場合、Attention判定の判定結果を「Attention=True」のまま維持する。また、情報処理装置1は、顔方向判定範囲R2内で「Attention=False」と判定していた人物Uが顔方向判定範囲R2外へ移動した場合、Attention判定の判定結果を「Attention=False」のまま維持する。なお、情報処理装置1は、人物Uがさらに移動して人物検出範囲R1内に検出されなくなった場合には、Attention判定の判定結果を解除する。
【0055】
図6は、本実施形態に係るTOFセンサ130を用いた人物検出および顔方向判定の第3例を示す模式図である。この図では、人物Uが人物検出範囲R1外から人物検出範囲R1内へ移動したときのAttention判定について示している。情報処理装置1は、人物Uが人物検出範囲R1外から人物検出範囲R1内へ移動(情報処理装置1へ接近)したことにより、人物検出範囲R1のうち顔方向判定範囲R2外に人物Uを検出した場合、Attention判定の判定結果を「Attention=True」に固定する。なお、情報処理装置1は、人物Uがさらに移動(情報処理装置1へ接近)して顔方向判定範囲R2内になった場合には、図4に示すようにTOFセンサ130を用いて人物Uの顔の向きを判定する。
【0056】
[情報処理装置のハードウェア構成]
図7は、本実施形態に係る情報処理装置1のハードウェア構成の一例を示す概略ブロック図である。この図7において、図1の各部に対応する構成には同一の符号を付している。情報処理装置1は、表示部110、ToFセンサ130、電源ボタン140、入力デバイス150、通信部160、記憶部170、EC(Embedded Controller)200、メイン処理部300、及び電源部400を含んで構成される。
【0057】
表示部110は、メイン処理部300により実行されるシステム処理及びシステム処理上で動作するアプリケーションプログラムの処理等に基づいて生成された表示データ(画像)を表示する。
【0058】
ToFセンサ130は、前述したように、ToF方式を用いて前方に存在する物体(例えば、人物)との距離を測定する測距センサである。例えば、ToFセンサ130は、第1筐体10の内面に対面する方向(前方)の検出範囲FoVに存在する物体(例えば、人物)との距離を測定した測距値が含まれる測距信号を出力する。
【0059】
電源ボタン140は、ユーザの操作に応じて操作信号をEC200へ出力する。入力デバイス150は、ユーザの入力を受け付ける入力部であり、例えばキーボード151及びタッチパッド153を含んで構成されている。入力デバイス150は、キーボード151及びタッチパッド153に対する操作を受け付けることに応じて、操作内容を示す操作信号をEC200へ出力する。
【0060】
通信部160は、無線または有線による通信ネットワークを介して他の機器と通信可能に接続し、各種のデータの送信および受信を行う。例えば、通信部160は、イーサネット(登録商標)等の有線LANインターフェースやWi-Fi(登録商標)等の無線LANインターフェース等を含んで構成されている。
【0061】
記憶部170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、RAM、ROMなどの記憶媒体を含んで構成される。記憶部170は、OS、デバイスドライバ、アプリケーションなどの各種のプログラム、その他、プログラムの動作により取得した各種のデータを記憶する。
【0062】
電源部400は、情報処理装置1の各部の動作状態に応じて各部へ電力を供給する。電源部400は、DC(Direct Current)/DCコンバータを備える。DC/DCコンバータは、AC(Alternate Current)/DCアダプタもしくはバッテリー(電池パック)から供給される直流電力の電圧を、各部で要求される電圧に変換する。DC/DCコンバータで電圧が変換された電力が各電源系統を介して各部へ供給される。例えば、電源部400は、EC200から入力される制御信号に基づいて各電源系統を介して各部に電力を供給する。
【0063】
EC200は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)およびI/O(Input/Output)ロジック回路などを含んで構成されたマイクロコンピュータである。EC200のCPUは、自部のROMに予め記憶した制御プログラム(ファームウェア)を読み出し、読み出した制御プログラムを実行して、その機能を発揮する。EC200は、メイン処理部300とは独立に動作し、メイン処理部300の動作を制御し、その動作状態を管理する。また、EC200は、電源ボタン140、入力デバイス150、及び電源部400等と接続されている。
【0064】
例えば、EC200は、電源部400と通信を行うことにより、バッテリーの状態(残容量など)の情報を電源部400から取得するとともに、情報処理装置1の各部の動作状態に応じた電力の供給を制御するための制御信号などを電源部400へ出力する。また、EC200は、電源ボタン140や入力デバイス150から操作信号を取得し、取得した操作信号のうちメイン処理部300の処理に関連する操作信号についてはメイン処理部300へ出力する。
【0065】
メイン処理部300は、CPU(Central Processing Unit)301、GPU(Graphic Processing Unit)302、チップセット303、及びシステムメモリ304を含んで構成され、OS(Operating System)に基づくシステム処理によって、OS上で各種のアプリケーションプログラムの処理が実行可能である。
【0066】
CPU301は、BIOSのプログラムに基づく処理、OSのプログラムに基づく処理、OS上で動作するアプリケーションプログラムに基づく処理などを実行するプロセッサである。例えば、CPU301は、システムを待機状態から起動させて通常動作状態に遷移させる起動処理、通常動作状態から待機状態へ遷移させるスリープ処理などを実行する。また、CPU301は、上述した顔の向きの判定結果などに基づいて、表示部110の画面輝度を制御する画面輝度制御処理を実行する。
【0067】
GPU302は、表示部110に接続されている。GPU302は、CPU301の制御に基づいて画像処理を実行して表示データを生成する。GPU302は、生成した表示データを表示部110に出力する。
【0068】
チップセット303は、メモリコントローラとしての機能及びI/Oコントローラとしての機能などを有する。例えば、チップセット303は、CPU301及びGPU302によるシステムメモリ304、記憶部170などからのデータの読出し、書込みを制御する。また、チップセット303は、通信部160、表示部110およびEC200からのデータの入出力を制御する。また、チップセット303は、センサハブとしての機能を有する。例えば、チップセット303はTOFセンサ130から出力される測距信号などを取得する。
【0069】
システムメモリ304は、CPU301で実行されるプログラムの読み込み領域ならびに処理データを書き込む作業領域などとして用いられる。
【0070】
なお、CPU301、GPU302、及びチップセット303は、一体化された一つのプロセッサとして構成されてもよいし、一部またはそれぞれが個々のプロセッサとして構成されてもよい。例えば、通常動作状態では、CPU301、GPU302、及びチップセット303のいずれも動作している状態となるが、待機状態では、チップセット303の少なくとも一部のみが動作している状態となる。
【0071】
[情報処理装置の機能構成]
次に、TOFセンサ130を用いて人物を検出および顔の向きを判定する情報処理装置1の機能構成について詳しく説明する。
【0072】
図8は、本実施形態に係る情報処理装置1の機能構成の一例を示す概略ブロック図である。情報処理装置1は、TOFセンサ130により測定された測距信号を取得して人物及び顔の向きを判定する検出処理部210と、検出処理部210による検出結果及び判定結果に基づいて処理を行うシステム処理部310とを備えている。検出処理部210は、CPU301またはチップセット303等が特定のプログラムを実行することにより上述した人物の検出及び顔の向きの判定を行う機能構成として、人物検出部211と、顔範囲検出部212と、顔方向判定部213と、判定結果出力部215とを備えている。
【0073】
人物検出部211は、TOFセンサ130の測距値に基づいて人物検出範囲R1(検出範囲FoV)内に存在する人物を検出する人物検出処理を行う。例えば、物体と違って人物には少なからず動きがあるため、人物検出部211は、人物を検出する際に、完全に静止している物体を検出対象から除外し、動き(例えば微小な動き)のある物体のみを検出対象としてもよい。
【0074】
顔範囲検出部212は、人物検出部211により人物が検出された場合、人物の顔の範囲を検出する顔範囲検出処理を行う。例えば、顔範囲検出部212は、まず人物の範囲を検出し、人物の範囲の中から顔の範囲を検出する。
【0075】
具体的には、顔範囲検出部212は、例えば図3を参照して説明したように、TOFセンサ130から出力される測距信号により、検出範囲FoV内が8×8マスの64マスの測定単位に分割された1マス(測定単位)ごとの測距値を取得する。そして、顔範囲検出部212は、測距値が1m(1000mm)以内で差分の少ない測距値(例えば、450~610程度)が得られたマスの範囲のエッジが人物の特徴を持つ山型となった場合、その範囲を人物の範囲として検出する。
【0076】
また、顔範囲検出部212は、上記の人物検出部211による人物の検出と同様に、人物の範囲を検出する際に、完全に静止している物体を検出対象から除外し、動き(例えば微小な動き)のある物体のみを検出対象としてもよい。例えば、顔範囲検出部212は、所定の周期(例えば、1秒間隔)で測定された測距値から各マスの測距値の変動量に基づいて動きのある物体の測距値であるか否かを判定し、動きのある物体の測距値が得られたマスの範囲のエッジに基づいて人物の範囲を検出する。
【0077】
次に、顔範囲検出部212は、検出した人物の範囲のエッジの形状に基づいて人物の顔の範囲を検出する。例えば、顔範囲検出部212は、人物の範囲のうち肩の範囲を検出し、肩の範囲よりも上側の3(横)×4(縦)マスまたは3×3マスの範囲等を顔の範囲として検出する(図3参照)。
【0078】
顔方向判定部213は、顔範囲検出部212により検出された顔の範囲内の測距値に基づいて顔の向きを判定する顔方向判定処理を行う。例えば、顔方向判定部213は、顔の範囲内の複数のマス(測定単位)ごとの測距値の差分に基づいて顔の向きを判定する。具体的には、図3を参照して説明したように、顔方向判定部213は、顔の上部、下部、左部、および右部の測距値の差分に基づいて、垂直方向(上下方向)への顔の向き、水平方向(左右方向)への顔の向き、或いは正面であるかを判定することにより、顔の向きを判定する。例えば、顔方向判定部213は、顔の範囲内の複数のマス(測定単位)ごとの測距値に基づいて、顔の範囲のどの部分が近いかによって顔の向きを判定する。
【0079】
なお、顔方向判定部213は、人物の範囲内の測距値に基づいて人物との平均距離を算出し、人物との平均距離を加味して顔の向きを検出してもよい。例えば、顔方向判定部213は、顔の範囲内の複数のマス(測定単位)ごとの測距値の差分を算出する際に、人物との平均距離との差分を用いて検出してもよい。
【0080】
ここで、顔方向判定部213は、人物検出部211により検出された人物が顔方向判定範囲R2内である場合、上述したようにTOFセンサ130による測距値に基づいて顔の向きを判定する(図4参照)。一方、顔方向判定部213は、人物検出部211により検出された人物が顔方向判定範囲R2外である場合には、測距値の誤差により精度よく判定できない可能性があるため、測距値に基づく顔の向きの判定を行わない。
【0081】
例えば、顔方向判定部213は、人物検出部211により検出された人物が顔方向判定範囲R2内から顔方向判定範囲R2外へ移動した場合には、顔方向判定範囲R2内で判定された顔の向きの判定結果を維持する(図5参照)。また、顔方向判定部213は人物検出部211により人物検出範囲R1内に人物が検出されない状態から人物検出範囲R1内のうちの顔方向判定範囲R2外に人物が検出された場合には、予め設定された顔の向きの判定結果に固定する(図6参照)。予め設定された顔の向きとは、例えば顔の向きが正面を向いている状態を指す。
【0082】
また、顔方向判定部213は、人物検出部211により検出された人物が顔方向判定範囲R2内から顔方向判定範囲R2外へ移動したことにより顔方向判定範囲R2内で判定された顔の向きの判定結果を維持した後、人物検出部211により検出された人物が再び顔方向判定範囲R2内へ移動したときには、判定結果の維持を解除し、TOFセンサ130を用いて当該人物の顔の向きを判定する(図4参照)。
【0083】
また、顔方向判定部213は、人物検出部211により検出された人物が顔方向判定範囲R2内から顔方向判定範囲R2外へ移動したことにより顔方向判定範囲R2内で判定された顔の向きの判定結果を維持した後、人物検出部211により人物検出範囲R1内に人物が検出されない状態になった場合、判定結果の維持を解除し、顔方向判定処理を終了する。
【0084】
また、顔方向判定部213は、人物検出部211により人物検出範囲R1内に人物が検出されない状態から人物検出範囲R1内のうちの顔方向判定範囲R2外に人物が検出されたことにより顔の向きの判定結果を固定した後、人物検出部211により検出された人物が顔方向判定範囲R2外から顔方向判定範囲R2内へ移動したときには、判定結果の固定を解除し、TOFセンサ130を用いて当該人物の顔の向きを判定する。
【0085】
また、顔方向判定部213は、人物検出部211により人物検出範囲R1内に人物が検出されない状態から人物検出範囲R1内のうちの顔方向判定範囲R2外に人物が検出されたことにより顔の向きの判定結果を固定した後、人物検出部211により人物検出範囲R1内に人物が検出されない状態になった場合、判定結果の固定を解除し、顔方向判定処理を終了する。
【0086】
判定結果出力部215は、顔方向判定部213により検出された顔の向きに基づく情報をシステム処理部310へ出力する。例えば、判定結果出力部215は、顔方向判定部213により検出された顔の向きが正面を向いていると判定した場合、人物が情報処理装置1を注目している状態であるため、Attention判定の判定結果として「Attention=True」を出力する。一方、判定結果出力部215は、顔方向判定部213により検出された人物の顔の向きが正面を向いていないと判定した場合、人物が情報処理装置1を注目していない状態であるため、Attention判定の判定結果として「Attention=False」を出力する。
【0087】
なお、判定結果出力部215は、顔方向判定部213により検出された顔の向きに基づく情報として、顔の向きを示す情報を出力してもよい。顔の向き示す情報とは、正面、上向き、下向き、左向き、右向きなどである。
【0088】
システム処理部310は、CPU11がBIOS及びOSのプログラムを実行することにより実現される機能構成である。例えば、システム処理部310は、OSのプログラムを実行することにより実現される機能構成として、画面輝度制御部311と、タイマ312とを備えている。
【0089】
画面輝度制御部311は、検出処理部210により検出された顔の向きに基づいて、表示部110の画面輝度を制御する。例えば、画面輝度制御部311は、通常動作状態において、検出処理部210から「Attention=False」を取得した場合、画面輝度を低輝度に制御する。
【0090】
また、画面輝度制御部311は、画面輝度を低輝度に制御した状態で、検出処理部210から「Attention=True」を取得した場合、画面輝度を標準輝度に戻す。即ち、画面輝度制御部311は、画面輝度を低減させた状態で、検出処理部210により顔の向きが正面であることが検出された場合、画面輝度を低減させる前の標準輝度に戻す。
【0091】
タイマ312は、通常動作状態において検出処理部210から「Attention=False」を取得してから画面輝度を低輝度に制御するまでの待機時間を計時するタイマである。画面輝度制御部311は、「Attention=False」を取得しても所定の待機時間が経過する前に「Attention=True」を取得した場合には、画面輝度を低輝度に制御しないで標準輝度のままとする。画面輝度制御部311は、「Attention=False」を取得した後、所定の待機時間の間に「Attention=True」を取得しない場合には、画面輝度を低輝度に制御する。これにより、ユーザが情報処理装置1を使用している最中に、少しよそ見をしただけで画面輝度が低輝度になってしまわないようにすることができる。所定の待機時間は、例えば10秒などに予め設定されている。なお、この所定の待機時間は、ユーザが設定可能な構成としてもよい。
【0092】
[顔方向判定処理の動作]
次に、図9を参照して、情報処理装置1がTOFセンサ130を用いて顔の向きを検出する顔方向判定処理の動作について説明する。
【0093】
図9は、本実施形態に係る顔方向判定処理の一例を示すフローチャートである。
(ステップS101)検出処理部210は、TOFセンサ130から出力される測距信号を所定の周期で取得し、TOFセンサ130の測距値に基づいて人物検出範囲R1内に存在する人物を検出する人物検出処理を行う。例えば、検出処理部210は、動き(例えば微小な動き)のある物体の測距値に基づいて、人物検出範囲R1内に存在する人物を検出する。そしてステップ103の処理へ進む。
【0094】
(ステップS103)検出処理部210は、ステップS101の人物検出処理において人物が検出されたか否かを判定する。検出処理部210は、人物が検出されていないと判定した場合(NO)、ステップS101の処理を継続し、引き続き人物検出処理を行う。一方、検出処理部210は、人物が検出されたと判定した場合(YES)、ステップS105の処理へ進む。
【0095】
(ステップS105)検出処理部210は、ステップS101の人物検出処理において検出された人物が顔方向判定範囲R2内であるか否かを判定する。検出処理部210は、検出された人物が顔方向判定範囲R2内であると判定した場合(YES)、ステップS107の処理へ進む。一方、検出処理部210は、検出された人物が顔方向判定範囲R2外である場合(NO)、ステップS111の処理へ進む。
【0096】
(ステップS107)検出処理部210は、TOFセンサ130による測距値を用いて顔の向きを判定する。例えば、検出処理部210は、図3を参照して説明したように、検出された人物の範囲のエッジの形状に基づいて人物の顔の範囲を検出し、顔の範囲内の測距値に基づいて顔の向きを判定する。そして、ステップS109の処理へ進む。
【0097】
(ステップS109)検出処理部210は、ステップS107において判定された顔の向きに基づく情報を、判定結果としてシステム処理部310へ出力する。例えば、検出処理部210は、ステップS107において判定された顔の向きに基づいて、Attention判定の判定結果をシステム処理部310へ出力する。一例として、検出処理部210は、検出された顔の向きが正面である場合、「Attention=True」をシステム処理部310へ出力する。一方、検出処理部210は、検出された顔の向きが正面でない場合、「Attention=False」をシステム処理部310へ出力する。
【0098】
(ステップS111)検出処理部210は、ステップS101の人物検出処理において検出された人物が顔方向判定範囲R2外である場合、顔方向判定範囲R2外になる前が顔方向判定範囲R2内であったか否かを判定する。検出処理部210は、顔方向判定範囲R2外になる前が顔方向判定範囲R2内であったと判定した場合(YES)、ステップS113の処理へ進む。一方、検出処理部210は、顔方向判定範囲R2外になる前が顔方向判定範囲R2内ではなかったと判定した場合(NO)、ステップS115の処理へ進む。
【0099】
(ステップS113)検出処理部210は、人物検出範囲R1に検出された人物が顔方向判定範囲R2内から顔方向判定範囲R2外へ移動したため、直前の判定結果を維持する。例えば、検出処理部210は、顔方向判定範囲R2内で「Attention=True」と判定していた人物が顔方向判定範囲R2外へ移動した場合、判定結果を維持して「Attention=True」をシステム処理部310へ出力する。また、情報処理装置1は、顔方向判定範囲R2内で「Attention=False」と判定していた人物が顔方向判定範囲R2外へ移動した場合、判定結果を維持して「Attention=False」をシステム処理部310へ出力する。
【0100】
(ステップS115)検出処理部210は、顔方向判定範囲R2外になる前が顔方向判定範囲R2内ではなかった場合、即ち顔方向判定範囲R2外になる前が人物検出範囲R1外であった場合には、判定結果を「Attention=True」を固定してシステム処理部310へ出力する。
【0101】
[画面輝度制御処理の動作]
次に、図10を参照して、システム処理部310が実行する画面輝度制御処理の動作について説明する。図10は、本実施形態に係る画面輝度制御処理の一例を示すフローチャートである。ここでは、情報処理装置1が通常動作状態で人物(ユーザ)の顔が正面を向いている状態であり、画面輝度が標準輝度に設定されているものとする。
【0102】
(ステップS201)画面輝度制御部311は、検出処理部210から「Attention=False」を取得したか否かを判定する。画面輝度制御部311は、「Attention=False」を取得していないと判定した場合(NO)、再びステップS201の処理を行う。一方、画面輝度制御部311は、「Attention=False」を取得したと判定した場合(YES)、タイマ312を用いて待機時間の計時を開始する(ステップS203)。そして、ステップS205の処理へ進む。
【0103】
(ステップS205)画面輝度制御部311は、検出処理部210から「Attention=True」を取得したか否かを判定する。画面輝度制御部311は、「Attention=True」を取得していないと判定した場合(NO)、ステップS207の処理へ進む。
【0104】
(ステップS207)画面輝度制御部311は、タイマ312の値に基づいて所定の待機時間(例えば、10秒)が経過したか否か(即ち、タイマが終了したか否か)を判定する。画面輝度制御部311は、所定の待機時間(例えば、10秒)が経過していない(即ち、タイマが終了していない)と判定した場合(ステップS207:NO)、ステップS205の処理へ戻る。画面輝度制御部311は、所定の待機時間(例えば、10秒)が経過する前に、「Attention=True」を取得したと判定した場合(ステップS205:YES)、ステップS201の処理に戻る。この時、タイマ312はリセットされる。
【0105】
一方、画面輝度制御部311は、ステップS207で所定の待機時間(例えば、10秒)が経過したと判定した場合(ステップS207:YES)、画面輝度を低輝度に変更する(ステップS209)。そして、ステップS211の処理へ進む。
【0106】
(ステップS211)画面輝度制御部311は、検出処理部210から「Attention=True」を取得したか否かを判定する。画面輝度制御部311は、「Attention=True」を取得していないと判定した場合(NO)、再びステップS211の処理を行う。一方、画面輝度制御部311は、「Attention=True」を取得したと判定した場合(YES)、画面輝度を標準輝度に戻す(ステップS213)。
【0107】
[実施形態のまとめ]
以上説明してきたように、本実施形態に係る情報処理装置1は、物体との距離を測定するTOFセンサ130(測距センサの一例)と、TOFセンサ130により測定された距離を示す測距値(距離情報の一例)を一時的に記憶するシステムメモリ304(メモリの一例)と、測距値に基づいて処理(例えば、人物検出処理、顔方向判定処理など)を実行するプロセッサ(例えば、CPU301、チップセット303など)とを備えている。情報処理装置1は、人物検出処理において、TOFセンサ130を用いて第1距離の範囲(例えば、人物検出範囲R1)内に存在する人物を検出する。また、情報処理装置1は、顔方向判定処理において、上記人物検出処理により人物検出範囲R1内に人物が検出された場合に、当該人物の顔の向きを判定する。例えば、情報処理装置1は、顔方向判定処理において、人物検出処理により検出された人物が上記第1距離よりも近い第2距離の範囲(例えば、顔方向判定範囲R2)内である場合、TOFセンサ130を用いて当該人物の顔の向きを判定する。また、情報処理装置1は、顔方向判定処理において、上記人物検出処理により検出された人物が顔方向判定範囲R2内から顔方向判定範囲R2外へ移動した場合には、顔方向判定範囲R2内で判定された顔の向きの判定結果を維持する。また、情報処理装置1は、顔方向判定処理において、上記人物検出処理により人物検出範囲R1内に人物が検出されない状態から人物検出範囲R1内のうちの顔方向判定範囲R2外に人物が検出された場合には、予め設定された顔の向き(例えば、情報処理装置1に対して正面の向き)の判定結果に固定する。
【0108】
これにより、情報処理装置1は、顔の向きを判定可能な距離の範囲の境界付近で判定結果が不安定に変化してしまうことがないため、TOFセンサ130を用いた制御の安定性を向上させることができる。
【0109】
また、情報処理装置1は、顔方向判定処理において、人物検出処理により検出された人物が顔方向判定範囲R2内から顔方向判定範囲R2外へ移動したことにより顔方向判定範囲R2内で判定された顔の向きの判定結果を維持した後、人物検出処理により検出された人物が再び顔方向判定範囲R2内へ移動したときには、判定結果の維持を解除し、TOFセンサ130を用いて当該人物の顔の向きを判定する。
【0110】
これにより、情報処理装置1は、人物が顔方向判定範囲R2外へ移動したことにより顔の向きの判定結果が更新されない状態になっても、顔方向判定範囲R2内へ近づくだけで顔の向きの判定を再開することができる。
【0111】
また、情報処理装置1は、顔方向判定処理において、人物検出処理により検出された人物が顔方向判定範囲R2内から顔方向判定範囲R2外へ移動したことにより顔方向判定範囲R2内で判定された顔の向きの判定結果を維持した後、人物検出処理により人物検出範囲R1内に人物が検出されない状態になった場合、判定結果の維持を解除し、顔方向判定処理を終了する。
【0112】
これにより、情報処理装置1は、人物が離脱(Leave)して不在となった場合には、顔の向きを判定する必要がないため、顔方向判定処理を終了することができる。
【0113】
また、情報処理装置1は、顔方向判定処理において、人物検出処理により人物検出範囲R1内に人物が検出されない状態から人物検出範囲R1内のうちの顔方向判定範囲R2外に人物が検出されたことにより顔の向きの判定結果を固定した後、人物検出処理により検出された人物が顔方向判定範囲R2外から顔方向判定範囲R2内へ移動したときには、判定結果の固定を解除し、TOFセンサ130を用いて当該人物の顔の向きを判定する。
【0114】
これにより、情報処理装置1は、人物が接近(Approach)したときには、顔の向きの判定が行えない距離であっても、情報処理装置1を使用する人物として検出することができる。
【0115】
また、情報処理装置1は、顔方向判定処理において、人物検出処理により人物検出範囲R1内に人物が検出されない状態から人物検出範囲R1内のうちの顔方向判定範囲R2外に人物が検出されたことにより顔の向きの判定結果を固定した後、人物検出処理により人物検出範囲R1の範囲内に人物が検出されない状態になった場合、判定結果の固定を解除し、顔方向判定処理を終了する。
【0116】
これにより、情報処理装置1は、人物が離脱(Leave)して不在となった場合には、顔の向きを判定する必要がないため、顔方向判定処理を終了することができる。
【0117】
また、情報処理装置1は、顔方向判定処理において、人物検出処理により人物検出範囲R1内に検出された人物の顔の向きが情報処理装置1の方向を向いているか否かを判定し、予め設定された顔の向きの判定結果に固定する際には、人物の顔の向きが情報処理装置1の方向を向いていると判定した判定結果(例えば、「Attention=True」)に固定する。
【0118】
これにより、情報処理装置1は、人物が接近(Approach)したときには、顔の向きの判定が行えない距離であっても、情報処理装置1を使用する人物として検出することができる。
【0119】
また、情報処理装置1は、顔方向判定処理により判定された顔の向きに基づいて、表示部110の画面輝度を制御する画面輝度制御処理を行う。
【0120】
これにより、情報処理装置1は、例えば顔が正面を向いていない時には画面輝度を低減またはオフにできるため、使用されていない期間に無駄に電力が消費されないようにすることができる。
【0121】
また、本実施形態に係る情報処理装置1における制御方法は、プロセッサ(例えば、CPU301、チップセット303など)が、TOFセンサ130を用いて第1距離の範囲(例えば、人物検出範囲R1)内に存在する人物を検出する人物検出ステップと、人物検出ステップにより人物検出範囲R1内に人物が検出された場合に、当該人物の顔の向きを判定する顔方向判定ステップと、を含み、顔方向判定ステップにおいて、人物検出処理により検出された人物が上記第1距離よりも近い第2距離の範囲(例えば、顔方向判定範囲R2)内である場合、TOFセンサ130を用いて当該人物の顔の向きを判定し、人物検出ステップにより検出された人物が顔方向判定範囲R2内から顔方向判定範囲R2外へ移動した場合には、顔方向判定範囲R2内で判定された顔の向きの判定結果を維持し、人物検出ステップにより人物検出範囲R1内に人物が検出されない状態から人物検出範囲R1内のうちの顔方向判定範囲R2外に人物が検出された場合には、予め設定された顔の向き(例えば、情報処理装置1に対して正面の向き)の判定結果に固定する。
【0122】
これにより、情報処理装置1における制御方法は、顔の向きを判定可能な距離の範囲の境界付近で判定結果が不安定に変化してしまうことがないため、TOFセンサ130を用いた制御の安定性を向上させることができる。
【0123】
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、上述の実施形態において説明した各構成は、任意に組み合わせることができる。
【0124】
また、上記実施形態では、情報処理装置1は、検出された顔の範囲のうち、顔の上部、下部、左部、および左部の4マスの測距値を用いて顔の向きを検出したが、顔の上部および下部の2マスの測距値を用いて顔の向き(上向き、下向き、正面)を検出してもよいし、顔の左部および右部の2マスの測距値を用いて顔の向き(左向き、右向き、正面)を検出してもよい。
【0125】
また、情報処理装置1は、検出された顔の範囲(例えば、3×4マス、3×3マス)のうちの5マス以上の測距値を用いて顔の向きを検出してもよい。例えば、情報処理装置1は、検出された顔の範囲のうち、顔の中心、上部、下部、左部、および左部の5マスの測距値を用いて顔の向きを検出してもよい。また、情報処理装置1は、検出された顔の範囲のうち、顔の中心の周囲の8マスの測距値を用いて顔の向きを検出してもよいし、さらに顔の中心の測距値を加えた9マスの測距値を用いて顔の向きを検出してもよい。
【0126】
また、上記実施形態では、情報処理装置1にToFセンサ130が内蔵されている構成例を説明したが、これに限られるものではない。例えば、ToFセンサ130は、情報処理装置1に内蔵されていなくてもよく、情報処理装置1の外部アクセサリとして情報処理装置1(例えば、側面10a、10b、10c等のいずれか)に取り付け可能に構成され、無線または有線で情報処理装置1と通信接続されるものであってもよい。
【0127】
また、上記実施形態では、測距センサとして、赤外線を用いたTOFセンサ130を例に説明したが、これに限られるものではない。例えば、レーザや超音波などを用いた測距センサとしてもよい。
【0128】
また、上述した待機状態には、ハイバネーション状態やパワーオフ状態等が含まれてもよい。ハイバネーション状態は、例えば、ACPIで規定されているS4状態に相当する。パワーオフ状態は、例えば、ACPIで規定されているS5状態(シャットダウンした状態)に相当する。なお、待機状態のうちスタンバイ状態、スリープ状態、ハイバネーション状態、パワーオフ状態などは、通常動作状態よりも電力の消費量が低い状態(電力の消費を抑えた状態)である。
【0129】
なお、上述した情報処理装置1は、内部にコンピュータシステムを有している。そして、上述した情報処理装置1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した情報処理装置1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
【0130】
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に情報処理装置1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
【0131】
また、上述した実施形態における情報処理装置1が備える各機能の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
【0132】
また、上記実施形態の情報処理装置1は、ノートブック型のPCに限られるものではなく、例えば、デスクトップ型PC、タブレット端末装置、スマートフォン、ゲーム装置や、マルチメディア端末等であってもよい。
【符号の説明】
【0133】
1 情報処理装置、10 第1筐体、20 第2筐体、15 ヒンジ機構、110 表示部、130 ToFセンサ、140 電源ボタン、150 入力デバイス、151 キーボード、153 タッチパッド、160 通信部、170 記憶部、200 EC、210 検出処理部、211 人物検出部、212 顔範囲検出部、213 顔方向判定部、215 判定結果出力部、300 メイン処理部、301 CPU、302 GPU、303 チップセット、304 システムメモリ、310 システム処理部、311 画面輝度制御部、312 タイマ、400 電源部
【要約】
【課題】測距センサを用いた制御の安定性を向上させること。
【解決手段】情報処理装置は、物体との距離を測定する測距センサを用いて第1距離の範囲内に存在する人物を検出する人物検出処理と、人物検出処理により第1距離の範囲内に人物が検出された場合に、当該人物の顔の向きを判定する顔方向判定処理と、を行う。情報処理装置は、顔方向判定処理において、人物検出処理により検出された人物が第1距離よりも近い第2距離の範囲内である場合、測距センサを用いて当該人物の顔の向きを判定し、人物検出処理により検出された人物が第2距離の範囲内から第2距離の範囲外へ移動した場合には、第2距離の範囲内で判定された顔の向きの判定結果を維持し、人物検出処理により第1距離の範囲内に人物が検出されない状態から第1距離の範囲内のうちの第2距離の範囲外に人物が検出された場合には、予め設定された顔の向きの判定結果に固定する。
【選択図】図5
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10