特許第6271935号(P6271935)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 三星電子株式会社の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6271935
(24)【登録日】2018年1月12日
(45)【発行日】2018年1月31日
(54)【発明の名称】ディスプレイ装置及びその制御方法
(51)【国際特許分類】
   G06F 3/0482 20130101AFI20180122BHJP
   G10L 15/00 20130101ALI20180122BHJP
   G06T 7/20 20170101ALI20180122BHJP
   H04N 5/232 20060101ALI20180122BHJP
   G06F 3/0346 20130101ALI20180122BHJP
   G06F 3/01 20060101ALI20180122BHJP
   G06F 3/16 20060101ALI20180122BHJP
【FI】
   G06F3/0482
   G10L15/00 200G
   G06T7/20 300A
   H04N5/232 190
   G06F3/0346 423
   G06F3/01 510
   G06F3/16 610
【請求項の数】13
【全頁数】30
(21)【出願番号】特願2013-210769(P2013-210769)
(22)【出願日】2013年10月8日
(65)【公開番号】特開2014-86085(P2014-86085A)
(43)【公開日】2014年5月12日
【審査請求日】2016年10月7日
(31)【優先権主張番号】10-2012-0116956
(32)【優先日】2012年10月19日
(33)【優先権主張国】KR
(73)【特許権者】
【識別番号】390019839
【氏名又は名称】三星電子株式会社
【氏名又は名称原語表記】Samsung Electronics Co.,Ltd.
(74)【代理人】
【識別番号】100110364
【弁理士】
【氏名又は名称】実広 信哉
(72)【発明者】
【氏名】安 在弘
(72)【発明者】
【氏名】薛 景燦
【審査官】 菅原 浩二
(56)【参考文献】
【文献】 特開2001−070293(JP,A)
【文献】 特開2005−117185(JP,A)
【文献】 特開2007−160473(JP,A)
【文献】 特開2007−324866(JP,A)
【文献】 特開平09−081309(JP,A)
【文献】 特開2012−053545(JP,A)
【文献】 特開2006−337513(JP,A)
【文献】 特開2012−060504(JP,A)
【文献】 特表2014−507714(JP,A)
【文献】 国際公開第2012/083415(WO,A1)
【文献】 国際公開第2012/099584(WO,A1)
【文献】 国際公開第2012/105198(WO,A1)
【文献】 米国特許出願公開第2010/0121501(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/048−3/0489
G06F 3/01
G06F 3/0346
G06F 3/16
G06T 7/20
G10L 15/00
H04N 5/232
(57)【特許請求の範囲】
【請求項1】
ユーザーの映像を収集する映像収集部と、
前記ユーザーの音声を収集するサウンド収集部と、
前記映像に基づいて前記ユーザーの視線を認識する認識部と、
前記認識された視線があらかじめ設定された認識領域に位置するか否か判断し、前記認識された視線が前記あらかじめ設定された認識領域に位置すると、インタラクションモードの進入を制御する制御部と、
前記インタラクションモードに対応する映像を表示する表示部と、
を備え
前記制御部は、前記インタラクションモードに進入すると、前記ユーザーとのインタラクションのための複数の認識モードの選択肢を前記表示部に表示するよう制御し、前記認識された視線の位置に基づいて前記複数の認識モードの選択肢のいずれか一つに対応する認識モードを選択し、前記選択された認識モードに基づいて前記映像収集部又は前記サウンド収集部のいずれか一方を活性化するよう制御し、前記選択した認識モードによる前記ユーザーの動作命令を判断し、該判断された動作命令に基づいて前記表示部の動作を制御し、
前記複数の認識モードは、モーション認識モード、音声認識モード、視線認識モードを含む、ディスプレイ装置。
【請求項2】
前記表示部は、前記あらかじめ設定された認識領域を表示する、請求項1に記載のディスプレイ装置。
【請求項3】
前記制御部は、前記視線が認識されると、前記あらかじめ設定された領域の表示情報を、前記視線を認識する前と異なる表示情報で表示する、請求項2に記載のディスプレイ装置。
【請求項4】
前記表示部は、前記認識された視線の位置をカーソルで表示する、請求項1に記載のディスプレイ装置。
【請求項5】
前記認識部は、前記モーション認識モードが選択されると、前記映像に基づいて前記ユーザーのモーションを認識し、
前記制御部は、前記認識されたモーションに対応する動作命令を判断し、該判断された動作命令に基づいて前記表示部の駆動を制御する、請求項1に記載のディスプレイ装置。
【請求項6】
前記認識部は、前記音声認識モードが選択されると、前記ユーザーの音声を認識し、
前記制御部は、前記認識された音声に対応する動作命令を判断し、該判断された動作命令に基づいて前記表示部の駆動を制御する、請求項1に記載のディスプレイ装置。
【請求項7】
前記認識部は、前記ユーザーの顔を認識し、
前記制御部は、前記認識されたユーザーがあらかじめ登録されたユーザーであるか否か判断し、前記認識されたユーザーがあらかじめ登録されたユーザーであれば、前記ユーザーの視線認識を制御し、前記認識されたユーザーが複数であれば、あらかじめ保存された優先順位に基づいて優先順位の最も高いユーザーの視線認識を制御する、請求項1に記載のディスプレイ装置。
【請求項8】
前記制御部は、
前記認識された視線があらかじめ設定された終了領域に位置するか否か判断し、
前記認識された視線が前記あらかじめ設定された終了領域に位置すると、インタラクションモードが終了するように制御する、請求項1に記載のディスプレイ装置。
【請求項9】
前記認識部は、
前記映像に基づいてユーザーの視線を認識する第1認識部と、前記ユーザーのモーション又は音声のうち少なくとも一方の信号を認識し、認識された少なくとも一方の信号に対応する前記ユーザーの動作命令を認識する第2認識部と、を備え、
前記制御部は、
前記あらかじめ設定された領域に視線が位置する状態でモーションが認識されると、該認識されたモーションに対応する動作命令を確認し、確認された動作命令に対応する機能の実行を制御し、及び/又は
前記あらかじめ設定された領域に視線が位置する状態で音声が認識されると、該認識された音声に対応する動作命令を確認し、確認された動作命令に対応する機能の実行を制御する、請求項1に記載のディスプレイ装置。
【請求項10】
外部のリモコンから伝送されたサウンド信号を受信する通信部をさらに備え、
前記第2認識部は、前記受信したサウンド信号から音声を認識する、請求項に記載のディスプレイ装置。
【請求項11】
外部の放送信号を受信するチューナー部と、
前記放送信号を、映像情報を持つ映像信号とサウンド情報を持つサウンド信号とに分離し、分離された映像信号とサウンド信号をそれぞれ信号処理する信号処理部と、
をさらに備え、
前記表示部は、前記あらかじめ設定された認識領域、チャンネルボタン及びボリュームボタンを表示し、前記認識された視線の位置をカーソルで表示し、
前記制御部は、前記表示部の領域外部に前記ユーザーの視線が位置すると、前記インタラクションモードが終了するように制御する、請求項1に記載のディスプレイ装置。
【請求項12】
ユーザーの視線を認識し、
前記認識された視線があらかじめ設定された認識領域に位置するか否か判断し、
前記認識された視線が前記あらかじめ設定された認識領域に一定時間位置すると、インタラクションモードに進入し、
前記インタラクションモードに進入すると、前記ユーザーとのインタラクションのための複数の認識モードの選択肢を表示し、
前記表示された複数の認識モードの選択肢の中から、前記認識された視線が位置する選択肢に対応する認識モードを判断し、
前記判断された認識モードに基づいて映像収集部又はサウンド収集部のいずれか一方を活性化するよう制御し、
前記判断された認識モードによる前記ユーザーの動作命令を認識し、
前記認識された動作命令に対応する機能を実行し、
前記複数の認識モードは、モーション認識モード、音声認識モード、視線認識モードを含む、ディスプレイ装置の制御方法。
【請求項13】
前記インタラクションモードに進入すると、前記あらかじめ設定された認識領域を他の表示情報で表示することをさらに含む、請求項12に記載のディスプレイ装置の制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、ユーザーにより入力された情報の認識正確度を向上させるためのディスプレイ装置及びその制御方法に関する。
【背景技術】
【0002】
ディスプレイ装置は、視覚的で立体的な映像情報を表示する装置である。
【0003】
近年、陰極線管(Cathode Ray Tube)の短所とされてきた重さと体積を軽減して設置空間の制約を減らす他、大画面の映像表示、平板化及び高画質化などを含む様々な性能に優れた平板ディスプレイ装置(Flat Display Device)が開発されてきている。
【0004】
平板ディスプレイ装置の代表には、液晶ディスプレイ装置(Liquid Crystal Display Device:LCD)、エレクトロルミネセンスディスプレイ装置(Electro−Luminescence Display Device:ELD)、電界放出ディスプレイ装置(Field Emission Display Device:FED)、プラズマディスプレイ装置(Plasma Display Panel:PDP)、薄膜トランジスタ液晶ディスプレイ装置(Thin Film Transistor−LCD:TFT−LCD)、及びフレキシブルディスプレイ装置などがある。
【0005】
このようなディスプレイ装置は、ユーザーの便宜性を向上させるための認識技術を有することがある。
【0006】
その例には、モーション認識技術及び音声認識技術などがある。モーション認識技術は、モーションセンサーなどを用いてユーザーの動きを認識し、認識された動きから、ユーザーの命令する情報を判断する技術であり、音声認識技術は、音声センサーなどを用いてユーザーの音声を認識し、認識された音声から、ユーザーの命令する情報を判断する技術である。
【0007】
これらの認識技術は、モーションや音声を正確に入力しないと、ユーザーが意図しなかった機能が実行されたり、ユーザー入力自体ができなくなるため、数回反復しなければならず、ユーザーに不便を掛けることがあった。
【0008】
また、ユーザーが無意識に取るモーションや音声により、ユーザーが意図しなかったにもかかわらず特定の機能が動作してしまうこともあった。
【0009】
その上、ディスプレイ装置にモーション認識技術を適用するとき、ユーザーが取れるモーションには制限があるにもかかわらず、ユーザーが平素よく取らないモーションや識別力の高いモーションを選択して命令語として設定しなければならず、命令語を設定するためのモーション選択において困難があった。
【発明の概要】
【発明が解決しようとする課題】
【0010】
一側面は、ユーザーの視線を認識してインタラクションモードに進入し、視線の位置をカーソルで表示するディスプレイ装置及びその制御方法を提供する。
【0011】
他の側面は、ユーザーの視線及びモーション、又はユーザーの視線及び音声を同時に認識して動作及び機能を制御するディスプレイ装置及びその制御方法を提供する。
【課題を解決するための手段】
【0012】
一側面に係るディスプレイ装置は、ユーザーの視線を認識する認識部と、認識された視線があらかじめ設定された認識領域に位置するか否か判断し、認識された視線があらかじめ設定された認識領域に位置すると、インタラクションモードの進入を制御する制御部と、インタラクションモードに対応する映像を表示する表示部と、を備える。
【0013】
表示部は、あらかじめ設定された認識領域を表示する。
【0014】
制御部は、視線が認識されると、あらかじめ設定された領域の表示情報を、視線を認識する前と異なる表示情報で表示する。
【0015】
表示部は、認識された視線の位置をカーソルで表示する。
【0016】
認識部は、ユーザーのモーションを認識し、制御部は、認識されたモーションに対応する動作命令を判断し、判断された動作命令に基づいて表示部の駆動を制御する。
【0017】
認識部は、ユーザーの音声を認識し、制御部は、認識された音声に対応する動作命令を判断し、判断された動作命令に基づいて表示部の駆動を制御する。
【0018】
制御部は、インタラクションモードに進入すると、ユーザーとのインタラクションのための複数の認識モードの表示を制御し、認識された視線の位置に基づいて複数の認識モードからいずれか一つの認識モードを選択する。
【0019】
ディスプレイ装置は、ユーザーの映像を収集する映像収集部と、ユーザーの音声を収集するサウンド収集部と、をさらに備え、制御部は、選択されたいずれか一つの認識モードに基づいて映像収集部及びサウンド収集部の活性化を制御する。
【0020】
認識部は、ユーザーの顔を認識し、制御部は、認識されたユーザーがあらかじめ登録されたユーザーであるか否か判断し、認識されたユーザーがあらかじめ登録されたユーザーであればユーザーの視線認識を制御する。
【0021】
制御部は、認識されたユーザーが複数であれば、あらかじめ保存された優先順位に基づいて優先順位の最も高いユーザーの視線認識を制御する。
【0022】
制御部は、認識された視線があらかじめ設定された終了領域に位置するか否か判断し、認識された視線があらかじめ設定された終了領域に位置すると、インタラクションモードが終了するように制御する。
【0023】
他の側面に係るディスプレイ装置は、ユーザーの視線を認識する第1認識部と、ユーザーの命令を認識する第2認識部と、認識された視線があらかじめ設定された認識領域に位置するか否か判断し、認識された視線があらかじめ設定された認識領域に位置すると、インタラクションモードの進入を制御し、認識された視線及び命令に基づいて複数の機能を選択的に制御する制御部と、インタラクションモードに対応する映像及び選択的に制御される機能に対応する映像を表示する表示部と、を備える。
【0024】
第2認識部は、ユーザーのモーション及び音声のうち少なくとも一方の信号を認識し、認識された少なくとも一方の信号に対応する動作命令を認識する。
【0025】
制御部は、あらかじめ設定された領域に視線が位置する状態でモーションが認識されると、認識されたモーションに対応する命令を確認し、確認された命令に対応する機能の実行を制御する。
【0026】
制御部は、あらかじめ設定された領域に視線が位置する状態で音声が認識されると、認識された音声に対応する命令を確認し、確認された命令に対応する機能の実行を制御する。
【0027】
複数の機能は、外部放送信号の再生、外部コンテンツの実行、再生モード及び画面調整モードのうち少なくとも一つを含む。
【0028】
ディスプレイ装置は、外部のリモコンから伝送されたサウンド信号を受信する通信部をさらに備え、第2認識部は、受信したサウンド信号から音声を認識する。
【0029】
さらに他の側面に係るディスプレイ装置は、外部の放送信号を受信するチューナー部と、放送信号を、映像情報を持つ映像信号とサウンド情報を持つサウンド信号とに分離し、分離された映像信号とサウンド信号をそれぞれ信号処理する信号処理部と、ユーザーの視線を認識する認識部と、認識された視線があらかじめ設定された認識領域に位置するか否か判断し、認識された視線があらかじめ設定された認識領域に位置すると、インタラクションモードの進入を制御する制御部と、信号処理された映像信号及びインタラクションモードに対応する映像を表示する表示部と、信号処理されたサウンド信号を出力するサウンド出力部と、を備える。
【0030】
表示部は、あらかじめ設定された認識領域、チャンネルボタン及びボリュームボタンを表示し、認識された視線の位置をカーソルで表示する。
【0031】
制御部は、表示部の領域外部にユーザーの視線が位置すると、インタラクションモードが終了するように制御する。
【0032】
ディスプレイ装置は、ユーザーの音声及び映像のうち少なくとも一方の情報を収集する収集モジュールをさらに備え、認識部は、収集された音声及び映像のうち少なくとも一方の情報に対応する動作命令を認識し、制御部は、インタラクションモードに進入すると、認識された命令に基づいて複数の機能のうち少なくとも一つの機能を制御する。
【0033】
さらに他の側面に係るディスプレイ装置の制御方法は、ユーザーの視線を認識し、認識された視線があらかじめ設定された認識領域に位置するか否か判断し、認識された視線があらかじめ設定された認識領域に位置すると、インタラクションモードに進入し、ユーザーとのインタラクションのための複数の認識モードを表示し、表示された複数の認識モードの中から、認識された視線が位置する認識モードを判断し、判断された認識モードを行ってユーザーの命令を認識し、認識された命令に対応する機能を実行する。
【0034】
ディスプレイ装置の制御方法は、インタラクションモードに進入すると、あらかじめ設定された認識領域を他の表示情報で表示することをさらに含む。
【0035】
インタラクションモードに進入することは、視線があらかじめ設定された領域を一定時間注視しているか否かを判断することを含む。
【0036】
判断された認識モードを行ってユーザーの命令を認識することは、判断された認識モードがモーションモードであれば、ユーザーのモーションを認識し、認識されたモーションに対応する命令を判断することを含む。
【0037】
判断された認識モードを行ってユーザーの命令を認識することは、判断された認識モードが音声モードであれば、ユーザーの音声を認識し、認識された音声に対応する命令を判断することを含む。
【0038】
ディスプレイ装置の制御方法は、ユーザーの顔を認識し、認識されたユーザーがあらかじめ登録されたユーザーであるか否か判断し、認識されたユーザーがあらかじめ登録されたユーザーであれば、ユーザーの視線を認識することをさらに含む。
【0039】
ディスプレイ装置の制御方法は、認識された視線があらかじめ設定された終了領域に位置するか否か判断し、認識された視線があらかじめ設定された終了領域に位置すると、インタラクションモードを終了させることをさらに含む。
【0040】
ディスプレイ装置の制御方法は、あらかじめ設定された領域に視線が位置する状態でモーションが認識されると、認識されたモーションに対応する命令を確認し、確認された命令に対応する機能の実行を制御することをさらに含む。
【0041】
ディスプレイ装置の制御方法は、あらかじめ設定された領域に視線が位置する状態で音声が認識されると、認識された音声に対応する命令を確認し、確認された命令に対応する機能の実行を制御する。
【0042】
ディスプレイ装置の制御方法は、外部のリモコンから伝送された音声信号を受信し、受信した音声信号から命令を認識することをさらに含む。
【0043】
ディスプレイ装置の制御方法は、ユーザーの視線が表示部の領域外部に一定時間以上位置すると、インタラクションモードを終了させることをさらに含む。
【0044】
ディスプレイ装置の制御方法は、認識された視線の位置をカーソルで表示することをさらに含む。
【0045】
ディスプレイ装置の制御方法は、認識された視線の位置があらかじめ設定された認識領域の内部と外部を交互に移動すると、インタラクションモードを終了させることをさらに含む。
【発明の効果】
【0046】
一側面によれば、ユーザーの視線を追跡してインタラクションモードの進入を行うことによって、インタラクションモードの進入を容易に行うことができ、より直観的にインタラクションを行うことができる。
【0047】
また、顔認識、音声認識及び視線認識を組み合わせてマルチモーダル(Multi−Modal)インタラクションモードを行うことによって、より拡張されたインタラクションモードを行うことができ、ユーザーの意図した命令を正確に判断でき、これにより正確な機能を実行でき、ユーザーの便宜性を向上させることができる。
【0048】
また、ディスプレイ装置に視線の位置をカーソルで表示することによって、ユーザー視線の位置を正確に把握することができる。
【0049】
また、ユーザーの顔又は瞳孔からユーザーを認識し、認識されたユーザーの特徴を考慮して視線、音声、モーションを認識することによって、認識率を向上させることができる。
【図面の簡単な説明】
【0050】
図1】一実施例に係るディスプレイ装置の例示図である。
図2A】一実施例に係るディスプレイ装置における表示例を示す図である。
図2B】一実施例に係るディスプレイ装置における表示例を示す図である。
図2C】一実施例に係るディスプレイ装置における表示例を示す図である。
図3A】一実施例に係るディスプレイ装置における表示例を示す図である。
図3B】一実施例に係るディスプレイ装置における表示例を示す図である。
図4】一実施例に係るディスプレイ装置における表示例を示す図である。
図5】一実施例に係るディスプレイ装置の制御構成図である。
図6】一実施例に係るディスプレイ装置の認識部の詳細構成図である。
図7】一実施例に係るディスプレイ装置に表示されたポップアップメニューの例示図である。
図8A】一実施例に係るディスプレイ装置の制御フローチャートである。
図8B】一実施例に係るディスプレイ装置の制御フローチャートである。
図9】他の実施例に係るディスプレイ装置の制御構成図である。
図10】他の実施例に係るディスプレイ装置の制御フローチャートである。
図11】他の実施例に係るディスプレイ装置における表示例を示す図である。
図12】さらに他の実施例に係るディスプレイ装置の例示図である。
図13】さらに他の実施例に係るディスプレイ装置の制御構成図である。
図14】さらに他の実施例に係るディスプレイ装置の制御フローチャートである。
図15】さらに他の実施例に係るディスプレイ装置における表示例を示す図である。
図16】さらに他の実施例に係るディスプレイ装置における表示例を示す図である。
【発明を実施するための形態】
【0051】
以下、添付の図面を参照しつつ本開示の実施例について詳細に説明する。
【0052】
図1は、一実施例に係るディスプレイ装置の例示図であり、該ディスプレイ装置の構成を、図2乃至図4を参照して説明する。
【0053】
ディスプレイ装置は、テレビ、モニター及び移動通信端末機の表示装置などのように映像を表示する装置である。図1に示すように、ディスプレイ装置1は、映像をディスプレイする本体100と、ユーザーの映像情報及び音声情報を収集するための収集モジュール200と、を備えている。これについてより具体的に説明する。
【0054】
本体100は、映像を表示する表示部110と、映像が非表示される領域をカバーするベゼル120と、を備えている。
【0055】
表示部110は、ユーザーにより要請されたメイン映像を表示する表示領域110aと、インタラクションモード進入を可能にする認識領域110bと、インタラクションモード終了を可能にする終了領域110cと、を備えている。
【0056】
すなわち、認識領域110bは、インタラクションモードに進入しようとする時、ユーザーが視線を置くべき領域であり、終了領域110cは、インタラクションモードを終了しようとする時、ユーザーが視線を置くべき領域である。
【0057】
表示部110は、ユーザーが識別できるように、認識領域110b及び終了領域110cを表示領域110aと区別付く表示情報で表示する。
【0058】
例えば、図2A及び図2Bに示すように、表示領域110aに認識領域110b及び終了領域110cを、半透明の色で埋められた図形又は半透明の色で引いた輪郭線で表示してもよく、図2Cに示すように、半透明のアイコンで表示してもよい。
【0059】
このとき、表示部110は、認識領域110b及び終了領域110cを第1表示領域110aにオーバーラップして表示する。
【0060】
また、表示領域110aに表示されるメイン映像をユーザが見ることに差し支えのない大きさの不透明なシンボル(図形、輪郭線、アイコンなど)で認識領域110b及び終了領域110cを表示してもよい。
【0061】
表示部110は、認識領域110b及び終了領域110cを一定の時間間隔で周期的に表示してもよく、駆動初期に認識領域110b及び終了領域110cの位置及びインタラクションモードの利用に関する案内文を表示してもよい。
【0062】
また、表示部110は、インタラクションモードの進入前後を異なるように表示する。すなわち、表示部110は、認識領域110bについてインタラクションモードの進入前と進入後を異なる表示情報で表示する。
【0063】
例えば、図3Aに示すように、インタラクションモード進入前では認識領域110bを空の図形のみで表示し、インタラクションモードに進入すれば認識領域110bの空の図形中にアイコンを表示してもよく、又は、図3Bに示すように、インタラクションモード進入前では認識領域110bを第1色の図形で表示し、インタラクションモードに進入すれば認識領域110bを第2色の図形で表示してもよい。
【0064】
また、表示部110は、認識領域110bのみを表示し、終了領域110cは表示しない状態に維持し、以降、インタラクションモードに進入すると終了領域110cを表示状態に切り替えてもよい。
【0065】
表示部110は、インタラクションモード進入後にインタラクションモードが進行中であることをユーザーに知らせるために、インタラクションモード進入による表示情報を維持する。
【0066】
例えば、認識領域110bの図形中のアイコン表示を維持したり、認識領域の図形を第2色に維持したりする。
【0067】
表示部110は、インタラクションモードに進入すると、ディスプレイ装置の動作及び機能制御時に用いられる複数の認識モードを表示する。
【0068】
図4に示すように、ユーザーとディスプレイ装置間のインタラクションのための認識モードを表示する。一例として、表示部110は表示領域110aに、モーション認識ボタンa1、音声認識ボタンa2及び視線認識ボタンa3を表示する。この時、表示部110はユーザーの視線をカーソルa4で表示する。
【0069】
また、表示部110は、ユーザーにより要請されたコンテンツの映像を表示し、且つ、ユーザーにより画面調整情報が変更された場合には、変更された画面調整情報に基づいて映像を表示する。
【0070】
このような表示部110は、ディスプレイパネル111、拡散板112、導光板113、バックライトユニット114、シャシー115を備えている。
【0071】
ディスプレイパネル111は、文字、数字、任意のアイコンなどの映像を表示するパネルである。
【0072】
表示部110は、ディスプレイパネル111を外部の衝撃から保護するためのガラス(図示せず)及びフィルター(図示せず)をさらに備えている。ここで、ガラスは、外部衝撃からフィルターが破損することを防止する。
【0073】
フィルターは、光特性膜、電磁波(Electro Magnetic Interference:EMI)遮蔽膜及び紫外線遮蔽膜などを備える。
【0074】
光特性膜は、ディスプレイパネルに入射する光のうち、赤色(R)及び緑色(G)の輝度を下げる一方で青色(B)の輝度を上げることで光特性を改善させ、電磁波遮蔽膜は、電磁波を遮蔽することでディスプレイパネルに入射する電磁波が外部に放出されることを防止する。
【0075】
また、赤外線遮蔽膜は、ディスプレイパネルから放射される赤外線を遮蔽することで、リモコンなどが赤外線を用いて信号を正常に伝達できるよう、基準以上の赤外線が外部に放出されることを防止する。
【0076】
拡散板112は、バックライトユニット114から発される光を面に沿って拡散させることで、画面全体として色及び明るさが均一に見えるようにする半透明パネルで、バックライトユニット114から発された光の輝度などを向上させてディスプレイパネルに供給する。すなわち、拡散板112は、バックライトユニット114の発光ダイオード(LED)の光を増大させ、全体面の明るさを均一に維持させる。
【0077】
導光板113は、バックライトユニット114の光源をディスプレイパネル全体に均一に入射させ、バックライトユニット114は、ディスプレイパネル111の背面又は側面から光を放出する。
【0078】
すなわち、ディスプレイパネル111は自ら発光しないため、バックライトユニットから放出された光の透過量及び色を調節することによって映像を表示する。
【0079】
シャシー115は、映像表示及びサウンド出力に必要な駆動モジュール130が接続されるパネルである。
【0080】
駆動モジュール130の例には、映像表示及びサウンド出力を制御するための各種印刷回路基板、外部機器との接続のためのインターフェース装置、各装置に動作電源を供給する電源装置などがある。
【0081】
シャシー115は放熱及び強度に優れた金属で作られる。
【0082】
ベゼル120は、表示部110の映像非表示面をカバーし、表示部110の外観を形成する。
【0083】
ベゼル120にはさらに、複数のボタンを有する入力部(図示せず)が配置されていてもよい。すなわち、ディスプレイ装置1は、この入力部から動作命令が入力されてもよい。
【0084】
本体100は、表示部110の非表示面を保護するためのカバー121と、表示部110のディスプレイパネル、拡散板、導光板、バックライトユニット、シャシーなどを離隔させた状態で支持する支持部材(図示せず)をさらに備える。ここで、支持部材及びカバー121はベゼル120と分離可能に結合される。
【0085】
カバー121はベゼル120との結合時に収容空間を形成し、この収容空間内にはディスプレイパネル、拡散板、導光板、バックライトユニット及びシャシーなどが配置される。
【0086】
収集モジュール200は、本体100のベゼル120の上端に配置されており、ユーザー及びその周辺の映像及びサウンドを収集し、収集された映像及びサウンドを駆動モジュール130に伝送する。
【0087】
収集モジュール200は、本体100のベゼル120の上端の他、ユーザーの情報を収集し易い如何なる位置に装着されてもよい。
【0088】
また、収集モジュール200はディスプレイ装置と個別に備えられてもよい。すなわち、収集モジュール200は本体100から分離可能に設けられ、本体100に設けられたインターフェース装置(図示せず)に連結されることで本体100に接続してもよい。
【0089】
収集モジュール200についてより詳しく説明する。
【0090】
収集モジュール(MOIP:Multimedia Over Internet Protocol)200は、ハウジング210と、ハウジング210に装着された映像収集部220であるカメラと、ハウジング210に装着されたサウンド収集部230である第1マイクロフォンと、カメラ及び第1マイクロフォンの駆動を制御し、カメラ及び第1マイクロフォンで収集された映像信号及びサウンド信号を駆動モジュール130に伝達する第1マイコン(図示せず)と、備えている。
【0091】
ここで、第1マイクロフォンは、複数個のマイクロフォン230a,230bで構成されている。
【0092】
映像収集部220であるカメラは、ユーザー及びその周辺の映像を収集し、収集された映像のデータを第1マイコンに伝送する。
【0093】
サウンド収集部230a,230bである第1マイクロフォンは、ユーザーの音声を含む周辺のサウンドを収集し、収集されたサウンドのデータを第1マイコンに伝送する。
【0094】
第1マイコンは、受信した映像データ及びサウンドデータを駆動モジュール130に伝送する。さらに、第1マイコンは、受信した映像データ及びサウンドデータがメモリー(図示せず)に保存されるようにしてもよい。
【0095】
収集モジュール200は、イーサネット(登録商標)のような通信部(図示せず)をさらに備えてもよい。このとき、収集モジュール(MOIP)の第1マイコンは、映像信号及びサウンド信号を圧縮し、圧縮されたデータをイーサネット(登録商標)を介して駆動モジュール130に伝送する。
【0096】
なお、収集モジュールのカメラ220及び第1マイクロフォン230は駆動モジュール130に直接接続しており、映像信号及びサウンド信号を駆動モジュールに直接伝送してもよい。
【0097】
図5は一実施例に係るディスプレイ装置の制御構成図であり、このディスプレイ装置の構成を、図6乃至図7を参照して説明する。
【0098】
一実施例に係るディスプレイ装置1は、ユーザーの意図により生成されたインタラクション信号及び入力部(図示せず)の信号のうち少なくとも一方に基づいて動作する。
【0099】
このディスプレイ装置1は、ユーザーの意図した命令を収集する収集モジュールとして映像収集部220及びサウンド収集部230を備え、動作命令に基づいて動作を制御するための駆動モジュール130を備え、動作実行を出力するための出力モジュールとして表示部110及びサウンド出力部140を備える。
【0100】
映像収集部220は、駆動モジュール130と電気的に接続しており、駆動モジュール130の命令に応じてユーザーの映像を収集し、収集された映像に関する信号を駆動モジュール130に伝送する。サウンド収集部230は、駆動モジュール130と電気的に接続しており、駆動モジュール130の命令に応じてユーザーの音声を収集し、収集された音声に関する信号を駆動モジュール130に伝送する。
【0101】
駆動モジュール130は、入力部(図示せず)からの信号に基づいて表示部110及びサウンド出力部140の少なくとも一方の動作を制御する。
【0102】
また、駆動モジュール130は、映像収集部220及びサウンド収集部230の少なくとも一方で収集された情報に基づいてインタラクションモードの進入及び終了を制御し、インタラクションモード進入後にインタラクションモードを行って表示部110及びサウンド出力部140の少なくとも一方の動作を制御する。
【0103】
このような駆動モジュール130は、認識部131、データベース部132、ネットワークインターフェース部133、制御部134、保存部135、表示駆動部136及びサウンド駆動部137を備えている。
【0104】
認識部131は、映像収集部220及びサウンド収集部230の少なくとも一方の収集部で収集された情報の信号を受信し、受信した信号に基づいて、ユーザー認識及びユーザーの意図した動作命令を認識し、認識された動作命令を制御部134に伝送する。これを図6を参照して説明する。
【0105】
図6は、一実施例に係るディスプレイ装置に設けられた認識部の詳細構成図であり、認識部131は、インタラクションモードへの進入命令を認識するための第1認識部131−1と、機能実行及び動作命令を認識するための第2認識部131−2と、を備えている。
【0106】
第1認識部131−1は、顔認識部131a及び視線認識部131bを備えている。
【0107】
顔認識部131aは、映像収集部220から伝送されてきた映像から背景領域を除去してユーザーの顔映像を獲得し、獲得されたユーザーの顔映像からエッジ、色情報を用いて顔領域を抽出し、この顔領域から目、鼻、口などの特徴点を抽出することによって顔を認識し、認識された顔とあらかじめ登録された顔映像とを比較し、認識された顔があらかじめ登録されたユーザーの顔であるか否か判断する。
【0108】
なお、認識部131は、顔認識時に顔映像をフィルタリングしてノイズを除去し、顔映像の特徴を分析するのに必要な前処理を行う。
【0109】
視線認識部131bは、ユーザーの顔映像から目映像を検出し、検出された目映像から瞳孔の位置を獲得してユーザーの視線の位置を認識する。
【0110】
第2認識部131−2は、モーション認識部131c及び音声認識部131dを備えている。
【0111】
モーション認識部131cは、映像収集部220から伝送されてきた映像から背景領域を除去してユーザーの身体映像を獲得し、獲得されたユーザーの身体映像からエッジ、色情報を用いてユーザーの顔、腕、手、胴、脚及び足の領域を抽出し、抽出された顔、腕、手、胴、脚、足などから特徴点を抽出してユーザーの取ったモーションを認識し、該認識されたモーションとマッチするモーションを、データベース部132に保存されたモーションから検索し、検索されたモーションに対応する動作命令を認識する。
【0112】
音声認識部131dは、サウンド収集部230から伝送されてきたサウンドからノイズを除去してユーザーの発声した音声を獲得し、ユーザーの発声した音声から特徴ベクトルを抽出し、抽出された特徴ベクトルとデータベース部132に保存された各単語の言語モデル又は音素単位の音響モデルとを比較することで候補単語又は候補音素を抽出し、候補単語又は候補音素に基づいて文章を認識し、該認識された文章とマッチする文章を、データベース部132に保存された文章から検索し、検索された文章に対応する動作命令を認識する。
【0113】
なお、音声認識部131dは候補単語又は候補音素から動作命令を認識してもよい。
【0114】
また、音声認識部131dは、音声の特徴的情報を用いてユーザーを認識してもよい。
【0115】
データベース部132は、あらかじめ登録されたユーザーの顔映像、顔映像の特徴点情報及び瞳孔情報を保存し、モーション別動作命令及び音声別動作命令を保存する。ここで、瞳孔情報としては、瞳孔の大きさ、瞳孔の位置及び瞳孔間の距離情報を含み、このような瞳孔情報に基づいてユーザーが認識されてもよい。
【0116】
なお、データベース部132は、ユーザーが複数である場合に、ユーザー別にモーションに対応する動作命令をそれぞれ保存し、且つユーザー別に音声に対応する動作命令をそれぞれ保存してもよい。
【0117】
ネットワークインターフェース部133は、IPアドレスの割り当てを受けてネットワーク通信を行い、ネットワークを介して外部からデータパケットを受信して処理し、データパケットが映像、サウンドなどのマルチメディアデータである場合には保存や再生され得るように制御部に伝送する。
【0118】
例えば、ネットワークインターフェース部133は放送、ゲーム、VOD、放送信号などのコンテンツ及びその関連情報を受信する。また、ネットワークインターフェース部133はファームウェアのアップデート情報及びアップデートファイルを受信することもある。
【0119】
なお、ディスプレイ装置は、入力インターフェース部をさらに備えてもよい。このとき、入力インターフェース部は、USBのような外部記憶装置やDVD、CDのような光ディスク装置と接続してマルチメディアデータを受信し、受信したマルチメディアデータを制御部に伝送すればよい。
【0120】
制御部134は、ディスプレイ装置1に電源が印加されたり、入力部(図示せず)のボタン入力によりインタラクションモードが要請されたりする場合に、映像収集部220及びサウンド収集部230に動作命令を伝送する。
【0121】
制御部134は、認識部131で認識されたユーザーの登録有無によってインタラクションモードに進入するか否かを決定し、認識部131で認識されたユーザーが複数であれば、複数のユーザーの中から、優先順位の最も高いユーザーを確認し、確認されたユーザーの視線の位置に基づいてインタラクションモードの進入を制御する。
【0122】
また、制御部134は、ユーザーが複数である場合に、認識領域に位置する視線が存在するか否か判断し、認識領域に位置する視線が存在すると、認識領域を注視しているユーザーの視線に基づいてインタラクションモードの進入を制御してもよい。
【0123】
制御部134は、認識部131から伝送された視線の位置に基づいてユーザーの注視している位置を判断する。この時、制御部134は、ユーザーの視線が認識領域に一定時間以上位置するか否か判断し、ユーザーの視線が認識領域に一定時間以上位置するとインタラクションモードに進入するように制御する。
【0124】
制御部134は、インタラクションモードに進入すると、表示部110の認識領域の表示情報をインタラクションモード進入前とは異なる表示情報に変更するように制御する。
【0125】
制御部134は、インタラクションモードに進入すると、インタラクションにより動作命令を入力してもらうための複数の認識モードが表示されるように制御し、この時、認識部131から伝送された視線の位置とあらかじめ保存された複数の認識モードボタンの位置とをそれぞれ比較することで、ユーザーの選択しようとする認識モードを判断し、判断された認識モードに基づいて映像収集部220及びサウンド収集部230の動作がオン/オフになるように制御する。
【0126】
例えば、制御部134は、複数の認識モードのうち音声認識モードが選択された場合に、サウンド収集部230の動作をオンにさせ、映像収集部220の動作はオフにさせる。複数の認識モードのうち、視線認識モードやモーション認識モードが選択された場合には、サウンド収集部230の動作をオフにさせ、映像収集部220の動作はオンにさせる。
【0127】
ここで、動作命令としては、表示やサウンドなどの出力情報の変更及び機能の変更などを含む。
【0128】
制御部134は、認識部131から伝送された動作命令に基づいて各駆動部136,137の駆動を制御する。
【0129】
制御部134は、終了領域に視線が一定時間以上位置するとインタラクションモードを終了させる。
【0130】
制御部134は、終了領域に視線が一定時間以上位置すると、ポップアップメニューが表示されるように制御してもよい。図7に示すように、ポップアップメニューP1は、優先順位変更ボタン、ボリューム調整ボタン、画面調整ボタン及び終了ボタンなどを有する。
【0131】
なお、制御部134は、認識モード実行中に認識領域を注視すると、それをユーザーの認識モード変更要求と判断し、複数の認識モードボタンが再表示されるように制御してもよい。
【0132】
制御部134は、ユーザーにより要請されたメイン映像信号の表示及びサウンド信号の出力がなされるように制御し、映像及びサウンドの出力中にインタラクションモードに対応する映像がメイン映像にオーバーラップして表示されるように制御する。
【0133】
保存部135は、あらかじめ登録された複数のユーザーの優先順位を保存し、認識領域と終了領域の位置を保存し、インタラクションモード進入前、インタラクションモード進入、インタラクションモード実行にそれぞれ対応する認識領域の表示情報を保存し、複数の認識モードボタンの位置情報を保存する。
【0134】
表示駆動部136は、制御部134の命令に基づいて表示部110を駆動させ、サウンド駆動部137は、制御部134の命令に基づいてサウンド出力部140を駆動させる。
【0135】
出力モジュールである表示部110は、駆動モジュール130内の制御部134の命令に基づいて表示領域に映像を表示し、インタラクションモード実行に対応する映像を表示する。
【0136】
出力モジュールであるサウンド出力部140は、駆動モジュール130内の制御部134の命令に基づいてサウンドを出力する。ここで、サウンド出力部140はディスプレイ装置1から分離可能にしてもよい。
【0137】
すなわち、サウンド出力部140はスピーカーなどであり、ディスプレイ装置1とは個別に設けられ、ユーザーの選択によってディスプレイ装置1に接続されるものであってもよい。
【0138】
図8A及び図8Bは、一実施例に係るディスプレイ装置の制御フローチャートであり、このディスプレイ装置の制御を、図1乃至図7を参照して説明する。
【0139】
ディスプレイ装置は、ユーザーにより電源が印加されると、映像収集部220を動作させて映像を収集する(301)。
【0140】
続いて、ディスプレイ装置は、収集された映像から背景領域を除去してユーザーの映像を獲得し、獲得された映像からエッジ情報及び色情報を用いて顔領域を抽出し、この顔領域から目、鼻、口などの特徴点を抽出して顔を認識する(302)。
【0141】
続いて、ディスプレイ装置は、認識された顔の数に基づいて、認識されたユーザーの数を確認し(303)、確認されたユーザーの数が複数であるか否か判断する(304)。
【0142】
この時、確認されたユーザーの数が単数であれば、認識された顔とあらかじめ登録されたユーザーの顔映像とを比較し、認識された顔のユーザーがあらかじめ登録されたユーザーであるか否か判断し(305)、認識された顔のユーザーがあらかじめ登録されたユーザーでないと、インタラクションモードの実行が不可能であることを表示部110を用いて表示し(306)、認識された顔のユーザーがあらかじめ登録されたユーザーであると、認識された顔の瞳孔を認識して視線を追跡する(310)。
【0143】
一方、ディスプレイ装置は、認識されたユーザーの数が複数であれば、認識された複数の顔とあらかじめ登録されたユーザーの顔映像をそれぞれ比較し、認識された複数のユーザーの中からあらかじめ登録されたユーザーを確認し、あらかじめ登録されたユーザーとして判断されたユーザーの数を確認し(307)、確認された数が複数であるか否か判断する(308)。
【0144】
ディスプレイ装置は、あらかじめ登録されたユーザーとして複数のユーザーが認識されたと判断されると、認識された複数のユーザーの中から、優先順位の最も高いユーザーを判断し(309)、判断されたユーザーの瞳孔を認識して視線を追跡する(310)。
【0145】
次に、ディスプレイ装置は、認識された視線が認識領域に位置するか否か判断し(311)、認識された視線が認識領域に位置していると判断されると、認識された視線が認識領域をあらかじめ設定された一定時間以上注視しているか否か判断する。
【0146】
続いて、ディスプレイ装置は、認識された視線が認識領域をあらかじめ設定された一定時間以上注視していると判断されると、インタラクションモードに進入し(312)、インタラクションモードに進入することをユーザーが認識できるように、表示部110内の認識領域の表示情報を変更して表示する(313)。
【0147】
例えば、図3に示すように、認識領域110b内にアイコンを表示したり、認識領域110bの色を変更したりする。
【0148】
次に、ディスプレイ装置は、動作命令を入力してもらうための複数の認識モードを表示し、ユーザーの視線の位置を確認した後(314)、確認された視線の位置に基づいて、ユーザーにより選択された認識モードを判断する(315)。
【0149】
すなわち、ディスプレイ装置は、複数の認識モードボタンの位置の中から、確認された視線の位置とマッチする位置を判断することによって、ユーザーにより選択された認識モードを判断する。
【0150】
この時、ディスプレイ装置は、ユーザーが視線の位置を確認できるように、表示部にユーザーの視線の位置をカーソルで実時間表示する。
【0151】
次に、ディスプレイ装置は、判断された認識モードを実行し(316)、認識モード実行による認識結果に基づいて動作命令を認識し、認識された動作命令に基づいて各駆動部を動作させる(317)。
【0152】
各認識モードの選択によって動作命令を認識する構成についてより具体的に説明すると、下記の通りである。
【0153】
(1)ディスプレイ装置は、ユーザーによりモーション認識が選択された場合に、映像収集部の動作を維持させ、映像収集部で収集された映像から背景領域を除去してユーザーの身体映像を獲得し、獲得されたユーザーの身体映像からエッジ、色情報を用いてユーザーの顔、腕、手、胴、脚及び足の領域を抽出し、抽出された顔、腕、手、胴、脚、足などから特徴点を抽出することで、ユーザーの取ったモーションを認識し、該認識されたモーションとマッチするモーションをデータベース部132に保存されたモーションから検索し、検索されたモーションに対応する動作命令を認識する。
【0154】
次に、ディスプレイ装置は、認識された動作命令に基づいて各駆動部136,137を駆動させることによって、ユーザーの要求したコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求したコンテンツのサウンドがサウンド出力部140から出力されるようにする。
【0155】
(2)ディスプレイ装置は、ユーザーにより音声認識が選択された場合に、サウンド収集部を動作させ、サウンド収集部230で収集されたサウンドからノイズを除去してユーザーの発声した音声を獲得し、ユーザーの発声した音声から特徴ベクトルを抽出し、抽出された特徴ベクトルとデータベース部132に保存された各単語の言語モデル又は音素単位の音響モデルとを比較することで候補単語又は候補音素を抽出し、候補単語又は候補音素に基づいて文章を認識し、該認識された文章とマッチする文章を、データベース部132に保存された文章から検索し、検索された文章に対応する動作命令を認識する。
【0156】
次に、ディスプレイ装置は、認識された動作命令に基づいて各駆動部136,137を駆動させることによって、ユーザーの要求したコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求したコンテンツのサウンドがサウンド出力部140から出力されるようにする。
【0157】
(3)ディスプレイ装置は、ユーザーにより視線認識が選択された場合に、映像収集部の動作を維持させ、表示部110にポップアップメニューを表示し、映像収集部220で収集された映像を用いてユーザーの顔及び瞳孔を認識し、認識された瞳孔に基づいて視線を追跡し、追跡された視線の位置を確認することによって、ポップアップメニューのうちユーザーにより選択されたメニューに対応する動作を行う。
【0158】
ここで、ポップアップメニューは複数のメニューを有し、各メニューは動作命令ボタンを有する。
【0159】
すなわち、ディスプレイ装置は、ポップアップメニューにおける複数の動作命令ボタンの位置の中から、ユーザーの視線の位置とマッチする位置のボタンを確認し、確認されたボタンに対応する動作を行う。
【0160】
例えば、図7に示すように、優先順位変更ボタン、ボリューム調整ボタン、画面調整ボタン及び終了ボタンを有しているポップアップメニューP1が表示された場合に、視線の位置がボリューム調整ボタンであれば、表示部110にボリューム調整のためのアップ/ダウンボタンを表示する。この時、ユーザーの視線がボリュームアップボタン上に位置するとボリュームをアップさせ、ボリュームダウンボタン上に位置するとボリュームをダウンさせる。
【0161】
なお、視線認識を用いたメニューの選択は、目の瞬き、視線がボタンに位置する時間、又はその他ユーザーの目による動きに基づいて判断すればよい。
【0162】
ディスプレイ装置は、ネットワークインターフェース部133又は入力インターフェース部を介して受信したコンテンツなどを表示部に表示させる。この時、ディスプレイ装置は、ユーザーにより要請されたメイン映像信号の表示及びサウンド信号の出力がなされるように制御し、且つ映像及びサウンド出力中に、インタラクションモードによる映像がメイン映像にオーバーラップして表示されるように制御する。
【0163】
次に、ディスプレイ装置は、表示部110の終了領域に視線が一定時間以上位置するとインタラクションモードを終了し、以降、ユーザーの視線が認識領域に再び位置すると、ユーザーが認識モード変更を要求するものと判断し、複数の認識モードボタンを再表示する。
【0164】
また、ディスプレイ装置は、表示部110の外部に視線が一定時間以上位置するとインタラクションモードを終了させてもよい。
【0165】
図9は、他の実施例に係るディスプレイ装置の構成図であり、この実施例において、ディスプレイ装置1は、ユーザーの命令を入力してもらうための収集モジュールとして映像収集部220及びサウンド収集部230を備え、動作命令に基づいて動作を制御するための駆動モジュール150を備え、動作実行を出力するための出力モジュールとして表示部110及びサウンド出力部140を備えている。
【0166】
ここで、映像収集部220、サウンド収集部230、表示部110及びサウンド出力部140は、上記の一実施例におけると同一であり、その説明を省略する。
【0167】
駆動モジュール150は、認識部151、データベース部152、ネットワークインターフェース部153、制御部154、保存部155、表示駆動部156及びサウンド駆動部157を備えている。
【0168】
認識部151は、映像収集部220及びサウンド収集部230の少なくとも一方で収集された情報の信号を受信し、受信した信号に基づいてユーザー認識及びユーザーの意図した動作命令を認識し、認識された動作命令を制御部154に伝送する。
【0169】
認識部151は、モーションを取ったユーザーと認識領域を注視しているユーザーとが同一のユーザーであるか判断し、同一のユーザーと判断されると、視線が認識領域に位置する状態で認識されたモーションに対応する動作命令を認識する。
【0170】
また、認識部151は、音声を発声したユーザーと認識領域を注視しているユーザーとが同一のユーザーであるか判断し、同一のユーザーと判断されると、視線が認識領域に位置する状態で認識された音声に対応する動作命令を認識する。
【0171】
このような認識部151は、ユーザーの顔及び視線を認識するための第1認識部と、機能実行及びユーザーの動作命令を認識するための第2認識部と、を備え、第1認識部及び第2認識部は、一実施例の第1認識部131−1及び第2認識部131−2と同一であり、その説明を省略する。
【0172】
データベース部152は、ユーザーの顔映像と瞳孔情報とをマッチングさせて保存し、且つユーザーの音声情報と瞳孔情報とをマッチングさせて保存する。
【0173】
その他のデータベース部152の構成及びネットワークインターフェース部153の構成は、上記の一実施例におけるデータベース部132及びネットワークインターフェース部133と同一であり、その説明を省略する。
【0174】
制御部154は、ディスプレイ装置1に電源が印加されたり、入力部(図示せず)のボタン入力によりインタラクションモードが要請されたりする場合に、映像収集部220及びサウンド収集部230に動作命令を伝送する。
【0175】
制御部154は、認識部151で認識されたユーザーの登録有無によってインタラクションモードに進入するか否かを決定し、認識部151で認識されたユーザーが複数であれば、複数のユーザーの中から、優先順位の最も高いユーザーを確認し、確認されたユーザーの視線の位置に基づいてインタラクションモードの進入を制御する。
【0176】
制御部154は、ユーザーの視線が認識領域に一定時間以上位置するか否か判断し、ユーザーの視線が認識領域に一定時間以上位置すると、インタラクションモードに進入するように制御する。
【0177】
制御部154は、インタラクションモードに進入すると、ユーザーに命令を入力してもらうための複数の認識モードが表示されるように制御し、この時、認識部151で伝送された視線の位置とあらかじめ保存された複数の認識モードボタンの位置とをそれぞれ比較することでユーザーの選択しようとする認識モードを判断し、判断された認識モードに基づいて映像収集部220及びサウンド収集部230の動作をオン/オフになるように制御する。
【0178】
ここで、複数の認識モードは、モーション認識及び音声認識を含む。
【0179】
制御部154は、モーション認識が選択されると、視線認識及びモーション認識を組み合わせた第1マルチモーダルモード(Multi−Modal Mode)に対応する動作命令を受信し、音声認識が選択されると、視線認識及び音声認識を組み合わせた第2マルチモーダルモードに対応する動作命令を受信する。
【0180】
制御部154は動作命令に基づいて各駆動部156,157の駆動を制御する。
【0181】
制御部154は、終了領域に視線が一定時間以上位置するとインタラクションモードが終了するように制御する。
【0182】
制御部154は、ユーザーにより要請されたメイン映像信号の表示及びサウンド信号の出力がなされるように制御する。
【0183】
保存部155は、あらかじめ登録された複数ユーザーの優先順位を保存し、認識領域と終了領域の位置を保存し、インタラクションモード進入前、インタラクションモード進入、インタラクションモード実行にそれぞれ対応する認識領域の表示情報を保存し、複数の認識モードボタンの位置情報を保存する。
【0184】
表示駆動部156及びサウンド駆動部157は、上記の一実施例における表示駆動部及びサウンド駆動部と同一であり、その説明を省略する。
【0185】
図10は、他の実施例に係るディスプレイ装置の制御フローチャートであり、このディスプレイ装置の制御を、図9及び図11を参照して説明する。
【0186】
ディスプレイ装置は、ユーザーにより電源が印加されると、映像収集部220を動作させて映像を収集し、収集された映像に基づいて顔を認識し、認識された顔に基づいて、認識されたユーザーの数を確認する。
【0187】
次に、ディスプレイ装置は、確認されたユーザーの数が複数であるか否か判断し、認識された複数のユーザーの中から、あらかじめ登録されたユーザーを判断し、認識された複数のユーザーのうち、あらかじめ登録されたユーザーの数が複数であるか否か判断する。
【0188】
次に、ディスプレイ装置は、認識された複数のユーザーのうち、あらかじめ登録されたユーザーの数が複数であれば、認識された複数のユーザーの中から、優先順位の最も高いユーザーを判断し、判断されたユーザーの瞳孔を認識して視線を認識する。
【0189】
続いて、ディスプレイ装置は、認識された視線が認識領域に位置するか否か判断し、認識された視線が認識領域に位置していると判断されると、認識された視線が認識領域をあらかじめ設定された一定時間以上注視しているか否か判断し、この時、認識された視線が認識領域をあらかじめ設定された一定時間以上注視していると判断されると、インタラクションモードに進入し(401)、インタラクションモードに進入されることをユーザーが認識できるように、表示部110内の認識領域の表示情報を変更して表示する(402)。
【0190】
以上の過程は上記の一実施例におけると同一である。
【0191】
次に、ディスプレイ装置は、動作命令を入力してもらうための複数の認識モードを表示し、ユーザーの視線の位置を確認した後(403)、確認された視線の位置に基づいてユーザーにより選択された認識モードを判断する(404)。
【0192】
すなわち、ディスプレイ装置は、複数の認識モードボタンの位置の中から、確認された視線の位置とマッチする位置を判断することによって、ユーザーにより選択された認識モードを判断する。
【0193】
この時、ディスプレイ装置は、ユーザーが視線の位置を確認できるように、表示部110にユーザーの視線の位置をカーソルで実時間表示する。
【0194】
次に、ディスプレイ装置は、判断された認識モード及び視線認識モードを組み合わせたマルチモーダルモードを実行し(405)、マルチモーダルモード実行による認識結果に基づいて動作命令を認識し、認識された動作命令に基づいて各駆動部を動作させる(406)。
【0195】
この時、ディスプレイ装置は、モーション認識及び視線認識モードを組み合わせた第1マルチモーダルモードを行う前に、モーションを取るユーザーと認識領域を注視するユーザーとが同一人であるか否か判断し、同一人として判断されると、第1マルチモーダルモードに基づいてインタラクションモードを行い、同一人でないと判断されると、インタラクションモードの実行が不可能であることを表示するように構成されてもよい。
【0196】
また、ディスプレイ装置は、音声認識及び視線認識モードを組み合わせた第2マルチモーダルモードを行う前に、音声を発声したユーザーと認識領域を注視するユーザーとが同一人であるか否か判断し、同一人として判断されると、第2マルチモーダルモードに基づいてインタラクションモードを行い、同一人でないと判断されれると、インタラクションモードの実行が不可能であることを表示するように構成されてもよい。
【0197】
マルチモーダルモードによって動作命令を認識する構成をより具体的に説明すると、下記の通りである。
【0198】
(1)ディスプレイ装置は、ユーザーによりモーション認識が選択された場合に、モーション認識モード及び視線認識モードを組み合わせた第1マルチモーダルモードを行う。この時、映像収集部220の動作を維持させ、認識領域に視線が位置するか否か判断し、認識領域に視線が位置していると判断されると、認識領域に視線が位置している状態でユーザーの取ったモーションを認識し、認識されたモーションに対応する動作命令を認識する。
【0199】
すなわち、映像収集部220で収集された映像から背景領域を除去してユーザーの身体映像を獲得し、獲得されたユーザーの身体映像からエッジ、色情報を用いてユーザーの顔、腕、手、胴、脚及び足の領域を抽出し、抽出された顔、腕、手、胴、脚、足などから特徴点を抽出してユーザーの取ったモーションを認識し、認識されたモーションとマッチするモーションを、データベース部152に保存されたモーションから検索し、検索されたモーションに対応する動作命令を認識する。
【0200】
次に、ディスプレイ装置は、認識された動作命令に基づいて各駆動部156,157を駆動させることによって、ユーザーの要求したコンテンツの映像をが表示部110に表示されるようにし、且つユーザーの要求したコンテンツのサウンドがサウンド出力部140から出力されるようにする。
【0201】
その例を、図11を参照して説明する。
【0202】
図11に示すように、ディスプレイ装置は、表示部の表示領域110aに複数の機能を表示した状態で第1マルチモーダルモードが実行中であれば、映像収集部を用いてユーザーの視線及びモーションを認識する。
【0203】
ユーザーが認識領域110bを注視し、同時に一本の指を伸ばしたモーションを取ったとすれば、ディスプレイ装置は、認識領域に位置する視線を認識すると同時に、一本の指を伸ばしたモーションを認識し、一本の指を伸ばしたモーションに対応する動作命令を認識する。
【0204】
このとき、一本の指を伸ばしたモーションに対応する動作命令が「検索」であれば、ネットワークインターフェース部を介してインターネットに接続し、検索を可能にする。
【0205】
(2)ディスプレイ装置は、ユーザーにより音声認識が選択された場合に、音声認識モード及び視線認識モードを組み合わせた第2マルチモーダルモードを行う。この時、サウンド収集部230を動作させ、認識領域に視線が位置するか否かを判断し、認識領域に視線が位置していると判断されると、認識領域に視線が位置している状態でユーザーの発声した音声を認識し、認識された音声に対応する動作命令を認識する。
【0206】
すなわち、サウンド収集部230を動作させ、サウンド収集部230で収集されたサウンドからノイズを除去してユーザーの発声した音声を獲得し、ユーザーの発声した音声から特徴ベクトルを抽出し、抽出された特徴ベクトルとデータベース部152に保存された各単語の言語モデル又は音素単位の音響モデルとを比較することで候補単語又は候補音素を抽出し、候補単語又は候補音素に基づいて文章を認識し、該認識された文章とマッチする文章を、データベース部152に保存された文章から検索し、検索された文章に対応する動作命令を認識する。
【0207】
続いて、ディスプレイ装置は、認識された動作命令に基づいて各駆動部156,157を駆動させることによって、ユーザーの要求したコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求したコンテンツのサウンドがサウンド出力部140から出力されるようにする。
【0208】
その例を、図11を参照して説明する。
【0209】
図11に示すように、ディスプレイ装置は、表示部の表示領域110aに複数の機能を表示した状態で第2マルチモーダルモードが実行中であれば、映像収集部及びサウンド収集部を用いてユーザーの視線及び音声を認識する。
【0210】
ユーザーが認識領域110bを注視し、同時に「サン」を発声したとすれば、ディスプレイ装置は、認識領域に位置する視線を認識すると同時に、音声「サン」を認識し、音声「サン」に対応する動作命令を認識する。
【0211】
このとき、音声「サン」に対応する動作命令が「映画」であれば、ネットワークインターフェース部を介してダウンロードした映画や、別個の記憶装置に記憶された映画を再生したり、映画に関する下位目録を表示したりする。
【0212】
ディスプレイ装置は、表示部にメイン映像表示中にインタラクションモードが実行されると、インタラクションモードに対応する映像をメイン映像にオーバーラップして表示する。
【0213】
次に、ディスプレイ装置は、表示部110の終了領域に視線が一定時間以上位置すると、インタラクションモードを終了し、以降、ユーザーの視線が認識領域に再び位置すると、ユーザーのインタラクションモードの進入を再び行い、これを表示部に再び表示する。
【0214】
図12は、さらに他の実施例に係るディスプレイ装置の例示図である。さらに他の実施例に係るディスプレイ装置としてテレビを取り上げて説明する。
【0215】
さらに他の実施例に係るディスプレイ装置であるテレビは、映像をディスプレイする本体100、本体100の下端に装着されて本体100を下側で支持するスタンド160、及びユーザーに命令を入力してもらうためのリモコン170を備えている。
【0216】
ここで、スタンド160は、分離可能に本体100に結合されている。また、ディスプレイ装置であるテレビは、ブラケットなどをさらに備え、このブラケットを介して本体100が壁に据え付けられるように構成されてもよい。このとき、スタンドは省かれてもよい。
【0217】
本体100は、映像を表示する表示部110と、映像が非表示される領域をカバーするベゼル120と、を備えている。このような本体100の構成は上記の一実施例と同一であり、その説明を省略する。
【0218】
本体100は、テレビの動作命令を入力してもらうための、複数のボタンを持つ入力部(図示せず)をさらに備えてもよい。
【0219】
収集モジュール200は、本体100のベゼル120の上側に配置されており、ユーザー及びその周辺の映像及びサウンドを獲得し、獲得された映像及びサウンドを駆動モジュールに伝送する。
【0220】
収集モジュール200は、本体100のベゼル120の上端の他、ユーザーの情報を収集しやすい如何なる位置に装着されてもよい。
【0221】
また、収集モジュール200はテレビと個別に備えられてもよい。すなわち、収集モジュール200は本体100から分離可能に設けられ、本体100に設けられたインターフェース装置(図示せず)に連結されることで本体100に接続してもよい。
【0222】
このような収集モジュール200は、上記の一実施例と同一であり、その説明を省略する。
【0223】
リモコン170は、ユーザーの便宜のために、テレビを遠隔で制御するための装置である。
【0224】
テレビを遠隔調整するリモコンは、多数の機能選択ボタン、数字ボタン、電源オン/オフボタン、チャンネル切替ボタン及びボリューム調節ボタンなどを含む複数のボタン171と、ユーザーの音声信号を収集する第2マイクロフォン172と、複数のボタン171の信号及び音声信号を取り込んで動作信号を生成する第2マイコン(図示せず)と、第2マイコンで生成された動作信号を送信する通信部173と、第2マイクロフォン、複数のボタン、マイコン及び通信部に駆動電源を供給するバッテリーと、を備えている。
【0225】
ここで、第2サウンド収集部172は常に動作状態を維持する。
【0226】
このようなリモコン170は、テレビを視聴するユーザーの操作に対応して、チャンネル切替信号をテレビに伝送したり、ボリューム調節信号などの動作信号をテレビに伝送したりする。これにより、ユーザーはテレビの各種機能を便利に調整することができる。
【0227】
なお、放送視聴及びインターネット可能なディスプレイ装置を制御するためのリモコンは、放送視聴を制御するためのボタンの他にも、インターネット機能を選択及び制御するための複数のボタンを有する。
【0228】
図13は、さらに他の実施例に係るディスプレイ装置であるテレビの制御構成図である。
【0229】
さらに他の実施例に係るディスプレイ装置であるテレビは、ユーザーの命令を収集して生成されたインタラクション情報、本体100に設けられた入力部(図示せず)からの信号、又はリモコン170からの信号に基づいて動作する。
【0230】
このテレビは、ユーザーの命令を収集する収集モジュールとして映像収集部220及びサウンド収集部230を備え、ユーザーの命令に基づいて動作を制御するための駆動モジュール180を備え、動作実行を出力するための出力モジュールとして表示部110及びサウンド出力部140を備えている。
【0231】
ここで、駆動モジュール180は、入力部(図示せず)からの信号又はリモコン170からの信号に基づいて、表示部110及びサウンド出力部140の少なくとも一方の動作を制御する。
【0232】
すなわち、駆動モジュール180は、映像収集部220及びサウンド収集部230の少なくとも一方の収集部で収集された情報に基づいて、インタラクションモードの進入及び終了を制御し、インタラクションモード進入後にインタラクションモードを行い、表示部110及びサウンド出力部140の少なくとも一方の動作を制御する。
【0233】
このようなテレビの駆動モジュール180は、放送部181、インターフェース部182、認識部183、データベース部184、受信部185、制御部186、保存部187及び駆動部188を備えている。
【0234】
放送部181は、チューナー部181a及び信号処理部181bを備えている。
【0235】
チューナー部181aは、制御部186のチューニング制御信号に応じて対応の周波数帯域を持つ放送信号を放送局又は衛星から有線又は無線で受信してチューニングする。
【0236】
信号処理部181bは、放送信号を、映像データを持つ映像信号と、サウンドデータを持つサウンド信号と、付加データを持つ付加信号とに分離し、分離された映像データの信号及びサウンドデータの信号をそれぞれ信号処理し、付加データをGUI生成部(図示せず)に伝送する。ここで、付加データはEPG(Electronic Program Guide)を含む。
【0237】
信号処理部181bは、ネットワークインターフェース部182bから伝送された信号を、映像データを持つ映像信号と、サウンドデータを持つサウンド信号とに分離し、分離された映像信号及びサウンド信号をそれぞれ信号処理してもよい。
【0238】
インターフェース部182は、入力インターフェース部182a及びネットワークインターフェース部182bを備えている。
【0239】
入力インターフェース部182aは、収集モジュール200が接続され、収集モジュール200で収集された映像信号及びサウンド信号を受信して認識部183に伝送する。
【0240】
ネットワークインターフェース部182bは、IPアドレスの割り当てを受けてネットワーク通信を行い、ネットワークを介して外部から伝送されたデータパケットを受信して処理し、データパケットが映像、サウンドなどのマルチメディアデータである場合には保存や再生され得るように制御部186に伝送する。
【0241】
認識部183は、ユーザーの顔及び瞳孔を認識した後、認識された瞳孔の情報に基づいてユーザーの視線を認識し、ユーザーの命令を認識する。
【0242】
認識部183は、受信部185から伝送されたサウンド信号からユーザーの音声を認識し、認識された音声に対応する動作命令を認識する。
【0243】
その他の認識部183の構成は、上記の一実施例と同一であり、その説明を省略する。
【0244】
データベース部184は、上記の一実施例と同一であり、その説明を省略する。
【0245】
受信部185は、リモコン170に設けられた複数のボタン171のうちいずれかのボタン信号、及びリモコン170に設けられた第2サウンド収集部172のサウンド信号を受信する。
【0246】
受信部185は、受信したリモコンのボタン信号及びサウンド信号を認識部183及び制御部183に伝送する。
【0247】
制御部186は、信号処理部181bで信号処理された映像データが表示部110に表示されるように制御し、信号処理されたサウンドがサウンド出力部140から出力されるように制御する。
【0248】
制御部186は、リモコン170から伝達されるボタン信号に基づいてユーザー命令を判断し、判断されたユーザー命令に応じて表示部110の駆動を制御し、リモコン170からインターネット機能実行要請信号を受信すると、ネットワークインターフェース部を制御しインターネット接続されるようにし、認識領域にユーザーの視線が位置すると、収集モジュールの駆動を制御してインタラクションモードが実行されるようにする。
【0249】
インタラクションモード進入、インタラクションモード実行を制御する制御部186の構成は、上記の一実施例と同一であり、その説明を省略する。
【0250】
保存部187は、上記の一実施例と同一であり、その説明を省略する。
【0251】
駆動部188は、表示駆動部188a及びサウンド駆動部188bを備えている。ここで、表示駆動部188a及びサウンド駆動部188bは上記の一実施例と同一であり、その説明を省略する。
【0252】
図14は、さらに他の実施例に係るディスプレイ装置であるテレビの制御フローチャートである。
【0253】
まず、テレビは、電源が印加されると、映像収集部220を動作させて映像を収集し、収集された映像に基づいて顔を認識し、認識された顔に基づいてユーザーの瞳孔を認識し、瞳孔の位置に対応する視線を認識する(501)。
【0254】
次いで、テレビは、認識された視線が認識領域に位置するか否か判断し(502)、認識された視線が認識領域に位置していると判断されると、認識された視線が認識領域をあらかじめ設定された一定時間以上注視しているか否か判断し(503)、この時、認識された視線が認識領域をあらかじめ設定された一定時間以上注視していると判断されると、インタラクションモードに進入し(504)、図10の動作402と同様、インタラクションモードに進入することをユーザーが認識できるように、表示部110内の認識領域の表示情報を変更して表示する。
【0255】
以上の過程は、上記の一実施例と同一である。
【0256】
次に、テレビは、動作命令を入力してもらうための複数の認識モードを表示し(505)、ユーザーの視線の位置を確認した後、確認された視線の位置に基づいて、ユーザーにより選択された認識モードを判断する(506)。
【0257】
すなわち、テレビは、複数の認識モードボタンの位置の中から、確認された視線の位置とマッチする位置を判断することによって、ユーザーの選択した認識モードを判断する。
【0258】
この時、テレビは、ユーザーが視線の位置を確認できるように、表示部110にユーザーの視線の位置をカーソルで実時間表示する。
【0259】
続いて、テレビは、判断された認識モードを実行し(507)、認識モード実行による認識結果に基づいて動作命令を認識し、認識された動作命令に基づいて各駆動部を動作させる(508)。
【0260】
各認識モードの選択によって動作命令を認識する構成についてより具体的に説明する。
【0261】
(1)テレビは、ユーザーによりモーション認識が選択された場合に、ユーザーの取ったモーションを認識し、データベース部184に保存されたモーションの中から、認識されたモーションとマッチするモーションを検索し、検索されたモーションに対応する動作命令を認識する。
【0262】
続いて、テレビは、認識された動作命令に基づいて駆動部188を駆動させることによって、ユーザーの要求した放送又はコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求した放送又はコンテンツのサウンドがサウンド出力部140から出力されるようにする。
【0263】
(2)テレビは、ユーザーにより音声認識が選択された場合に、第1サウンド収集部230を動作させ、第1サウンド収集部230又は第2サウンド収集部172で収集されたサウンド内の音声による文章を認識し、認識された文章とマッチする文章を、データベース部184に保存された文章から検索し、検索された文章に対応する動作命令を認識する。
【0264】
次いで、テレビは、認識された動作命令に基づいて駆動部188を駆動させることによって、ユーザーの要求した放送又はコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求した放送又はコンテンツのサウンドがサウンド出力部140から出力されるようにする。
【0265】
(3)テレビは、ユーザーにより視線認識が選択された場合に、映像収集部の動作を維持させ、表示部110にポップアップメニューを表示し、映像収集部220で収集された映像を用いてユーザーの顔及び瞳孔を認識し、認識された瞳孔に基づいて視線を追跡し、追跡された視線の位置を確認することによって、ポップアップメニューのうち、ユーザーにより選択されたメニューに対応する動作を行う。
【0266】
ここで、ポップアップメニューは複数のメニューを有し、各メニューは、動作命令ボタンを有する。
【0267】
すなわち、テレビは、ポップアップメニュー内の複数の動作命令ボタンの位置の中から、ユーザーの視線の位置とマッチする位置を有するボタンを確認し、確認されたボタンに対応する動作を行う。これを、図15及び図16を参照して説明する。
【0268】
図15に示すように、表示部110に、機能変更ボタン、チャンネル/ボリューム調整ボタン、認識モード変更ボタン、画面調整ボタン及び終了ボタンを有しているポップアップメニューP2が表示された場合に、各ボタンの位置の中から、視線の位置とマッチする位置を有するボタンを判断する。ここで、機能としては、放送機能、インターネット機能、外部機器との通信機能などを含む。
【0269】
視線の位置がチャンネル/ボリューム調整ボタンの位置であれば、図16に示すように、表示部110に、ボリューム調整のためのボリュームアップ/ダウンボタンa5、チャンネル調整のためのチャンネルアップ/ダウンボタンa6、及び視線の位置を表すカーソルa4を表示する。
【0270】
続いて、テレビは、ユーザーの視線の位置とボリュームアップ/ダウンボタンa5又はチャンネルアップ/ダウンボタンa6の位置とを比較し、チャンネル又はボリュームをアップさせたりダウンさせたりする。
【0271】
なお、視線認識を用いたボタンの選択は、目の瞬き、又は視線がボタンに位置する時間に基づいて判断すればよい。
【0272】
この時、テレビは、表示部に表示されるメイン映像に視線認識のためのボタンをオーバーラップして表示する。
【0273】
次に、テレビは、表示部110の終了領域に視線が一定時間以上位置するとインタラクションモードを終了し、以降、ユーザーの視線が認識領域に再び位置すると、をユーザーの認識モード変更要求と判断し、複数の認識モードボタンを再表示する。
【0274】
さらに、テレビは、表示部110の外部に視線が一定時間以上位置するとインタラクションモードを終了させてもよい。
【符号の説明】
【0275】
100 本体
110 表示部
120 ベゼル
130,150,180 駆動モジュール
200 収集モジュール
図1
図2A
図2B
図2C
図3A
図3B
図4
図5
図6
図7
図8A
図8B
図9
図10
図11
図12
図13
図14
図15
図16