IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 三星電子株式会社の特許一覧

特許7410659ユーザを認識する電子装置及びその制御方法
<>
  • 特許-ユーザを認識する電子装置及びその制御方法 図1
  • 特許-ユーザを認識する電子装置及びその制御方法 図2
  • 特許-ユーザを認識する電子装置及びその制御方法 図3
  • 特許-ユーザを認識する電子装置及びその制御方法 図4
  • 特許-ユーザを認識する電子装置及びその制御方法 図5
  • 特許-ユーザを認識する電子装置及びその制御方法 図6
  • 特許-ユーザを認識する電子装置及びその制御方法 図7
  • 特許-ユーザを認識する電子装置及びその制御方法 図8
  • 特許-ユーザを認識する電子装置及びその制御方法 図9
  • 特許-ユーザを認識する電子装置及びその制御方法 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-26
(45)【発行日】2024-01-10
(54)【発明の名称】ユーザを認識する電子装置及びその制御方法
(51)【国際特許分類】
   G06F 21/32 20130101AFI20231227BHJP
   G06T 7/00 20170101ALI20231227BHJP
   G06F 3/01 20060101ALI20231227BHJP
   G06F 16/53 20190101ALI20231227BHJP
【FI】
G06F21/32
G06T7/00 350B
G06F3/01 510
G06F16/53
G06T7/00 660Z
【請求項の数】 13
(21)【出願番号】P 2019124577
(22)【出願日】2019-07-03
(65)【公開番号】P2020009443
(43)【公開日】2020-01-16
【審査請求日】2022-05-26
(31)【優先権主張番号】10-2018-0076875
(32)【優先日】2018-07-03
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】390019839
【氏名又は名称】三星電子株式会社
【氏名又は名称原語表記】Samsung Electronics Co.,Ltd.
【住所又は居所原語表記】129,Samsung-ro,Yeongtong-gu,Suwon-si,Gyeonggi-do,Republic of Korea
(74)【代理人】
【識別番号】110000051
【氏名又は名称】弁理士法人共生国際特許事務所
(72)【発明者】
【氏名】劉 容 周
(72)【発明者】
【氏名】金 容 ウク
(72)【発明者】
【氏名】李 東 奎
(72)【発明者】
【氏名】權 起 ヨン
(72)【発明者】
【氏名】金 智 民
(72)【発明者】
【氏名】金 鐵 貴
【審査官】金沢 史明
(56)【参考文献】
【文献】特開2009-032116(JP,A)
【文献】米国特許出願公開第2016/0210513(US,A1)
【文献】米国特許出願公開第2018/0173986(US,A1)
【文献】特開2015-078793(JP,A)
【文献】特開2016-081250(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 21/32
G06T 7/00
G06F 3/01
G06F 16/53
(57)【特許請求の範囲】
【請求項1】
電子装置であって、
通信インタフェースと、
オブジェクトの動きを感知してイベント信号を出力するDVS(dynamic vision sensor)と、
一つ以上のイメージが保存されるデータベースを含むメモリと、
少なくとも一つのプロセッサと、を備え、
前記少なくとも一つのプロセッサは、
前記DVSを介して感知されたイベント信号に基づいて、光の変化が発生した前記DVSの複数のセンシングエレメントに対応する複数のマップエレメントを含むイベントマップに時間情報を保存し、
前記イベントマップに保存された時間情報のうちから指定された時間範囲内の時間情報に基づいて、オブジェクトの形状(shape)が含まれるイメージを生成し、
外部電子装置からユーザを区別するための識別情報を受信した場合又は指定された空間でイベントが感知された場合、生成されたユーザの形状を含む複数のイメージを前記データベースに保存し、
前記ユーザの形状を確認するためにイメージの特徴を抽出し、前記抽出された特徴に基づいて生成されたイメージの提案領域を決定し、前記決定された提案領域のうちのユーザの形状が含まれる関心領域(region of interest)(ROI)を精製(refine)し、
前記データベースに保存された前記複数のイメージのそれぞれから、ユーザを認識する分類モデルを用いて前記関心領域に含まれる前記ユーザの形状を確認し、
前記確認されたユーザの形状の特徴を抽出し、前記抽出された特徴に基づいてユーザを認識するための形状情報を生成することを特徴とする電子装置。
【請求項2】
前記少なくとも一つのプロセッサは、
前記通信インタフェースを介して外部電子装置からユーザを区別するための識別情報を受信し、
前記識別情報を受信した時から指定された時間内に生成された前記複数のイメージを前記データベースに保存することを特徴とする請求項1に記載の電子装置。
【請求項3】
前記少なくとも一つのプロセッサは、前記複数のイメージのそれぞれに一つの前記ユーザの形状のみが含まれる場合、前記複数のイメージを前記データベースに保存することを特徴とする請求項に記載の電子装置。
【請求項4】
前記外部電子装置は、RFIC(radio frequency integrated circuit)を含むキー、ユーザ端末、又はビーコン(beacon)から前記識別情報を受信し、前記受信された識別情報に対応して指定された動作を行うことを特徴とする請求項に記載の電子装置。
【請求項5】
前記指定された動作は、セキュリティ(security)設定又は解除する動作であることを特徴とする請求項に記載の電子装置。
【請求項6】
前記少なくとも一つのプロセッサは、
前記DVSを介して指定された空間で感知されたイベントに基づいて前記複数のイメージを生成し、
前記通信インタフェースを介して前記複数のイメージをユーザ端末に送信し、
前記通信インタフェースを介して前記ユーザ端末から前記複数のイメージに前記ユーザの形状が含まれるか否かを確認するためのフィードバック情報を受信し、
前記フィードバック情報に基づいて前記複数のイメージを前記データベースに保存することを特徴とする請求項1に記載の電子装置。
【請求項7】
前記少なくとも一つのプロセッサは、前記複数のイメージに指定された回数以上に前記ユーザの形状が含まれる場合、前記複数のイメージを前記ユーザ端末に送信することを特徴とする請求項に記載の電子装置。
【請求項8】
前記少なくとも一つのプロセッサは、前記生成された形状情報に基づいて前記DVSを介して生成されたイメージに含まれる前記ユーザの形状を確認することにより、ユーザを認識することを特徴とする請求項1に記載の電子装置。
【請求項9】
前記少なくとも一つのプロセッサは、認識されたユーザに対応するサービスを提供することを特徴とする請求項1に記載の電子装置。
【請求項10】
前記少なくとも一つのプロセッサは、前記認識されたユーザに応じて少なくとも一つのIoT(internet of thing)装置を制御することを特徴とする請求項に記載の電子装置。
【請求項11】
前記少なくとも一つのプロセッサは、外部サーバを介して前記複数のイメージを処理して前記形状情報を獲得することを特徴とする請求項1に記載の電子装置。
【請求項12】
電子装置の制御方法であって、
オブジェクトの動きを感知してイベント信号を出力するDVS(dynamic vision sensor)を介して感知されたイベント信号に基づいて、光の変化が発生した前記DVSの複数のセンシングエレメントに対応する複数のマップエレメントを含むイベントマップに時間情報を保存する段階と、
前記イベントマップに保存された時間情報のうちから指定された時間範囲内の時間情報に基づいて、オブジェクトの形状(shape)が含まれるイメージを生成する段階と、
外部電子装置からユーザを区別するための識別情報を受信した場合又は指定された空間でイベントが感知された場合、生成されたユーザの形状を含む複数のイメージをデータベースに保存する段階と、
前記ユーザの形状を確認するためにイメージの特徴を抽出し、前記抽出された特徴に基づいて生成されたイメージの提案領域を決定し、前記決定された提案領域のうちのユーザの形状が含まれる関心領域(region of interest)(ROI)を精製(refine)する段階と、
前記データベースに保存された前記複数のイメージのそれぞれから、ユーザを認識する分類モデルを用いて前記関心領域に含まれる前記ユーザの形状を確認する段階と、
前記確認されたユーザの形状の特徴を抽出し、前記抽出された特徴に基づいてユーザを認識するための形状情報を生成する段階と、を有することを特徴とする方法。
【請求項13】
通信インタフェースを介して外部電子装置からユーザを区別するための識別情報を受信する段階を更に含み、
前記複数のイメージをデータベースに保存する段階は、前記識別情報を受信した時から指定された時間内に生成された前記複数のイメージを前記データベースに保存する段階を含むことを特徴とする請求項12に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザ認識技術に関し、より詳細には、ユーザを認識する電子装置及びその制御方法に関する。
【背景技術】
【0002】
ユーザ認識技術は、登録されたユーザ情報を用いてユーザを認識する技術であって、セキュリティが必要な監視及びアクセス制御システムやユーザにカスタマイズされたサービスを提供するためのスマート装置など、広範囲に使用されている技術である。ユーザ認識装置は、身分証、キー、スマートカードなどの装置を介してユーザを認識するか、或いは指紋、虹彩などを用いた生体認識を介してユーザを認識することができる。
【0003】
イメージベースのユーザ認識装置は、イメージに含まれるユーザの顔、手、動作などの情報を獲得し、獲得された情報を用いてユーザを認識するために撮影されたイメージ上のユーザを認識することができる。
【0004】
イメージベースのユーザ認識装置は、フレームベースのビジョンセンサ(frame-based vision sensor)を介して獲得された赤色、緑色、及び青色(RGB)のイメージを用いてユーザを認識することができる。ユーザ認識装置は、ユーザ認識のためにRGBイメージの全体領域又は特定領域に含まれる複数のレイヤの特徴を抽出する。RGBイメージを用いてユーザを認識する場合、ユーザの顔、体などの身体の特徴が抽出されることにより、ユーザのプライバシー(privacy)が侵害される虞がある。プライバシー問題は、正確な認識のためにユーザが含まれるRGBイメージをサーバに転送する場合に更に問題となり得る。一方、ユーザ認識装置は、イベントベースのビジョンセンサ(event-based vision sensor)を介して獲得されたオブジェクト(object)の形状(shape)(又は、輪郭線)のイメージを用いてユーザを認識する場合、プライバシー問題は解決され得るが、ユーザを正確に認識することは難しい場合がある。
【先行技術文献】
【特許文献】
【0005】
【文献】国際公開第2018/016189号
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、オブジェクトの形状が含まれるイメージを生成し、生成されたイメージに含まれるユーザの形状を学習してユーザを正確に認識することができる電子装置及びその制御方法を提供することにある。
【課題を解決するための手段】
【0007】
上記目的を達成するためになされた本発明の一態様による電子装置は、通信インタフェースと、DVS(dynamic vision sensor)と、一つ以上のイメージが保存されるデータベースを含むメモリと、少なくとも一つのプロセッサと、を備え、前記少なくとも一つのプロセッサは、前記DVSを介して感知されたイベントに基づいてオブジェクトの形状(shape)が含まれるイメージを生成し、指定された条件で生成されたユーザの形状を含む複数のイメージを前記データベースに保存し、前記データベースに保存された前記複数のイメージのそれぞれに含まれる前記ユーザの形状を確認し、前記確認されたユーザの形状に基づいてユーザを認識するための形状情報を生成する。
【0008】
上記目的を達成するためになされた本発明の一態様による電子装置の制御方法は、DVS(dynamic vision sensor)を介してオブジェクトの形状(shape)が含まれるイメージを生成する段階と、指定された条件で生成されたユーザの形状を含む複数のイメージをデータベースに保存する段階と、前記データベースに保存された前記複数のイメージのそれぞれに含まれる前記ユーザの形状を確認する段階と、前記確認されたユーザの形状に基づいてユーザを認識するための形状情報を生成する段階と、を有する。
【発明の効果】
【0009】
本発明によれば、ユーザ認識装置は、オブジェクトの形状のみが含まれるイメージを用いて指定されたユーザの形状を学習し、学習された情報に基づいて指定されたユーザを認識するための形状情報を生成し、生成された形状情報に基づいて指定されたユーザを認識することにより、プライバシーに対する問題がなく指定されたユーザを正確に認識することができる。
【図面の簡単な説明】
【0010】
図1】多様な実施例によるユーザ認識システムを示した図である。
図2】多様な実施例によるユーザ認識装置の構成を示したブロック図である。
図3】多様な実施例によるユーザ認識装置のユーザ認識方法を示したフローチャートである。
図4】一実施例によるユーザ認識装置が外部装置から受信されたユーザの識別情報を用いてユーザを認識することを示した図である。
図5】一実施例による外部装置から受信されたユーザの識別情報を用いてイメージに含まれるユーザの形状を学習する方法を示したフローチャートである。
図6】一実施例によるユーザ認識装置が指定された空間で感知されたイベントに基づいてユーザを認識することを示した図である。
図7】一実施例によるフィードバック情報を受信するためにユーザ認識装置から受信されたイメージを表示したユーザ端末を示した図である。
図8】一実施例による指定された空間で感知されたイベントに基づいてユーザの形状を学習する方法を示したフローチャートである。
図9】一実施例によるユーザ認識装置が認識されたユーザに応じてIoT(internet of thing)を制御することを示した図である。
図10】多様な実施例によるネットワーク環境内の電子装置のブロック図を示す。
【発明を実施するための形態】
【0011】
以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。しかし、これは、本発明を特定の実施形態に限定しようとするものではなく、本発明の実施形態の多様な変更(modification)、均等物(equivalent)、及び/又は代替物(alternative)を含むものとして理解すべきである。
【0012】
図面の説明に関連し、同一又は類似の構成要素に対しては、同一又は類似の参照符号を使用する。
【0013】
図1は、多様な実施例によるユーザ認識システムを示した図である。
【0014】
図1を参照すると、ユーザ認識装置(又は、電子装置)100は、指定された場所(例:自宅)10でユーザ1を認識し、認識されたユーザに応じて指定されたサービスを提供することができる。
【0015】
ユーザ認識装置100はビジョンセンサ(vision sensor)を介してユーザ1を認識することができる。ユーザ認識装置100は、ビジョンセンサを介してユーザ1を感知し、感知されたユーザ1が含まれるイメージ3を生成することができる。ユーザ認識装置100は生成されたイメージを用いてユーザ1を認識することができる。
【0016】
ユーザ認識装置100は、ユーザを認識した場合、認識されたユーザに対応されるサービスを提供することができる。例えば、ユーザ認識装置100は、認識されたユーザが設定した状態を有するようにIoT装置200を制御するか、又は指定された機能を行うようにIoT装置200を制御する。IoT装置200は、例えばユーザ認識装置100が配置された場所(例:自宅)10に設置された装置である。
【0017】
ユーザ認識装置100はクラウドサーバ20を介して指定されたサービスを提供することができる。例えば、ユーザ認識装置100はクラウドサーバ20(例:IoTクラウドサーバ)を介してIoT装置200を制御する。ユーザ認識装置100はIoT装置200を制御するための情報(又は、制御情報)をクラウドサーバ20に送信する。制御情報は、例えば認識されたユーザに対応する状態情報又は動作情報を含む。クラウドサーバ20は、制御情報を受信し、受信された制御情報によるコマンドをIoT装置200に送信する。
【0018】
ユーザ認識装置100はビジョンセンサを含む多様な電子装置で具現され得る。例えば、ユーザ認識装置100は、ビジョンセンサを含むスマートフォン、タブレットPC、デスクトップコンピュータ、TV、ウェアラブル装置などである。ユーザ認識装置100は、セキュリティシステム、又はスマートホームシステムに含まれる。
【0019】
ユーザ認識装置100は、フレームベースのビジョンセンサ(frame-based vision sensor)を介して獲得されたRGBイメージを用いてユーザ1を認識する場合、ユーザ1を正確に認識することができるが、ユーザ1の顔、体などの身体の特徴が抽出されることにより、ユーザ1のプライバシー(privacy)が侵害される虞がある。プライバシー問題は、ユーザが含まれるRGBイメージをサーバに転送する場合に更に問題となり得る。また、ユーザ認識装置100は、イベントベースのビジョンセンサ(event-based vision sensor)を介して獲得されたオブジェクト(object)の形状(shape)(又は、輪郭線)のイメージを用いてユーザ1を認識する場合、プライバシー問題は解決され得るが、ユーザを正確に認識することは難しい場合がある。
【0020】
本発明の多様な実施例によるユーザ認識装置100は、オブジェクトの形状が含まれるイメージを生成し、生成されたイメージに含まれるユーザの形状を学習してユーザを正確に認識することができる。
【0021】
図2は、多様な実施例によるユーザ認識装置の構成を示したブロック図である。
【0022】
図2を参照すると、ユーザ認識装置100は、通信インタフェース110(例:トランシーバ(transceiver))、メモリ120、DVS(dynamic vision sensor)モジュール130、及びプロセッサ(又は、少なくとも一つのプロセッサ)140を含む。
【0023】
通信インタフェース110は外部装置に連結されてデータを送信又は受信することができる。例えば、通信インタフェース110は、クラウドサーバ(例:図1のクラウドサーバ20)に連結されてデータを受信する。他の例を挙げると、通信インタフェース110はユーザ端末に連結されてデータを送信又は受信する。通信インタフェース110は無線インタフェース及び有線インタフェースのうちの少なくとも一つを含み得る。無線インタフェースは、例えば、ブルートゥース(登録商標)(bluetooth(登録商標))、NFC(near field communication)、Wi-Fi(wireless-fidelity)などを含む。有線インタフェースは、LAN(local area network)、WAN(wide area network)、電力線通信、POTS(plain old telephone service)を含む。
【0024】
メモリ120はデータを保存する少なくとも一つのデータベースを含み得る。例えば、メモリ120は、ユーザ認識装置100で生成されたイメージを保存するデータベースを含む。データベースは、例えば指定されたユーザの形状を学習するためのイメージが保存されるデータベースである。メモリ120はデータを保存するための不揮発性メモリを含み得る。例えば、メモリ120は、ROM(read-only memory)、フラッシュメモリ(flash memory)、HDD(hard disk drive)などを含む。
【0025】
DVSモジュール130は発生したイベントに基づいてイベント信号(event signal)を出力することができる。例えば、DVSモジュール130はオブジェクト(例:ユーザ)の動きを感知してイベント信号を出力する。DVSモジュール130はレンズ131及びDVS132を含む。
【0026】
レンズ131はオブジェクトにより反射された光をDVS132に伝達する。例えば、レンズ131は、オブジェクトにより反射された光をユーザ認識装置100の内部に入射させてDVS132に伝達する。
【0027】
DVS132はレンズ131を介して入射された光を感知してイベント信号を出力することができる。DVS132は複数のセンシングエレメントを含み得る。複数のセンシングエレメントのそれぞれは入射された光を感知してイベント信号を出力することができる。DVS132は光の変化がある部分のセンシングエレメントからイベント信号を出力することができる。例えば、DVS132の複数のセンシングエレメントのうち、光の強さが増加したセンシングエレメントはオンイベント信号(on event signal)を出力し、光の強さが減少したセンシングエレメントはオフイベント信号(off event signal)を出力する。DVS132を介して感知された光の変化はオブジェクトの動きにより発生する。これにより、DVS132はオブジェクトの動きを感知してイベント信号を出力することができる。
【0028】
プロセッサ140は、DVSモジュール130から出力されたイベント信号を受信し、受信されたイベント信号に基づいてイメージを出力することができる。
【0029】
プロセッサ140は、受信されたイベント信号に基づいて光の変化が発生した時間情報をイベントマップに保存することができる。イベントマップは、例えばDVS132の複数のセンシングエレメントに対応する複数のマップエレメントを含む。プロセッサ140はイベント信号に基づいて光の変化が発生したエレメントに対応するマップエレメントに時間情報を保存することができる。プロセッサ140は、最近光の変化が発生した時間情報をイベントマップ(例:2次元イベントマップ)に保存することができる。また、プロセッサ140は、最近光の変化が発生した時間情報だけでなく、過去に光の変化が発生した時間情報をイベントマップ(例:3次元イベントマップ)に保存することができる。
【0030】
プロセッサ140はイベントマップに基づいてイメージを生成することができる。例えば、プロセッサ140はイベントマップに保存された時間情報に基づいてイメージを生成する。プロセッサ140は、時間情報が保存されたマップのエレメントに対応するピクセルに指定された値を表示してイメージを生成することができる。プロセッサ140は、イベントマップに保存された時間情報のうち、指定された時間範囲内の時間情報に基づいてイメージを生成することができる。例えば、プロセッサ140は現在から指定された時間内の時間情報に基づいてイメージを生成する。
【0031】
プロセッサ140は生成されたイメージをメモリ120のデータベースに保存することができる。例えば、プロセッサ140は、指定されたユーザ(又は、特定のユーザ)の形状を学習するために、指定された条件で生成されたイメージをデータベースに保存する。
【0032】
プロセッサ140は、通信インタフェース110を介して外部電子装置からユーザを区別するための識別情報を受信した時に生成されたイメージをデータベースに保存することができる。外部電子装置は、例えば、指定された動作を行うためにRFIC(radio frequency integrated circuit)を含むキー(key)、ユーザ端末、又はビーコン(beacon)から識別情報を受信する。指定された動作はセキュリティ(security)の設定又は解除する動作である。これに対する詳細な内容は図4で説明する。
【0033】
他の実施例によると、プロセッサ140は指定された空間で感知されたイベントに基づいて生成されたイメージをデータベースに保存することができる。プロセッサ140はユーザのフィードバック情報に基づいて生成されたイメージをデータベースに保存することができる。これに対する詳細な内容は図6で説明する。
【0034】
プロセッサ140は、メモリ120のデータベースに保存された複数のイメージのそれぞれに含まれる指定されたユーザの形状を学習することができる。例えば、プロセッサ140は、データベースに保存された複数のイメージのそれぞれに含まれる指定されたユーザの形状を確認し、確認された形状に基づいて指定されたユーザを認識するための形状情報を生成する。
【0035】
プロセッサ140はイメージに含まれるユーザの形状を確認することができる。例えば、プロセッサ140は、人工領域コンボリューショナル神経網(regions convolutional neural network)(RCNN)、速い領域コンボリューショナル神経網(fast regions convolutional neural network)(FRCNN)などの方法を用いてユーザの形状を確認する。
【0036】
プロセッサ140はユーザの形状を確認するためにイメージの特徴を抽出することができる。プロセッサ140は、抽出された特徴に基づいて生成されたイメージの提案領域を決定し、決定された提案領域のうちのユーザの形状が含まれる関心領域(region of interest)(ROI)を精製(refine)することができる。プロセッサ140はユーザを認識する分類モデルを用いて関心領域に含まれるユーザの形状を確認することができる。例えば、プロセッサ140はサポートベクターマシン(support vector machine)(SVM)の分類機を用いてユーザの形状を確認する。プロセッサ140は複数のイメージに含まれるユーザの形状を追跡(tracking)することができる。
【0037】
プロセッサ140は確認されたユーザの形状情報に基づいて指定されたユーザを認識するための形状情報を生成することができる。例えば、プロセッサ140は、確認された形状の特徴を抽出し、抽出された特徴に基づいて指定されたユーザを認識するための形状情報を生成する。
【0038】
プロセッサ140は生成された形状情報を用いて指定されたユーザを認識することができる。例えば、プロセッサ140は生成された形状情報を用いてイメージに含まれたる指定されたユーザを認識する。イメージは、例えばDVSモジュール130を介して感知されたイベントに基づいて生成されたイメージである。
【0039】
他の実施例によると、プロセッサ140はクラウドサーバ(又は、外部サーバ)を介して指定されたユーザを認識するための形状情報を生成することができる。プロセッサ140は、通信インタフェース110を介してクラウドサーバに生成されたイメージを送信し、クラウドサーバから生成された形状情報を受信することができる。クラウドサーバは、例えばプロセッサ140が形状情報を生成するための動作を同様に行う。クラウドサーバは、指定された条件で生成されたイメージに含まれるユーザの形状を学習することにより、ユーザを認識するための形状情報を生成することができる。ユーザ認識装置100は、ユーザの形状を学習するのに限界があるため、クラウドサーバを介して更に正確な形状情報を生成することができる。
【0040】
プロセッサ140は認識されたユーザに対応するサービスを提供することができる。例えば、プロセッサ140は認識されたユーザに応じて少なくとも一つのIoT装置(例:図1のIoT装置200)を制御する。例えば、プロセッサ140は、認識されたユーザに応じて少なくとも一つのIoT装置が指定された状態を有するように制御するか、又は指定された動作を行うように制御する。プロセッサ140はクラウドサーバ(例:図1のクラウドサーバ20)を介して少なくとも一つのIoT装置を制御することができる。
【0041】
これにより、ユーザ認識装置100は、オブジェクトの形状のみが含まれるイメージを用いて指定されたユーザの形状を学習して指定されたユーザを認識するための形状情報を生成し、生成された形状情報に基づいて指定されたユーザを認識することにより、プライバシーに対する問題なく指定されたユーザを正確に認識することができる。
【0042】
図3は、多様な実施例によるユーザ認識装置のユーザ認識方法を示したフローチャートである。
【0043】
図3を参照すると、ユーザ認識装置100は、DVSモジュール130を介して感知されたイベントに基づいて生成されたイメージを用いて指定されたユーザを認識することができる。
【0044】
310段階において、ユーザ認識装置100(例:プロセッサ140)はDVSモジュール130からイベント信号を受信する。DVSモジュール130はオブジェクトの動きによる光の変化を感知してイベント信号を生成する。
【0045】
320段階において、ユーザ認識装置100は受信されたイベント信号に基づいて複数のイメージを生成する。複数のイメージは、例えば動くオブジェクトの形状を含む。
【0046】
330段階において、ユーザ認識装置100は指定された条件で生成されたイメージをデータベースに保存する。指定された条件は、例えば外部電子装置(例:セキュリティ設定装置)からユーザを区別するための識別情報を受信した場合であるか、又は指定された空間でイベントが感知された場合である。
【0047】
340段階において、ユーザ認識装置100は複数のイメージのそれぞれに含まれる指定されたユーザの形状を確認する。例えば、ユーザ認識装置100は、複数のイメージの特徴を抽出し、抽出された特徴を基に決定された関心領域(ROI)に含まれるユーザの形状を確認する。
【0048】
350段階において、ユーザ認識装置100は確認された形状に基づいて指定されたユーザを認識するための形状情報を生成する。ユーザ認識装置100は、複数のイメージに含まれる指定されたユーザの形状を学習することにより、指定されたユーザを認識するための形状情報を生成することができる。
【0049】
360段階において、ユーザ認識装置100は形状情報を用いて指定されたユーザを認識する。例えば、ユーザ認識装置100は生成された形状情報を用いてイメージに含まれる指定されたユーザを認識する。イメージは、例えばDVSモジュール130を介して感知されたイベントに基づいて生成されたイメージである。
【0050】
370段階において、ユーザ認識装置100は認識されたユーザに応じて少なくとも一つのIoT装置を制御する。ユーザ認識装置100は、例えばクラウドサーバを介して少なくとも一つのIoT装置を制御する。
【0051】
図4は、一実施例によるユーザ認識装置が外部装置から受信されたユーザの識別情報を用いてユーザを認識することを示した図である。
【0052】
図4を参照すると、ユーザ認識装置100は、外部電子装置30から受信されたユーザ1の識別情報(例:ID(identity))を用いて指定されたユーザ1の形状を学習することができる。
【0053】
外部電子装置30は、指定された動作を行うためにユーザ識別情報を受信することができる。指定された動作は、例えば指定された場所(例:自宅)10のセキュリティを設定又は解除するための動作である。外部電子装置30はセキュリティシステムに含まれるユーザ認識装置である。外部電子装置30は、RFIC(radio frequency integrated circuit)を含むキー、ユーザ端末、又はビーコン(beacon)などからユーザ1の識別情報を受信することができる。外部電子装置30は、例えばユーザ1のタギング(tagging)動作により識別情報を受信する。
【0054】
ユーザ認識装置100は外部電子装置30からユーザ1を区別するための識別情報を受信することができる。外部電子装置30は、例えば指定された動作(例:セキュリティ設定又は解除)を行うためのユーザ入力を受信すると、ユーザ入力に含まれる識別情報をユーザ認識装置100に送信する。
【0055】
ユーザ認識装置100は、外部電子装置30から識別情報を受信した時に生成されたイメージ3をデータベースに保存することができる。例えば、ユーザ認識装置100は識別情報を受信した時から指定された時間内に生成された複数のイメージ3をデータベースに保存する。複数のイメージ3は、例えばDVSモジュール(例:図2のDVSモジュール130)を介して感知されたイベントに基づいて生成される。
【0056】
ユーザ認識装置100は受信された識別情報に応じて生成されたイメージ3を区分して保存することができる。即ち、ユーザ認識装置100は識別情報に対応するように生成されたイメージ3を保存することができる。これにより、ユーザ認識装置100は指定された場所で認識される複数のユーザのそれぞれを区別して学習することができる。
【0057】
ユーザ認識装置100は、生成されたイメージ3に一つのユーザの形状のみが含まれる場合、生成されたイメージ3をデータベースに保存することができる。ユーザ認識装置100は、生成されたイメージ3に複数のユーザの形状が含まれる場合、受信された識別情報に対応するユーザの形状を区別することが難しい場合があるため、一つのユーザの形状のみが含まれるイメージをデータベースに保存する。
【0058】
これにより、ユーザ認識装置100は指定されたユーザ(又は、特定のユーザ)の形状が含まれるイメージ3をデータベースに保存することができる。
【0059】
ユーザ認識装置100はデータベースに保存された複数のイメージのそれぞれに含まれる指定されたユーザ1の形状を学習することができる。ユーザ認識装置100は学習情報(又は、データ)に基づいて指定されたユーザ1を認識することができる形状情報を生成することができる。これにより、ユーザ認識装置100は生成された形状情報を用いて指定されたユーザ1を高い確率で認識することができる。
【0060】
図5は、一実施例による外部装置から受信されたユーザの識別情報を用いてイメージに含まれるユーザの形状を学習する方法を示したフローチャートである。
【0061】
510段階において、ユーザ認識装置100は外部電子装置30からユーザ1の識別情報を受信する。
【0062】
520段階において、ユーザ認識装置100は識別情報を受信した時から指定された時間内に複数のイメージ3を生成する。
【0063】
530段階において、ユーザ認識装置100は生成された複数のイメージ3のそれぞれが一つのユーザの形状を含むか否かを確認する。ユーザ認識装置100は複数のイメージ3のそれぞれに二つ以上のユーザの形状が含まれる場合(No)、ユーザ1の識別情報を受信するために待機する(510段階)。
【0064】
540段階において、ユーザ認識装置100は、複数のイメージ3のそれぞれに一つのユーザの形状が含まれる場合(Yes)、複数のイメージ3をデータベースに保存する。
【0065】
これにより、ユーザ認識装置100は、データベースに保存されたイメージに含まれるユーザの形状を学習して指定されたユーザ1を認識するための形状情報を生成することができる。ユーザ認識装置100は形状情報を用いて指定されたユーザ1を認識することができる。
【0066】
図6は、一実施例によるユーザ認識装置が指定された空間で感知されたイベントに基づいてユーザを認識することを示した図である。
【0067】
図6を参照すると、ユーザ認識装置100は、指定された空間で感知されたイベントに基づいてイメージ3を生成し、生成されたイメージ3を用いて指定されたユーザの形状を学習することができる。
【0068】
ユーザ認識装置100は指定された空間(又は、特定の空間)で発生するイベントを感知することができる。指定された空間は、例えば指定されたユーザ(又は特定のユーザ)が出現する頻度の高い空間で発生したイベントを感知する。例えば、ユーザ認識装置100は、自宅40の第2部屋40aで発生するイベントを感知する。自宅40の第2部屋40aは指定されたユーザの個人空間に該当し得る。自宅40の他の空間(例:居間、台所、又は車庫)は、複数のユーザの共有空間に該当し得るため、ユーザ認識装置100が指定されたユーザの形状のみが含まれるイメージを生成することが難い場合がある。
【0069】
ユーザ認識装置100は指定された空間で発生したイベントに基づいて複数のイメージ3を生成することができる。
【0070】
ユーザ認識装置100は生成された複数のイメージ3をユーザ端末5に送信することができる。例えば、ユーザ認識装置100は、複数のイメージ3に指定された回数以上にユーザ1の形状が含まれる場合、複数のイメージ3をユーザ端末5に送信する。
【0071】
ユーザ端末5は、受信された複数のイメージ3に指定されたユーザ(例:ユーザ端末5のユーザ)1の形状が含まれるか否かを確認するためのフィードバックを受信することができる。ユーザ端末5は受信されたフィードバックに対する情報(又は、フィードバック情報)をユーザ認識装置100に送信することができる。
【0072】
ユーザ認識装置100は受信されたフィードバック情報に基づいて複数のイメージ3をデータベースに保存することができる。例えば、ユーザ認識装置100は、複数のイメージ3が指定されたユーザ(例:ユーザ端末5のユーザ)1を含んでいることを確認したフィードバック情報を受信した場合、複数のイメージ3をデータベースに保存する。
【0073】
これにより、ユーザ認識装置100は指定されたユーザ(又は、特定のユーザ)の形状が含まれるイメージ3をデータベースに保存することができる。
【0074】
ユーザ認識装置100はデータベースに保存された複数のイメージに含まれる指定されたユーザ1の形状を学習することができる。ユーザ認識装置100は、学習された情報(又は、データ)に基づいて指定されたユーザ1を認識することができる形状情報を生成することができる。これにより、ユーザ認識装置100は生成された形状情報を用いて指定されたユーザ1を高い確率で認識することができる。
【0075】
図7は、一実施例によるフィードバック情報を受信するためにユーザ認識装置から受信されたイメージを表示したユーザ端末を示した図である。
【0076】
図7を参照すると、ユーザ端末5は、ユーザ認識装置100から受信された複数のイメージ711をユーザに提供し、複数のイメージ711にユーザの形状が含まれるか否かを確認するフィードバック情報を受信することができる。
【0077】
ユーザ端末5はユーザのフィードバック入力を受信するためのアプリケーションプログラムを実行することができる。ユーザ端末5はユーザ入力を受信するためのUI(user interface)710をディスプレイ700に表示することができる。ユーザ端末5は、UI710を介して受信された複数のイメージ711を表示し、オブジェクト(例:仮想のボタン)713を介してユーザのフィードバック情報を受信することができる。
【0078】
図8は、一実施例による指定された空間で感知されたイベントに基づいてユーザの形状を学習する方法を示したフローチャートである。
【0079】
810段階において、ユーザ認識装置100は指定された空間で発生したイベントを感知する。
【0080】
820段階において、ユーザ認識装置100は指定された空間で感知されたイベントに基づいて複数のイメージ3を生成する。
【0081】
830段階において、ユーザ認識装置100は指定された回数以上に複数のイメージ3にユーザの形状が含まれるか否か確認する。ユーザ認識装置100は、複数のイメージ3に指定された回数未満にユーザの形状が含まれる場合(No)、ユーザ1の指定された空間に発生したイベントを感知するために待機する(810段階)。
【0082】
840段階において、ユーザ認識装置100は指定された回数以上に複数のイメージ3にユーザの形状が含まれる場合(Yes)、ユーザ端末5に複数のイメージ3を送信する。
【0083】
850段階において、ユーザ認識装置100はユーザ端末5から複数のイメージ3に指定されたユーザ1の形状が含まれるか否かを確認するフィードバック情報を受信する。指定されたユーザ1は、例えばユーザ端末5のユーザである。
【0084】
860段階において、ユーザ認識装置100は受信されたフィードバック情報に基づいて複数のイメージ3をデータベースに保存する。
【0085】
これにより、ユーザ認識装置100は、データベースに保存されたイメージに含まれるユーザ1の形状を学習して指定されたユーザ1を認識するための形状情報を生成することができる。ユーザ認識装置100は形状情報を用いて指定されたユーザ1を認識することができる。
【0086】
図9は、一実施例によるユーザ認識装置が認識されたユーザに応じてIoT(internet of thing)を制御することを示した図である。
【0087】
図9を参照すると、ユーザ認識装置100は、指定されたグループ内のユーザ1を認識した時、認識されたユーザ1に応じてそれぞれ異なるようにIoT装置200を制御することができる。
【0088】
ユーザ認識装置100は、指定されたグループ内のユーザ1別に異なってIoT装置200を制御するように設定され得る。指定されたグループは、例えば指定された空間で認識されるユーザのグループ(例:家族(ユーザA~D))である。ユーザ1別に異なるようにIoT装置200を制御するために、ユーザ定義ルール(user defined rule)がユーザ認識装置100(例:メモリ120)に保存され得る。ユーザ定義ルールは、例えば、IoT装置200の電源(ON/OFF)を制御することだけでなく、指定された状態(例:設定温度、再生音楽ジャンルなど)で動作するための設定値を保存する。
【0089】
ユーザ1は、ユーザ端末30を介してユーザ定義ルールをユーザ認識装置100に保存することができる。ユーザ端末30は、例えば、IoT装置200の状態を設定するためのUI(user interface)をディスプレイに表示し、IoT装置200を制御するためのルールを設定するためのユーザ入力(例:タッチ入力)を受信する。
【0090】
ユーザ認識装置100はユーザ1別に定義されたルール(user defined rule)に従って認識されたユーザ別にIoT装置200を制御することができる。例えば、ユーザ認識装置100は、ユーザAを認識した時、第1ユーザ定義ルールに従ってエアコンを24℃に設定された状態で動作するようにし、指定された空間の電灯をオフ(OFF)させ、スピーカをジャズ(JAZZ)音楽を再生するように制御する。ユーザ認識装置100は、ユーザBを認識した時、第2ユーザ定義ルールに従ってエアコンをオフ(OFF)させ、指定された空間の電灯をオン(ON)させ、スピーカをクラシック(CLASSIC)音楽を再生するように制御する。ユーザ認識装置100は、ユーザCを認識した時、第3ユーザ定義ルールに従ってエアコンを22℃に設定された状態で動作するようにし、指定された空間の電灯をオン(ON)させ、スピーカをオフ(OFF)させるように制御する。また、ユーザ認識装置100は、ユーザDを認識した時、第4ユーザ定義ルールに従ってエアコンをオフ(OFF)させ、指定された空間の電灯をオフ(OFF)させ、スピーカをランダム(RANDOM)音楽を再生するように制御する。
【0091】
これにより、ユーザ認識装置100は、指定されたグループ内のユーザ1に応じてIoT装置200を制御することにより、ユーザの嗜好に合わせたサービスを提供することができる。
【0092】
図10は、多様な実施例によるネットワーク環境1000内の電子装置1001のブロック図である。
【0093】
本明細書に開示する多様な実施例による電子装置は、多様な形態の装置となり得る。電子装置は、例えば、携帯用通信装置(例:スマートフォン)、コンピュータ装置(例:PDA(personal digital assistant)、タブレットPC(tablet PC)、ラップトップPC(デスクトップPC、ワークステーション、又はサーバ)、携帯用マルチメディア装置(例:電子ブックリーダ機又はMP3プレーヤ)、携帯用医療機器(例:心拍、血糖、血圧、又は体温測定器)、カメラ、又はウェアラブル装置のうちの少なくとも一つを含む。ウェアラブル装置は、アクセサリ型(例:時計、指輪、ブレスレット、アンクレット、ネックレス、眼鏡、コンタクトレンズ、又は頭部装着型装置(head-mounted-device(HMD))、織物又は衣類一体型(例:電子衣服)、身体付着型(例:スキンパッド又は入れ墨)、又は生体移植型回路のうちの少なくとも一つを含む。ある実施例において、電子装置は、例えば、テレビ、DVD(digital video disk)プレーヤ、オーディオ装置、オーディオアクセサリ装置(例:スピーカ、ヘッドホン、又はヘッドセット)、冷蔵庫、エアコン、掃除機、オーブン、電子レンジ、洗濯機、空気清浄機、セットトップボックス、ホームオートメーションコントロールパネル、セキュリティコントロールパネル、ゲームコンソール、電子辞書、電子キー、カムコーダ、又は電子額縁のうちの少なくとも一つを含む。
【0094】
他の実施例において、電子装置は、ナビゲーション装置、衛星航法システム(GNSS(global navigation satellite system))、EDR(event data recorder)(例:車両/船舶/飛行機用ブラックボックス(black box))、自動車インフォテインメント(例:車両用ヘッド-アップディスプレイ)、産業用又は家庭用ロボット、ドロン(drone)、ATM(automated teller machine)、POS(point of sales)機器、計測機器(例:水道、電気、又はガス計測機器)、又はモノのインターネット装置(例:電球、スプリングクラ装置、火災報知機、温度調節機、又は街路灯)のうちの少なくとも一つを含む。本明細書の実施例による電子装置は上述の機器に限定されず、例えば、個人の生体情報(例:心拍又は血糖)の測定機能が具備されたスマートフォンの場合のように、複数の装置の機能を複合的に提供することができる。本明細書において、ユーザという用語は、電子装置を使用する者又は電子装置を使用する装置(例:人工知能電子装置)を指す。
【0095】
図10を参照すると、ネットワーク環境1000において、電子装置1001(例:図1のユーザ認識装置100)は、近距離無線通信1098を介して電子装置1002と通信するか、又はネットワーク1099を介して電子装置1004又はサーバ1008と通信することができる。電子装置1001はサーバ1008を介して電子装置1004と通信することができる。
【0096】
電子装置1001は、バス、プロセッサ1020(例:図2のプロセッサ140)、メモリ1030(例:図2のメモリ120)、入力装置1050(例:マイク又はマウス)、表示装置1060、オーディオモジュール1070、センサモジュール1076(例:図2のDVSモジュール130)、インタフェース1077、ハプティックモジュール1079、カメラモジュール1080、電力管理モジュール1088、及びバッテリ1089、通信モジュール1090(例:図2の通信インタフェース110)、並びに加入者識別モジュール1096を含む。ある実施例で、電子装置1001は、構成要素のうちの少なくとも一つ(例:表示装置1060又はカメラモジュール1080)を省略するか、又は他の構成要素を更に具備する。
【0097】
バスは、構成要素1020~1090を互いに連結し、構成要素間の信号(例:制御メッセージ又はデータ)を伝達する回路を含む。
【0098】
プロセッサ1020は、中央処理装置(central processing unit:CPU)、アプリケーションプロセッサ(application processor:AP)、GPU(graphics processing unit)、カメラのISP(image signal processor)、又はCP(communication processor)のうちの一つ又はそれ以上を含む。プロセッサ1020はSoC(system on chip)又はSiP(system in package)で具現され得る。プロセッサ1020は、例えば、運営体制(OS:オペレーティングシステム)1042又は応用(アプリケーション)プログラム1046を駆動してプロセッサ1020に連結された電子装置1001の少なくとも一つの他の構成要素(例:ハードウェア又はソフトウェア構成要素)を制御し、各種データ処理及び演算を行う。プロセッサ1020は、他の構成要素(例:通信モジュール1090)のうちの少なくとも一つから受信されたコマンド又はデータを揮発性メモリ1032にロードして処理し、結果データを不揮発性メモリ1034に保存する。
【0099】
メモリ1030は、揮発性メモリ1032又は不揮発性メモリ1034を含む。揮発性メモリ1032は、例えばRAM(random access memory)(例:DRAM、SRAM、又はSDRAM)で構成される。不揮発性メモリ1034は、例えば、PROM(programmable read-only memory)、OTPROM(one time PROM)、EPROM(erasable PROM)、EEPROM(electrically EPROM)、mask ROM、flash ROM、フラッシュメモリ、HDD(hard disk drive)、又はSSD(solid state drive)で構成される。また、不揮発性メモリ1034は、電子装置1001との連結形態によって、その中に配置された内蔵メモリ1036、又は必要時にのみ連結して使用可能なスタンド-アローン(stand-alone)形態の外付けメモリ1038で構成される。外付けメモリ1038は、フラッシュドライブ(flash drive)、例えば、CF(compact flash)、SD(secure digital)、Micro-SD、Mini-SD、xD(extreme digital)、MMC(multi-media card)、又はメモリスティックを含む。外付けメモリ1038は有線(例:ケーブル又はUSB(universal serial bus))又は無線(例:Bluetooth(登録商標))を介して電子装置1001と機能的に又は物理的に連結される。
【0100】
メモリ1030は、例えば、電子装置1001の少なくとも一つの他のソフトウェア構成要素、例えば、プログラム1040に関係するコマンド又はデータを保存する。プログラム1040は、例えば、運営体制(OS)1042、ミドルウェア1044、アプリケーションフレームワーク又はアプリケーションプログラム(interchangeably「アプリケーション」)1046を含む。
【0101】
入力装置1050は、マイク、マウス、又はキーボードを含む。キーボードは、物理的なキーボードで連結されるか、又は表示装置1060を介して仮想キーボードで表示され得る。
【0102】
表示装置1060は、ディスプレイ、ホログラム装置、又はプロジェクタ、及び当該装置を制御するための制御回路を含む。ディスプレイは、例えば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、マイクロ電子機械システム(MEMS)ディスプレイ、又は電子ペーパ(electronic paper)ディスプレイを含む。ディスプレイは、柔軟に、透明に、又は着用可能に具現され得る。ディスプレイは、ユーザのタッチ、ジェスチャー、近接、又はホバリング(hovering)入力を感知することができるタッチ回路(touch circuitry)又はタッチに対する圧力の強さを測定することができる圧力センサ(interchangeably 「force sensor」)を含む。タッチ回路又は圧力センサは、ディスプレイと一体型に具現されるか、又はディスプレイとは別途の一つ以上のセンサで具現される。ホログラム装置は光の干渉を用いて立体映像を空中に映し出す。プロジェクタはスクリーンに光を投射して映像を表示する。スクリーンは、例えば電子装置1001の内部又は外部に位置する。
【0103】
オーディオモジュール1070は、例えば音及び電気信号を双方向に変換させる。オーディオモジュール1070は、入力装置1050(例:マイク)を介して音を獲得するか、又は電子装置1001に含まれる出力装置(図示せず)(例:スピーカ又はレシーバ)、或いは電子装置1001に連結された外部電子装置(例:電子装置1002(例:無線スピーカ又は無線ヘッドホン)又は電子装置1006(例:有線スピーカ又は有線ヘッドホン))を介して音を出力することができる。
【0104】
センサモジュール1076は、例えば、電子装置1001の内部の作動状態(例:電力又は温度)、又は外部の環境状態(例:高度、湿度、又は明るさ)を計測又は感知して、その計測又は感知された状態情報に対応する電気信号又はデータ値を生成する。センサモジュール1076は、例えば、ジェスチャーセンサ、ジャイロセンサ、気圧センサ、マグネティックセンサ、加速度センサ、グリップセンサ、近接センサ、カラー(color)センサ(例:RGB(red、green、blue)センサ)、IR(infrared)センサ、生体センサ(例:虹彩センサ、指紋センサ、又はHRM(heartbeat rate monitoring)センサ、嗅覚(electronic nose)センサ、EMG(electromyography)センサ、EEG(Electroencephalogram)センサ、ECG(Electrocardiogram)センサ)、温度センサ、湿度センサ、照度センサ、又はUV(ultra violet)センサを含む。センサモジュール1076は、その中に属する少なくとも一つ以上のセンサを制御するための制御回路を更に含み得る。ある実施例で、電子装置1001は、プロセッサ1020又はプロセッサ1020とは別途のプロセッサ(例:センサハブ)を用いてセンサモジュール1076を制御する。別途のプロセッサ(例:センサハブ)を用いる場合、電子装置1001は、プロセッサ1020がスリープ(sleep)状態にある間、プロセッサ1020を起動させずに別途のプロセッサの作動によってセンサモジュール1076の動作又は状態の少なくとも一部を制御することができる。
【0105】
インタフェース1077は、HDMI(登録商標)(high definition multimedia interface)、USB、光インタフェース(optical interface)、RS-232(recommended standard 232)、D-sub(D-subminiature)、MHL(mobile high-definition link)インタフェース、SDカード/MMC(multi-media card)インタフェース、又はオーディオインタフェースを含む。連結端子1078は電子装置1001と電子装置1006とを物理的に連結させる。連結端子1078は、例えば、USBコネクタ、SDカード/MMCコネクタ、又はオーディオコネクタ(例:ヘッドホンコネクタ)を含む。
【0106】
ハプティックモジュール1079は電気的信号を機械的な刺激(例:振動又は動き)又は電気的な刺激に変換することができる。例えば、ハプティックモジュール1079はユーザに触覚又は運動感覚に関連する刺激を提供する。ハプティックモジュール1079は、例えば、モータ、圧電素子、又は電気刺激装置を含む。
【0107】
カメラモジュール1080は、例えば静止画及び動画を撮影する。カメラモジュール1080は、一つ以上のレンズ(例:広角レンズ及び望遠レンズ、又は前面レンズ及び後面レンズ)、イメージセンサ、イメージシグナルプロセッサ、又はフラッシュ(例:発光ダイオード又はキセノンランプ(xenon lamp)など)を含む。
【0108】
電力管理モジュール1088は、電子装置1001の電力を管理するためのモジュールであって、例えばPMIC(power management integrated circuit)の少なくとも一部として構成される。
【0109】
バッテリ1089は、例えば、一次電池、二次電池、又は燃料電池を含んで外部電源により再充電されて、電子装置1001の少なくとも一つの構成要素に電力を供給することができる。
【0110】
通信モジュール1090は、例えば、電子装置1001と外部装置(例:第1外部電子装置1002、第2外部電子装置1004、又はサーバ1008)との間の通信チャンネルの構築及び構築された通信チャンネルを介した有線又は無線通信の遂行を支援することができる。通信モジュール1090は、無線通信モジュール1092又は有線通信モジュール1094を含み、そのうちの該当する通信モジュールを用いて第1ネットワーク1098(例:Bluetooth(登録商標)又はIrDA(infrared data association)のような近距離通信ネットワーク)又は第2ネットワーク1099(例:セルラーネットワークのような遠距離通信ネットワーク)を介して外部装置と通信することができる。
【0111】
無線通信モジュール1092は、例えば、セルラー通信、近距離無線通信、又はGNSS通信を支援する。セルラー通信は、例えば、LTE(long-term evolution)、LTE-A(LTE Advance)、CDMA(code division multiple access)、WCDMA(登録商標)(wideband CDMA)、UMTS(universal mobile telecommunications system)、WiBro(Wireless Broadband)、又はGSM(登録商標)(Global System for Mobile Communications)を含む。近距離無線通信は、例えば、Wi-Fi(wireless fidelity)、Wi-Fi Direct、Li-Fi(light fidelity)、Bluetooth(登録商標)、BLE(Bluetooth(登録商標) low energy)、Zigbee(登録商標)、NFC(near field communication)、MST(magnetic secure transmission)、RF(radio frequency)、又はBAN(body area network)を含む。GNSSは、例えば、GPS(Global Positioning System)、Glonass(Global Navigation Satellite System)、Beidou Navigation Satellite System(以下、「Beidou」)、又はGalileo(the European global satellite-based navigation system)を含む。本明細書において「GPS」は「GNSS」と相互互換的に使用される。
【0112】
無線通信モジュール1092は、セルラー通信を支援する場合、例えば加入者識別モジュール1096を用いて通信ネットワーク内で電子装置1001の区別及び認証を行うことができる。無線通信モジュール1092はプロセッサ1020(例:AP)とは別個のCPを含み得る。このような場合、CPは、例えば、プロセッサ1020がインアクティブ(例:スリープ)状態にある間、プロセッサ1020の代わりに、又はプロセッサ1020がアクティブ状態にある間、プロセッサ1020と共に、電子装置1001の構成要素(1010~1096)のうちの少なくとも一つの構成要素に関連する機能の少なくとも一部の機能を行う。無線通信モジュール1092は、セルラー通信モジュール、近距離無線通信モジュール、又はGNSS通信モジュールのうちの該当する通信方式のみを支援する複数の通信モジュールで構成され得る。
【0113】
有線通信モジュール1094は、例えば、LAN(local area network)、電力線通信、又はPOTS(plain old telephone service)を含む。
【0114】
第1ネットワーク1098は、例えば、電子装置1001と第1外部電子装置1002との間の無線で直接連結を介してコマンド又はデータを送信又は受信することができるWi-Fiダイレクト又はBluetooth(登録商標)を含む。第2ネットワーク(1099)は、例えば、電子装置1001と第2外部電子装置(1004)との間のコマンド又はデータを送信又は受信することができるテレコミュニケーションネットワーク(例:LAN(local area network)やWAN(wide area network)のようなコンピュータネットワーク、インターネット(internet)、又はテレフォン(telephone)ネットワーク)を含む。
【0115】
多様な実施例によると、コマンド又はデータは、第2ネットワークに連結されたサーバ1008を介して電子装置1001と第2外部電子装置(1004)との間で送信又は受信される。第1及び第2外部電子装置(1002、1004)のそれぞれは電子装置1001と同一又は異なる種類の装置である。多様な実施例によると、電子装置1001で実行される動作の全部又は一部は、他の一つ又は複数の電子装置(例:電子装置1002、1004)、又はサーバ1008で実行される。電子装置1001がある機能やサービスを自動的に又は要請により行わなければならない場合、電子装置1001は、機能又はサービスを自体的に実行させる代わりに、又は追加的に、それに連関する少なくとも一部の機能を他の装置(例:電子装置1002、1004、又はサーバ1008)に要請することができる。他の電子装置(例:電子装置1002、1004、又はサーバ1008)は、要請された機能又は追加機能を実行し、その結果を電子装置1001に伝達することができる。電子装置1001は受信された結果をそのまま又は追加的に処理して要請された機能やサービスを提供することができる。このために、例えば、クラウドコンピューティング、分散コンピューティング、又はクライアント-サーバコンピューティング技術が用いられる。
【0116】
本明細書の多様な実施例及びここに使用した用語は、本明細書に記載した技術を特定の実施形態に限定しようとするものではなく、当該実施例の多様な変更、均等物、及び/又は代替物を含むものとして理解すべきである。図面の説明に関連して、類似の構成要素に対しては類似の参照符号が使用される。単数の表現は、文脈上、明らかに異なるものを意味しない限り、複数の表現を含み得る。本明細書において、「A又はB」、「A及び/又はBのうちの少なくとも一つ」、「A、B、又はC」又は「A、B、及び/又はCのうちの少なくとも一つ」などの表現は、共に並べられた項目の全ての可能な組み合わせを含み得る。「第1」、「第2」、「第一に」、又は「第二に」などの表現は、当該構成要素を、手順又は重要度に関係なく修飾することができ、一構成要素を他の構成要素と区分するために使用されるのみであり、当該構成要素を限定しない。ある(例:第1)構成要素が他の(例:第2)構成要素に「(機能的に又は通信的に)連結されて」いるか、「接続されて」いると言及するときには、ある構成要素が他の構成要素に直接的に連結されるか、又は他の構成要素(例:第3構成要素)を介して連結され得る。
【0117】
本明細書において、「~するように設定された(adapted to or configured to)」は、状況に応じて、例えば、ハードウェア的又はソフトウェア的に「~に適する」、「~する能力を有する」、「~するように変更された」、「~するように作られた」、「~ができる」、又は「~するように設計された」と相互互換的に(interchangeably)使用され得る。ある状況では、「~するように構成された装置」という表現は、その装置が他の装置又は部品と共に「~できる」ことを意味し得る。例えば、語句「A、B、及びCを行うように設定された(又は構成された)プロセッサ」は、当該動作を実行するための専用プロセッサ(例:組込みプロセッサ)、又はメモリ装置(例:メモリ1030)に保存された一つ以上のプログラムを実行することにより、当該動作を行うことができる汎用プロセッサ(例:CPU又はAP)を意味し得る。
【0118】
本明細書において使用された用語「モジュール」は、ハードウェア、ソフトウェア、又はファームウェアから構成されるユニット(unit)を含み、例えば、ロジック、論理ブロック、部品、又は回路などの用語と相互互換的に使用される。「モジュール」は、一体に構成された部品、又は一つ又はそれ以上の機能を行う最小単位若しくはその一部となり得る。「モジュール」は、機械的に又は電子的に具現され、例えば、ある動作を行う公知又は今後開発されるASIC(application-specific integrated circuit)チップ、FPGAs(field-programmable gate arrays)、又はプログラム可能な論理装置を含む。
【0119】
多様な実施例による装置(例:モジュール又はその機能)又は方法(例:動作)の少なくとも一部は、プログラムモジュールの形態でコンピュータ読み取り可能な記録媒体(例:メモリ1030)に保存されたコマンド語として具現され得る。コマンド語がプロセッサ(例:プロセッサ1020)により実行される場合、プロセッサはコマンド語に該当する機能を行うことができる。コンピュータ読み取り可能な記録媒体は、ハードディスク、フロッピー(登録商標)ディスク、マグネティック媒体(例:磁気テープ)、光記録媒体(例:CD-ROM、DVD、磁気-光媒体(例:フロプティカルディスク)、内蔵メモリなどを含み得る。コマンド語はコンパイラにより作られるコード又はインタプリタにより実行され得るコードを含み得る。
【0120】
多様な実施例による構成要素(例:モジュール又はプログラムモジュール)のそれぞれは、単数又は複数の個体で構成され、上述の当該サブ構成要素のうちの一部のサブ構成要素が省略されるか、又は他のサブ構成要素を更に含み得る。代替的に又は追加的に、一部の構成要素(例:モジュール又はプログラムモジュール)は、一つの個体に統合されて、統合される前のそれぞれの当該構成要素により行われる機能を同一又は類似に行うことができる。多様な実施例によるモジュール、プログラムモジュール、又は他の構成要素により行われる動作は、順次的、並列的、反復的、又はヒューリスティック(heuristic)に実行されるか、或いは少なくとも一部の動作が他の順序で実行されるか、省略されるか、又は他の動作が追加され得る。
【0121】
以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
【符号の説明】
【0122】
1 ユーザ
3 イメージ
5 ユーザ端末
10 指定された場所
20 クラウドサーバ
30 外部電子装置
40 自宅
40a 第2部屋
100 ユーザ認識装置
110 通信インタフェース
120、1030 メモリ
130 DVS(dynamic vision sensor)モジュール
131 レンズ
132 DVS
140、1020 プロセッサ
200 IoT装置
700 ディスプレイ
710 UI(user interface)
711 複数のイメージ
713 オブジェクト
1000 ネットワーク環境
1001、1002、1004 電子装置
1008 サーバ
1021 メインプロセッサ
1023 補助プロセッサ
1032 揮発性メモリ
1034 不揮発性メモリ
1036 内蔵メモリ
1038 外付けメモリ
1040 プログラム
1042 運営体制(OS:オペレーティングシステム)
1044 ミドルウェア
1046 アプリケーションフレームワーク又はアプリケーションプログラム
1050 入力装置
1055 音響出力装置
1060 表示装置
1070 オーディオモジュール
1076 センサモジュール
1077 インタフェース
1078 連結端子
1079 ハプティックモジュール
1080 カメラモジュール
1088 電力管理モジュール
1089 バッテリ
1090 通信モジュール
1092 無線通信モジュール
1094 有線通信モジュール
1096 加入者識別モジュール
1097 アンテナモジュール
1098 近距離無線通信
1099 ネットワーク

図1
図2
図3
図4
図5
図6
図7
図8
図9
図10