(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-03
(45)【発行日】2024-04-11
(54)【発明の名称】エモーティコン生成装置
(51)【国際特許分類】
H04N 5/265 20060101AFI20240404BHJP
G06Q 50/10 20120101ALI20240404BHJP
【FI】
H04N5/265
G06Q50/10
(21)【出願番号】P 2022547260
(86)(22)【出願日】2021-12-31
(86)【国際出願番号】 KR2021020383
(87)【国際公開番号】W WO2023008668
(87)【国際公開日】2023-02-02
【審査請求日】2022-08-02
(31)【優先権主張番号】10-2021-0098517
(32)【優先日】2021-07-27
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】522308071
【氏名又は名称】ダナル エンターテインメント カンパニー リミテッド
【氏名又は名称原語表記】DANAL ENTERTAINMENT CO.,LTD
(74)【代理人】
【識別番号】100121728
【氏名又は名称】井関 勝守
(74)【代理人】
【識別番号】100165803
【氏名又は名称】金子 修平
(74)【代理人】
【識別番号】100170900
【氏名又は名称】大西 渉
(72)【発明者】
【氏名】イム ユヨプ
【審査官】鈴木 肇
(56)【参考文献】
【文献】韓国公開特許第10-2013-0082898(KR,A)
【文献】特開2005-136841(JP,A)
【文献】特開2019-009754(JP,A)
【文献】米国特許第07671861(US,B1)
【文献】韓国公開特許第10-2019-0106865(KR,A)
【文献】韓国公開特許第10-2018-0109594(KR,A)
【文献】米国特許出願公開第2020/0174656(US,A1)
【文献】韓国公開特許第10-2020-0095049(KR,A)
【文献】韓国登録特許第10-1720250(KR,B1)
【文献】韓国公開特許第10-2019-0062005(KR,A)
【文献】韓国登録特許第10-1571687(KR,B1)
【文献】米国特許出願公開第2018/0182141(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00 -10/10
G06Q 30/00 -30/08
G06Q 50/00 -50/20
G06Q 50/26 -99/00
G06T 1/00 - 1/40
G06T 3/00 - 5/50
G06T 11/60 -13/80
G06T 17/05
G06T 19/00 -19/20
H04N 5/262- 5/28
(57)【特許請求の範囲】
【請求項1】
使用者端末から使用者映像を受信する使用者映像受信部と、
前記受信された使用者映像を分析
し、前記使用者映像から使用者または客体を認識する映像分析部と、
前記使用者映像を分析した結果に基づいて背景映像を決定する背景決定部と、
前記使用者映像から抽出された使用者または客体のうち少なくとも一つを前記背景映像に合成した合成エモーティコンを生成するエモーティコン生成部と、
前記使用者端末上にインストールされたSNSアプリケーションを介してメッセンジャー上の前記使用者と会話をしている他の使用者用の他の使用者端末に生成した前記合成エモーティコンが伝送されるように、生成した前記合成エモーティコンを前記他の使用者端末に伝送するエモーティコン伝送部と、
を含み、
前記映像分析部は
前記使用者映像から予め設定された間隔で前記使用者映像の一部の映像であるサンプルイメージを抽出し、前記抽出されたサンプルイメージから使用者または客体を認識し、前記認識された使用者または客体を分析して前記使用者映像に対するカテゴリーを抽出し、
前記映像分析部は
前記サンプルイメージを抽出するとき、抽出されたサンプルイメージそれぞれに対して予め設定された使用不可条件に該当するかどうかを判断し、
前記抽出されたサンプルイメージが前記使用不可条件に該当する場合、前記サンプルイメージを抽出する間隔を変更することによって、前記使用不可条件に該当する前記抽出されたサンプルイメージの代わりに前記使用者または前記客体を認識するのに使われる新たなサンプルイメージを再抽出し、
前記使用不可条件に該当する前記サンプルイメージは、使用者が目をとじたイメージ、解像度が予め設定された基準解像度以下であるイメージまたは明るさが予め設定された基準明るさ以下であるイメージであり、
前記背景決定部は
前記使用者映像を分析した結果に基づいて推薦された少なくとも一つの背景映像のうち、前記使用者端末を通じて選択された背景映像を前記合成エモーティコンに合成される背景映像として決定
し、
前記エモーティコン生成部は
背景映像それぞれに設定された合成ガイドラインにしたがって前記使用者または客体の大きさもしくは位置を決定し、前記使用者端末を通じて前記背景映像が選択された後、入力された前記合成ガイドラインの修正情報により前記使用者または客体が合成される大きさもしくは位置を調節する、エモーティコン生成装置。
【請求項2】
前記背景決定部は
前記使用者映像を分析した結果に基づいて少なくとも一つの背景映像を推薦し、推薦した背景映像に対する情報を前記使用者端末に伝送し、前記使用者端末から前記選択された背景映像に対する情報を受信する、請求項1に記載のエモーティコン生成装置。
【請求項3】
複数の背景映像と複数の背景映像それぞれに対するインデックスがマッピングされた背景データベースをさらに含む、請求項1に記載のエモーティコン生成装置。
【請求項4】
前記背景決定部は
前記使用者映像を分析しながら抽出されたカテゴリーを獲得し、
前記背景データベースで前記抽出されたカテゴリーと一致するインデックスとマッピングされた背景映像を推薦背景映像として獲得する、請求項3に記載のエモーティコン生成装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明はエモーティコン生成装置に関し、より具体的には、本発明は使用者オーダーメード型エモーティコンを生成するエモーティコン生成装置に関する。
【背景技術】
【0002】
スマートフォンの普及につれて使用者のエモーティコンの使用が増加し、これに伴い、エモーティコンが多様化し市場規模が巨大になりつつある。具体的には、エモーティコンは、従来は多様な表情を有するキャラクタなどで静的なイメージの形態で製作されていたのに反し、最近では芸能人などの実写動画などの形態で製作されている。ところで、このようなエモーティコンはエモーティコン製作会社などで審査などを通過してこそ製作されるのが実状であり、認知度が低かったり、審査過程で介入される主観的な見解あるいは不公正な審査などによって、より多様なエモーティコンの製作ができない限界がある。また、使用者は芸能人ではなく本人がエモーティコンに製作されることを所望する場合もあり得るが、このような各個人の好むエモーティコンがすべて製作され難い問題がある。
【発明の概要】
【発明が解決しようとする課題】
【0003】
本発明は、使用者オーダーメード型エモーティコンを提供するエモーティコン生成装置を提供することを目的とする。
【0004】
本発明は、自身が直接撮影した使用者あるいは客体が登場しながらも、完成度の高い使用者オーダーメード型エモーティコンを提供するエモーティコン生成装置を提供することを目的とする。
【0005】
本発明は、より便利で、速かに使用者オーダーメード型エモーティコンを提供するエモーティコン生成装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一実施例に係るエモーティコン生成装置は、使用者端末から使用者映像を受信する使用者映像受信部、前記受信された使用者映像を分析する映像分析部、前記使用者映像を分析した結果に基づいて背景映像を決定する背景決定部、および前記使用者映像から抽出された使用者または客体のうち少なくとも一つを前記背景映像に合成した合成エモーティコンを生成するエモーティコン生成部を含み、前記背景決定部は前記使用者映像を分析した結果に基づいて推薦された少なくとも一つの背景映像のうち、前記使用者端末を通じて選択された背景映像を前記合成エモーティコンに合成される背景映像として決定することができる。
【0007】
背景決定部は前記使用者映像を分析した結果に基づいて少なくとも一つの背景映像を推薦し、推薦した背景映像に対する情報(例えば、サムネイル)を前記使用者端末に伝送し、前記使用者端末から前記選択された背景映像に対する情報を受信することができる。
【0008】
エモーティコン生成装置は複数の背景映像と複数の背景映像それぞれに対するインデックスがマッピングされた背景データベースをさらに含むことができる。
【0009】
背景決定部は前記使用者映像を分析しながら抽出されたカテゴリーを獲得し、前記背景データベースで前記抽出されたカテゴリーと一致するインデックスとマッピングされた背景映像を推薦背景映像として獲得することができる。
【0010】
映像分析部は前記使用者映像から使用者または客体を認識し、認識された使用者または客体を分析して前記使用者映像に対するカテゴリーを抽出することができる。
【0011】
映像分析部は前記使用者映像から予め設定された間隔でサンプルイメージを抽出し、抽出されたサンプルイメージから使用者または客体を認識することができる。
【0012】
映像分析部は前記サンプルイメージを抽出すれば、抽出されたサンプルイメージそれぞれに対して予め設定された使用不可条件に該当するかどうかを判断し、前記使用不可条件に該当するサンプルイメージが存在すれば、前記使用不可条件に該当するサンプルイメージの代わりに使われるサンプルイメージを再抽出することができる。
【0013】
映像分析部は前記サンプルイメージを抽出した間隔を変更することによって、前記サンプルイメージを再抽出することができる。
【0014】
映像分析部は使用者が目をとじたイメージ、解像度が予め設定された基準解像度以下であるイメージまたは明るさが予め設定された基準明るさ以下であるイメージを前記使用不可条件に該当するものと判断することができる。
【0015】
エモーティコン生成部は、背景映像それぞれに設定された合成ガイドラインにしたがって前記使用者または客体の大きさもしくは位置を決定することができる。
【0016】
エモーティコン生成部は、前記使用者端末を通じて前記背景映像が選択された後、入力された前記合成ガイドラインの修正情報により前記使用者または客体が合成される大きさもしくは位置を調節することができる。
【発明の効果】
【0017】
本発明の一実施例によると、エモーティコン生成装置は使用者端末から使用者映像を受信すれば、使用者映像を分析して使用者映像の中の使用者または客体が登場し、それに適切な背景映像が合成されたエモーティコンを生成して使用者端末に提供するため、使用者が使用者映像を撮影さえすればそれによる完成度の高い合成エモーティコンを提供可能な利点がある。
【0018】
また、エモーティコン生成装置は合成エモーティコンを使用する際に、使用者に背景映像の選択機会を提供し、その過程で送受信されるデータの大きさを節約可能であるため、使用者満足度が高いエモーティコンをより速かに生成可能な利点がある。
【0019】
また、エモーティコン生成装置は使用者映像そのものではなくサンプルイメージを抽出してエモーティコンを生成するため、背景映像の決定に所要する時間を最小化できる利点がある。
【図面の簡単な説明】
【0020】
【
図1】本発明の一実施例に係るエモーティコン生成装置システムが図示された図面である。
【
図2】本発明の一実施例に係るエモーティコン生成装置の制御ブロック図である。
【
図3】本発明の一実施例に係るエモーティコン生成装置の動作方法が図示されたフローチャートである。
【
図4】
図3の段階S20を具体化したフローチャートである。
【
図5】本発明の一実施例に係る映像分析部が使用者映像を分析する方法の様子が図示された例示図である。
【
図6】
図4の段階S210を具体化したフローチャートである。
【
図7】
図3の段階S30が具体化されたフローチャートである。
【
図8】本発明の一実施例に係る背景データベースに背景映像が保存される方式の一例が図示された図面である。
【
図9A】本発明の一実施例に係るエモーティコン生成部が生成した合成エモーティコンの例示図である。
【
図9B】本発明の一実施例に係るエモーティコン生成部が生成した合成エモーティコンの例示図である。
【
図9C】本発明の一実施例に係るエモーティコン生成部が生成した合成エモーティコンの例示図である。
【
図10】本発明の一実施例に係るエモーティコン生成装置で生成されたエモーティコンが使用者端末で使われる一例が図示された図面である。
【発明を実施するための形態】
【0021】
以下では、添付した図面を参照して本発明を説明することにする。しかし、本発明は多様な異なる形態で具現され得、したがってここで説明する実施例に限定されるものではない。そして、図面で本発明を明確に説明するために説明にかかわらない部分は省略し、明細書全体を通じて類似する部分に対しては類似する図面符号を付した。
【0022】
明細書全体において、或る部分が何らかの構成要素を「含む」とする時、これは特に反対の記載がない限り他の構成要素を除くものではなく他の構成要素をさらに具備できることを意味する。
【0023】
本明細書で使った用語は単に特定の実施例を説明するために使われたものであり、本発明を限定しようとする意図ではない。単数の表現は文脈上明白に異なるように意味しない限り、複数の表現を含む。本明細書で、「含む」または「有する」等の用語は、明細書上に記載された特徴、数字、段階、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定しようとするものであって、一つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部品またはこれらを組み合わせたものなどの存在または付加の可能性を予め排除しないものと理解されるべきである。
【0024】
以下、本発明の理解を助けるために好ましい実施例を提示するが、これは本発明の一例に過ぎないものであって、本発明の範疇および技術思想範囲内で多様な変更および修正が可能であることは当業者に自明であり、このような変更および修正も添付された特許請求の範囲に属することは言うまでもない。
【0025】
以下、本発明の実施例を示す添付図面を参照して本発明をさらに詳細に説明する。
【0026】
図1は、本発明の一実施例に係るエモーティコン生成装置システムが図示された図面である。
【0027】
本発明の一実施例に係るエモーティコン生成装置システムは、エモーティコン生成装置100および使用者端末1を含むことができる。
【0028】
エモーティコン生成装置100は使用者オーダーメード型エモーティコンを生成することができる。エモーティコン生成装置100は使用者オーダーメード型エモーティコンを生成して使用者端末1に伝送でき、使用者端末1はエモーティコン生成装置100から使用者オーダーメード型エモーティコンを受信することができる。
【0029】
使用者端末1は、エモーティコン生成装置100から受信された使用者オーダーメード型エモーティコンを保存および表示することができる。使用者はエモーティコン生成装置100と通信する使用者端末1を利用して使用者オーダーメード型エモーティコンを容易に生成および使うことができる。
【0030】
以下、エモーティコン生成装置100が使用者オーダーメード型エモーティコンを生成する方法を詳しく説明する。ここで、使用者オーダーメード型エモーティコンは、使用者映像から認識された使用者または客体と使用者が選択した背景映像との合成を通じて生成されたエモーティコンを意味し得る。
【0031】
図2は、本発明の一実施例に係るエモーティコン生成装置の制御ブロック図である。
【0032】
本発明の一実施例に係るエモーティコン生成装置100は、使用者映像受信部110、使用者映像保存部115、映像分析部120、背景決定部130、背景データベース140、エモーティコン生成部150およびエモーティコン伝送部160のうち少なくとも一部または全部を含むことができる。
【0033】
使用者映像受信部110は使用者端末1から使用者映像を受信することができる。
【0034】
使用者映像は、使用者端末1から伝送される静止イメージまたは動画を意味し得る。
【0035】
使用者映像保存部115は使用者映像受信部110を通じて受信された使用者映像を保存することができる。
【0036】
映像分析部120は使用者映像受信部110を通じて受信された使用者映像を分析することができる。
【0037】
背景決定部130は映像分析部120で使用者映像を分析した結果に基づいて背景映像を決定することができる。
【0038】
ここで、背景映像は、合成エモーティコンに使われる背景であって、静止イメージまたは動画を含むことができる。
【0039】
背景決定部130は使用者映像を分析した結果に基づいて推薦された少なくとも一つの背景映像のうち、使用者端末1を通じて選択された背景映像を合成エモーティコンに合成される背景映像として決定することができる。
【0040】
具体的には、背景決定部130は使用者映像を分析した結果に基づいて少なくとも一つの背景映像を推薦し、推薦した背景映像を使用者端末1に伝送することができる。この時、背景決定部130は背景映像自体を使用者端末1に伝送するか、背景映像に対する情報を使用者端末1に伝送することができる。
【0041】
背景映像に対する情報はサムネイルイメージ、背景映像を説明するテキストなどであり得るが、これは例示的なものに過ぎないため、これに制限されない。このように、背景決定部130が背景映像に対する情報を使用者端末1に伝送する場合、背景映像自体を伝送する場合よりも伝送データの大きさを減らすことができるため伝送速度を改善でき、これに伴い、合成エモーティコン生成速度を向上させ得る利点がある。
【0042】
使用者端末1はエモーティコン生成装置100から受信した推薦背景映像あるいは推薦背景映像に対する情報を表示することによって、使用者からいずれか一つの背景映像の選択を受けることができる。使用者端末1は選択された背景映像あるいは選択された背景映像に対する情報をエモーティコン生成装置100に伝送することができる。
【0043】
背景決定部130は使用者端末1に推薦した背景映像を伝送した場合、使用者端末1から推薦した背景映像のうち選択された背景映像を受信することができる。同様に、背景決定部130は使用者端末1に推薦した背景映像に対する情報を伝送した場合、使用者端末1から選択された背景映像に対する情報を受信することができる。
【0044】
背景データベース140は合成エモーティコン生成に使われる背景映像を保存していてもよい。
【0045】
一実施例によると、背景データベース140は複数の背景映像を複数の背景映像それぞれに対するインデックスとマッピングさせて保存することができる。これについては
図8でさらに詳しく説明する。
【0046】
一方、背景データベース140は複数の背景映像それぞれに対する合成ガイドラインを保存することができる。合成ガイドラインは背景映像それぞれに対して合成される使用者または客体の大きさまたは位置情報を意味し得る。
【0047】
エモーティコン生成部150は使用者映像から抽出された使用者または客体のうち少なくとも一つを背景映像に合成した合成エモーティコンを生成することができる。
【0048】
エモーティコン生成部150は背景映像それぞれに設定された合成ガイドラインにしたがって使用者/客体の大きさまたは位置を決定することができる。
【0049】
一方、前述した合成ガイドラインは使用者端末1を通じて修正されてもよい。この場合、エモーティコン生成部150は使用者端末1を通じて背景映像の選択を受けた後、入力された合成ガイドラインの修正情報により使用者または客体が合成される大きさもしくは位置を調節することができる。
【0050】
エモーティコン伝送部160は生成された合成エモーティコンを使用者端末1に伝送することができる。
【0051】
図3は、本発明の一実施例に係るエモーティコン生成装置の動作方法が図示されたフローチャートである。
【0052】
使用者映像受信部110は使用者端末1から使用者映像を受信することができる(S10)。
【0053】
映像分析部120は使用者端末1から受信した使用者映像を分析することができる(S20)。
【0054】
次に、
図4を参照して映像分析部120が使用者映像を分析する方法をより詳細に説明する。
図4は、
図3の段階S20を具体化したフローチャートである。
【0055】
映像分析部120は使用者映像から使用者または客体を認識することができる(S210)。
【0056】
図5は、本発明の一実施例に係る映像分析部が使用者映像を分析する方法の様子が図示された例示図である。
【0057】
一実施例によると、映像分析部120はVision APIを利用して使用者映像を分析することができる。まず、映像分析部120は使用者映像から客体を検出することができる。
【0058】
より詳細には、映像分析部120はLabel Detectionを通じて使用者映像の中にある事物(例えば、家具、動物、食べ物など)を認識したり、Logo Detectionを通じて使用者映像の中で会社ロゴなどのようなロゴを認識したり、Landmark Detectionを通じて使用者映像の中で建築物(例えば、ナムサンタワー、キョンボックンなど)あるいは自然経過などのようなランドマークを認識することができる。また、映像分析部120はFace Detectionを通じて使用者映像の中で人の顔を探し、目、鼻、口の位置などをリターンして表情および感情状態(例えば、うれしい状態、悲しい状態など)を分析することができる。また、映像分析部120はSafe Search Detectionを通じて使用者映像の危険度(あるいは健全性)を検出でき、これを通じて使用者映像が成人コンテンツ、医学コンテンツ、暴力コンテンツなどに属する程度を検出することができる。
【0059】
一方、映像分析部120は使用者または客体を使用者映像の全体から認識してもよいが、使用者映像からサンプルイメージを抽出した後にサンプルイメージから使用者または客体を認識してもよい。
【0060】
図6は、
図4の段階S210を具体化したフローチャートである。
【0061】
映像分析部120は使用者映像から予め設定された間隔でサンプルイメージを抽出することができる(S211)。
【0062】
予め設定された間隔は、時間単位あるいはフレーム単位であり得る。
【0063】
一例として、予め設定された間隔は1秒であり得、この場合、映像分析部120は使用者映像が5秒の映像であれば1秒間隔で使用者映像をキャプチャーしてサンプルイメージを抽出することができる。
【0064】
他の例として、予め設定された間隔は24フレームであり得、この場合、映像分析部120は使用者映像が一秒あたり24フレームのイメージが表示される5秒映像である場合、24フレーム間隔で使用者映像をキャプチャーしてサンプルイメージを抽出することができる。
【0065】
映像分析部120は抽出されたサンプルイメージそれぞれに対して予め設定された使用不可条件に該当するかどうかを判断することができる(S213)。
【0066】
具体的な例として、映像分析部120は使用者が目をとじたイメージ、解像度が予め設定された基準解像度以下であるイメージまたは明るさが予め設定された基準明るさ以下であるイメージを使用不可条件に該当するものと判断することができる。
【0067】
映像分析部120はサンプルイメージのうち使用不可条件に該当するイメージが存在するかを判断することができる(S215)。
【0068】
映像分析部120はサンプルイメージのうち使用不可条件に該当するイメージが存在すれば、使用不可条件に該当するサンプルイメージの代わりに使われるサンプルイメージを再抽出することができる(S217)。
【0069】
一実施例によると、映像分析部120はサンプルイメージを抽出した間隔を変更することによってサンプルイメージを再抽出することができる。一例として、映像分析部120は段階S211では24フレーム間隔でサンプルイメージを抽出したとすれば、段階S217では25フレーム間隔でサンプルイメージを再抽出することができる。
【0070】
しかし、前述したサンプルイメージ抽出間隔を変更する方法は例示的なものに過ぎないため、本発明はこれに制限されない。
【0071】
このように、映像分析部120は予め設定された使用不可条件に該当するイメージはエモーティコン生成に使われないように予めフィルタリングすることによって、より完成度の高いエモーティコンを生成できる利点がある。
【0072】
映像分析部120はサンプルイメージを再抽出すれば、段階S213に復帰して再抽出されたサンプルイメージそれぞれに対して予め設定された使用不可条件に該当するかどうかを判断することができる。
【0073】
映像分析部120は(再)抽出されたサンプルイメージに使用不可条件に該当するイメージが存在しなければ、(再)抽出されたサンプルイメージから使用者または客体を認識することができる(S219)。
【0074】
このように、使用者映像全体ではなく使用者映像で抽出された一部サンプルイメージに対して使用者または客体を認識する場合、映像分析の対象が縮小され、これに伴い、背景決定に要する時間を最小化できる利点がある。
【0075】
一方、
図6で段階S213~S215は実施例によっては省略されてもよい。
【0076】
【0077】
映像分析部120は認識された使用者または客体を分析してカテゴリーを抽出することができる(S220)。
【0078】
映像分析部120は検出された客体それぞれをラベリングした後、ラベリングされた客体それぞれで特徴を抽出することができる。例えば、映像分析部120は使用者映像で、顔、手、腕、目などを感知してラベリングした後、喜び、悲しみ、怒り、驚き、自信感などのような特徴を抽出することができる。
【0079】
図5の例示において、映像分析部120は顔イメージの属性として自信感、喜びを抽出し、ポーズの属性としてファイティングを抽出することができる。すなわち、映像分析部120は
図5の例示イメージに対応するカテゴリーで自信感、喜び、ファイティングを抽出することができる。
【0080】
カテゴリーは、使用者映像の分析の結果、分類された使用者映像の特徴の部類を意味し得る。
【0081】
一方、前述した方法は説明の便宜のための例示に過ぎず、映像分析部120はVision API以外の他の方法を利用して使用者映像を分析してもよい。
【0082】
【0083】
背景決定部130は使用者映像を分析した結果に基づいて背景映像を決定することができる(S30)。
【0084】
図7は、
図3の段階S30が具体化されたフローチャートである。すなわち、
図7は本発明の一実施例に係る背景決定部130が背景映像を決定する方法が図示されたフローチャートである。
【0085】
まず、背景データベース140には複数の背景映像が保存されており、複数の背景映像それぞれに対するインデックスがマッピングされていてもよい。
【0086】
図8は、本発明の一実施例に係る背景データベースに背景映像が保存される方式の一例が図示された図面である。
【0087】
図8の例示に図示された通り、背景データベース140は複数の背景映像を含み、複数の背景映像それぞれには少なくとも一つのインデックスがマッピングされている。
【0088】
【0089】
背景決定部130は、使用者映像の分析の結果、抽出されたカテゴリーと一致するインデックスを有する背景映像を推薦背景映像として背景データベース140から獲得することができる(S310)。
【0090】
一例として、背景決定部130は使用者映像の分析の結果、抽出されたカテゴリーが「ファイティング」である場合、1番の背景映像を推薦背景映像として獲得することができる。他の例として、背景決定部130は使用者映像の分析の結果、抽出されたカテゴリーが「喜び」である場合、1番の背景映像と2番の背景映像を推薦背景映像として獲得することができる。さらに他の例として、背景決定部130は使用者映像の分析の結果、抽出されたカテゴリーが「驚き」である場合、3番の背景映像を推薦背景映像として獲得することができる。
【0091】
【0092】
背景決定部130は推薦背景映像に対する情報を使用者端末1に伝送することができる(S320)。
【0093】
使用者端末1は推薦背景映像に対する情報を受信すれば、推薦背景映像に対する情報を表示して使用者から推薦背景映像のうち少なくとも一つの選択を受けることができる。使用者端末1は推薦背景映像のうち選択された背景映像に対する情報をエモーティコン生成装置100に伝送することができる。
【0094】
背景決定部130は使用者端末1から選択された背景映像に対する情報を受信することができる(S330)。
【0095】
背景決定部130は選択された背景映像を合成される背景映像として決定することができる(S340)。
【0096】
【0097】
エモーティコン生成部150は、使用者映像から抽出された使用者または客体と背景映像を合成した合成エモーティコンを生成することができる(S40)。
【0098】
本発明の一実施例によると、エモーティコン生成部150は使用者端末1を通じて選択された背景映像に使用者映像から抽出された使用者または客体を合成することによって合成エモーティコンを生成することができ、このとき使用者または客体は背景映像に設定された合成ガイドラインにしたがって大きさまたは位置が調節され得る。このような合成ガイドラインは、使用者端末1がエモーティコン生成のための使用者映像撮影時に使用者端末1に表示されてもよい。また、このような合成ガイドラインは使用者端末1を通じて推薦背景映像のうちいずれか一つが選択される時にも表示され、この場合には使用者から合成ガイドラインの修正情報の入力を受けてもよく、合成ガイドラインの修正情報が入力された場合には使用者または客体が合成される位置もしくは大きさが修正されてもよい。
【0099】
これに伴い、エモーティコン生成装置100はより多様に使用者オーダーメード型エモーティコンを生成可能な利点がある。
【0100】
次に、
図9は本発明の一実施例に係るエモーティコン生成部が生成した合成エモーティコンの例示図である。
【0101】
図9に図示された通り、エモーティコン生成部150は使用者映像から抽出された使用者または客体1011、1021、1031を背景映像1012、1022、1032と合成して合成エモーティコンを生成することができる。
【0102】
【0103】
エモーティコン伝送部160は生成された合成エモーティコンを使用者端末1に伝送することができる(S50)。
【0104】
図10は、本発明の一実施例に係るエモーティコン生成装置で生成されたエモーティコンが使用者端末で使われる一例が図示された図面である。
【0105】
図10に図示された例示のように、使用者は使用者端末100を通じてメッセンジャー上でエモーティコン生成装置100で生成された合成エモーティコンを送受信することができる。また、
図10にはメッセンジャーでエモーティコンが使われる例示のみが図示されているが、エモーティコン生成装置100で生成されたエモーティコンはSNSなどの多様なアプリケーション内で使われ得る。
【0106】
前述した本発明は、プログラムが記録された媒体のコンピュータ読み取り可能なコードで具現することが可能である。コンピュータ読み取り可能媒体は、コンピュータシステムによって読み取り可能データが保存されるすべての種類の記録装置を含む。コンピュータ読み取り可能媒体の例としては、HDD(Hard Disk Drive)、SSD(Solid State Disk)、SDD(Silicon Disk Drive)、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光データ保存装置などがある。また、前記コンピュータはエモーティコン生成装置100の構成要素を含んでもよい。したがって、前記の詳細な説明はすべての面で制限的に解釈されてはならず、例示的なものと考慮されるべきである。本発明の範囲は添付された請求項の合理的解釈によって決定されるべきであり、本発明の等価的範囲内でのすべての変更は本発明の範囲に含まれる。