IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ライン プラス コーポレーションの特許一覧

特許7357706アバター生成装置およびコンピュータプログラム
<>
  • 特許-アバター生成装置およびコンピュータプログラム 図1
  • 特許-アバター生成装置およびコンピュータプログラム 図2
  • 特許-アバター生成装置およびコンピュータプログラム 図3
  • 特許-アバター生成装置およびコンピュータプログラム 図4
  • 特許-アバター生成装置およびコンピュータプログラム 図5
  • 特許-アバター生成装置およびコンピュータプログラム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-09-28
(45)【発行日】2023-10-06
(54)【発明の名称】アバター生成装置およびコンピュータプログラム
(51)【国際特許分類】
   G06T 11/80 20060101AFI20230929BHJP
   G06T 1/00 20060101ALI20230929BHJP
   G06T 3/00 20060101ALI20230929BHJP
   G06T 7/00 20170101ALI20230929BHJP
【FI】
G06T11/80 A
G06T1/00 340A
G06T3/00 770
G06T7/00 350C
【請求項の数】 23
(21)【出願番号】P 2022025411
(22)【出願日】2022-02-22
(62)【分割の表示】P 2020555875の分割
【原出願日】2018-04-13
(65)【公開番号】P2022060420
(43)【公開日】2022-04-14
【審査請求日】2022-03-23
(73)【特許権者】
【識別番号】516014409
【氏名又は名称】ライン プラス コーポレーション
【氏名又は名称原語表記】LINE Plus Corporation
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【弁理士】
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】クォン,スンホ
(72)【発明者】
【氏名】ユ,グムリョン
(72)【発明者】
【氏名】イム,ヨンソン
(72)【発明者】
【氏名】キム,ジョンフン
【審査官】粕谷 満成
(56)【参考文献】
【文献】特開2001-292305(JP,A)
【文献】特開2005-004342(JP,A)
【文献】特開2017-084192(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 11/80
G06T 1/00
G06T 3/00
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
アバター生成装置であって、
人間の顔ではない顔を含む多数のイメージそれぞれに対し、前記人間の顔ではない顔を数値化した第1測定値集合を生成する手段、
前記多数のイメージから得られるイメージ分類ごとに対応する第1測定値集合をデータベースに記録する手段、
前記イメージ分類ごとに基本モデルを生成する手段、
人間の顔を数値化した第2測定値集合を受信して前記データベースに記録された第1測定値集合と比較することにより、前記人間の顔に対応するイメージ分類を決定する手段、および
前記決定されたイメージ分類に対応して生成された基本モデルを確認する手段
を含む、アバター生成装置。
【請求項2】
前記第1測定値集合は、前記人間の顔ではない顔に対する顔構成要素として予め定義された特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出することにより生成され、
前記第2測定値集合は、前記人間の顔に対する顔構成要素として、前記特徴それぞれに対して前記測定項目ごとに測定値を抽出することにより生成される、
請求項1に記載のアバター生成装置。
【請求項3】
前記第1測定値集合を生成する手段は、
ディープラーニングモデルを利用して前記多数のイメージを分析し、前記多数のイメージそれぞれが含む顔を分類して前記イメージ分類を決定する手段
を含む、請求項1又は2に記載のアバター生成装置。
【請求項4】
前記基本モデルを生成する手段は、
前記データベースにおいて同じイメージ分類と連係されて記録された第1測定値集合で互いに対応する要素の平均値を計算し、前記計算された平均値の集合に基づいて前記基本モデルを生成する、請求項1~3のうちの何れか1項に記載のアバター生成装置。
【請求項5】
前記イメージ分類を決定する手段は、
前記第2測定値集合を前記データベースに記録された第1測定値集合と順に比較し、類似度が高い順にm個の測定値集合に対応するn(nは自然数)個の動物分類を決定する手段
を含み、
前記基本モデルを確認する手段は、
前記n個のイメージ分類それぞれに対して生成されたn個の基本モデルを確認する、請求項1~4のうちの何れか1項に記載のアバター生成装置。
【請求項6】
前記確認されたn個の基本モデルを合成することによって最終モデルが生成される、請求項5に記載のアバター生成装置。
【請求項7】
前記人間の顔に対応するアバターを提供するために、前記確認された基本モデルを前記人間の顔に対応させて処理する手段をさらに有する請求項1に記載のアバター生成装置。
【請求項8】
前記確認された基本モデルを前記人間の顔に対応させて処理する手段は、
前記確認された基本モデルに該当する数値を前記第2測定値集合に基づいて修正し、前記確認された基本モデルを前記人間の顔に合わせてカスタマイズする、請求項7に記載のアバター生成装置。
【請求項9】
アバター生成装置であって、
ユーザ端末からネットワークを介して人間の顔が含まれたイメージを受信する手段、
前記イメージに含まれた人間の顔を数値化して第1測定値集合を生成する手段、
人間の顔ではない顔を含む多数のイメージそれぞれに対し、前記人間の顔ではない顔を数値化した第2測定値集合を生成し、前記多数のイメージから得られるイメージ分類ごとに対応する前記生成された第2測定値集合をデータベースに記録する手段、
前記イメージ分類ごとに基本モデルを生成する手段、
前記第2測定値集合がイメージ分類ごとに記録された前記データベースと前記第1測定値集合に基づいて選択されたイメージ分類に対する基本モデルを決定する手段、および
前記人間の顔に対応するアバターを提供するために、前記基本モデルまたは前記基本モデルによって生成される最終モデルを前記ユーザ端末と共有する手段
を含む、アバター生成装置。
【請求項10】
前記第1測定値集合は、前記人間の顔に対する顔構成要素として予め定義された特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出することにより生成され、
前記第2測定値集合は、前記人間の顔ではない顔に対する顔構成要素として、前記特徴それぞれに対し、前記測定項目ごとに測定値を抽出することにより生成される、請求項9に記載のアバター生成装置。
【請求項11】
前記イメージ分類は、前記第1測定値集合を前記データベースに記録された第2測定値集合と比較し、類似度が高い順に選択されたm個の第2測定値集合に対応するn(nは自然数)個のイメージ分類を含み、
前記基本モデルは、前記n個のイメージ分類それぞれに対して生成されたn個の基本モデルを含む、請求項9又は10に記載のアバター生成装置。
【請求項12】
前記ユーザ端末と共有する手段は、
前記n個の基本モデルを合成して前記最終モデルを生成する手段
を含む、請求項11に記載のアバター生成装置。
【請求項13】
前記基本モデルに対する第2測定値集合は、前記第1測定値集合を利用して修正され、
前記基本モデルは、前記修正された第2測定値集合を利用して前記人間の顔に合わせてカスタマイズされる、請求項9~12のうちの何れか1項に記載のアバター生成装置。
【請求項14】
前記共有する手段は、
前記ユーザ端末においてレンダリングによってアバターが表現されるように、前記基本モデルまたは前記最終モデルをネットワークを介して前記ユーザ端末に送信する、請求項9~13のうちの何れか1項に記載のアバター生成装置。
【請求項15】
前記人間の顔ではない顔は、動物の顔である、請求項1または9に記載のアバター生成装置。
【請求項16】
アバター生成方法をコンピュータに実行させるコンピュータプログラムであって、前記アバター生成方法は、
人間の顔ではない顔を含む多数のイメージそれぞれに対し、前記人間の顔ではない顔を数値化した第1測定値集合を生成する段階、
前記多数のイメージから得られるイメージ分類ごとに対応する第1測定値集合をデータベースに記録する段階、
前記イメージ分類ごとに基本モデルを生成する段階、
人間の顔を数値化した第2測定値集合を受信して前記データベースに記録された第1測定値集合と比較することにより、前記人間の顔に対応する動物分類を決定する段階、および
前記決定されたイメージ分類に対応して生成された基本モデルを確認する段階
を含む、コンピュータプログラム。
【請求項17】
前記アバター生成方法は、前記人間の顔に対応する動物形状のアバターを提供するために、前記確認された基本モデルを前記人間の顔に対応させて処理する段階を更に含む、請求項16に記載のコンピュータプログラム。
【請求項18】
アバター生成方法をコンピュータに実行させるコンピュータプログラムであって、前記アバター生成方法は、
ユーザ端末からネットワークを介して人間の顔が含まれたイメージを受信する段階、
前記イメージに含まれた人間の顔を数値化して第1測定値集合を生成する段階を含み、前記アバター生成方法は、
人間の顔ではない顔を含む多数のイメージそれぞれに対し、前記人間の顔ではない顔を数値化した第2測定値集合を生成し、前記多数のイメージから得られるイメージ分類ごとに対応する前記生成された第2測定値集合を記録してデータベースを構築し、前記イメージ分類ごとに基本モデルを生成する段階、
前記第2測定値集合がイメージ分類ごとに記録された前記データベースと前記第1測定値集合に基づいて選択されたイメージ分類に対する基本モデルを決定する段階、および
前記人間の顔に対応するアバターを提供するために、前記基本モデルまたは前記基本モデルによって生成される最終モデルを前記ユーザ端末と共有する段階を含む、コンピュータプログラム。
【請求項19】
アバター生成方法をコンピュータに実行させるコンピュータプログラムであって、
前記アバター生成方法は、
人間の顔が含まれたイメージを生成または選択する段階、
前記選択されたイメージをネットワークを介してサーバに送信する段階、
前記イメージに含まれる人間の顔を数値化して生成された第1測定値集合と人間の顔ではない顔を含むイメージに含まれる顔を数値化して生成された第2測定値集合との比較によって選択された選択モデルを前記サーバから受信する段階、および
前記受信した選択モデルをレンダリングして生成されたアバターを画面に表示する段階
を含み、前記サーバは、人間の顔ではない顔を含む多数のイメージそれぞれに対し、前記人間の顔ではない顔を数値化した前記第2測定値集合を生成し、前記多数のイメージから得られるイメージ分類ごとに対応する第2測定値集合を記録してデータベースを構築し、前記イメージ分類ごとに基本モデルを生成する、コンピュータプログラム。
【請求項20】
前記選択モデルは、前記第1測定値集合と前記第2測定値集合との比較によって選択された基本モデルに該当する数値を前記第2測定値集合に基づいて修正し、前記基本モデルを前記人間の顔に合わせてカスタマイズしたモデルを含む、請求項19に記載のコンピュータプログラム。
【請求項21】
前記選択モデルは、前記第1測定値集合と前記第2測定値集合との比較によって選択されたn個の基本モデルを合成して生成される、請求項19又は20に記載のコンピュータプログラム。
【請求項22】
前記選択モデルは、基本モデルによって生成され、
前記基本モデルは、前記サーバにおいて、前記第2測定値集合に基づいて前記イメージ分類ごとに生成される、請求項19に記載のコンピュータプログラム。
【請求項23】
前記人間の顔ではない顔は、動物の顔である、請求項16、18または19に記載のコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
以下の説明は、人間の顔を利用した動物形状のアバターを生成する方法およびシステムに関し、より詳細には、人間の顔が含まれたイメージを分析して人間の顔に対応する動物形状のアバターを自動で生成するアバター生成方法、アバター生成方法を実行するコンピュータ装置、コンピュータと結合してアバター生成方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムとその記録媒体に関する。
【背景技術】
【0002】
アバター(avatar)とは、サイバー空間でユーザの分身を表す視覚的イメージであって、コミュニティーサイト、インターネットチャット、ショッピングモール、オンラインゲームなどでユーザの代わりに表示される仮想グラフィックキャラクタを意味する。例えば、韓国公開特許第10-2007-0036857号公報は、ユーザ基盤のアバター生成方法に関するものであって、3Dスキャナによってユーザをスキャンしてパターンデータを生成し、生成されたパターンデータを利用してユーザの3Dアバターイメージを生成する技術を開示している。
【先行技術文献】
【特許文献】
【0003】
【文献】韓国公開特許第10-2007-0036857号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
本願の課題は、人間の顔が含まれたイメージを分析して人間の顔に対応する動物形状のアバターを自動で生成するアバター生成方法、アバター生成方法を実行するコンピュータ装置、コンピュータと結合してアバター生成方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムとその記録媒体などを提供することである。
【課題を解決するための手段】
【0005】
動物の顔を含む多数の動物イメージそれぞれに対し、前記動物の顔を数値化した第1測定値集合を生成する段階、前記多数の動物イメージから得られる動物分類ごとに対応する第1測定値集合をデータベースに記録する段階、前記動物分類ごとに基本モデルを生成する段階、人間の顔を数値化した第2測定値集合を受信して前記データベースに記録された第1測定値集合と比較することにより、前記人間の顔に対応する動物分類を決定する段階、前記決定された動物分類に対応して生成された基本モデルを確認する段階、および前記人間の顔に対応する動物形状のアバターを提供するために、前記確認された基本モデルを前記人間の顔に対応させて処理する段階を含む、アバター生成方法を提供する。
【0006】
一側面によると、前記第1測定値集合は、前記動物の顔に対する顔構成要素として予め定義された特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出することにより生成されてよく、前記第2測定値集合は、前記人間の顔に対する顔構成要素として、前記特徴それぞれに対して前記測定項目ごとに測定値を抽出することにより生成されてよい。
【0007】
他の側面によると、前記第1測定値集合を生成する段階は、ディープラーニングモデルを利用して前記多数の動物イメージを分析し、前記多数の動物イメージそれぞれが含む動物を分類して前記動物分類を決定する段階を含んでよい。
【0008】
また他の側面によると、前記基本モデルを生成する段階は、前記データベースに同じ動物分類と連係されて記録された第1測定値集合で互いに対応する要素の平均値を計算し、前記計算された平均値の集合に基づいて前記基本モデルを生成してよい。
【0009】
また他の側面によると、前記動物分類を決定する段階は、前記第2測定値集合を前記データベースに記録された第1測定値集合と順に比較し、類似度が高い順にm個の測定値集合に対応するn(nは自然数)個の動物分類を決定する段階を含んでよく、前記基本モデルを確認する段階は、前記n個の動物分類それぞれに対して生成されたn個の基本モデルを確認してよい。
【0010】
また他の側面によると、前記確認されたn個の基本モデルを合成することによって最終モデルが生成されてよい。
【0011】
さらに他の側面によると、前記確認された基本モデルを前記人間の顔に対応させて処理する段階は、前記確認された基本モデルに該当する数値を前記第2測定値集合に基づいて修正し、前記確認された基本モデルを前記人間の顔に合わせてカスタマイズしてよい。
【0012】
ユーザ端末からネットワークを介して人間の顔が含まれたイメージを受信する段階、前記イメージに含まれた人間の顔を数値化して第1測定値集合を生成する段階、前記第1測定値集合を分析サーバに伝達する段階、動物イメージを分析して動物の顔を数値化することによって生成された第2測定値集合が動物分類ごとに記録されたデータベースと前記伝達された第1測定値集合に基づいて選択された動物分類に対する基本モデルを前記分析サーバから受信する段階、および前記人間の顔に対応する動物形状のアバターを提供するために、前記基本モデルまたは前記基本モデルによって生成される最終モデルを前記ユーザ端末と共有する段階を含む、アバター生成方法を提供する。
【0013】
人間の顔が含まれたイメージを生成または選択する段階、前記選択されたイメージをネットワークを介してサーバに送信する段階、前記イメージが含む人間の顔を数値化して生成された第1測定値集合と動物イメージが含む動物の顔を数値化して生成された第2測定値集合との比較によって選択された動物モデルを前記サーバから受信する段階、および前記受信した動物モデルをレンダリングして生成された動物アバターを画面に表示する段階を含む、アバター生成方法を提供する。
【0014】
コンピュータと結合して前記制御方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録された、コンピュータプログラムを提供する。
【0015】
前記制御方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータ読み取り可能な記録媒体を提供する。
【0016】
コンピュータ装置で読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、動物の顔を含む多数の動物イメージそれぞれに対して前記動物の顔を数値化した第1測定値集合を生成し、前記多数の動物イメージから得られる動物分類ごとに対応する第1測定値集合をデータベースに記録し、前記動物分類ごとに基本モデルを生成し、人間の顔を数値化した第2測定値集合を受信して前記データベースに記録された第1測定値集合と比較することによって前記人間の顔に対応する動物分類を決定し、前記決定された動物分類に対応して生成された基本モデルを確認し、前記人間の顔に対応する動物形状のアバターを提供するために、前記確認された基本モデルを前記人間の顔に対応させて処理する、コンピュータ装置を提供する。
【0017】
コンピュータ装置で読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、ユーザ端末からネットワークを介して人間の顔が含まれたイメージを受信し、前記イメージに含まれた人間の顔を数値化して第1測定値集合を生成し、前記第1測定値集合を分析サーバに伝達し、動物イメージを分析して動物の顔を数値化することによって生成された第2測定値集合が動物分類ごとに記録されたデータベースと前記伝達された第1測定値集合によって選択された動物分類に対する基本モデルを前記分析サーバから受信し、前記人間の顔に対応する動物形状のアバターを提供するために、前記基本モデルまたは前記基本モデルによって生成される最終モデルを前記ユーザ端末と共有する、コンピュータ装置を提供する。
【0018】
コンピュータ装置で読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、人間の顔が含まれたイメージを生成または選択する段階、前記選択されたイメージをネットワークを介してサーバに送信する段階、前記イメージが含む人間の顔を数値化して生成された第1測定値集合と動物イメージが含む動物の顔を数値化して生成された第2測定値集合との比較によって選択された動物モデルを前記サーバから受信する段階、および前記受信した動物モデルをレンダリングして生成された動物アバターを画面に表示する、コンピュータ装置を提供する。
【発明の効果】
【0019】
人間の顔が含まれたイメージを分析して、人間の顔に対応する動物形状のアバターを自動で生成することができる。
【図面の簡単な説明】
【0020】
図1】本発明の一実施形態における、ネットワーク環境の例を示した図である。
図2】本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。
図3】本発明の一実施形態における、アバター生成過程の例を示したフローチャートである。
図4】本発明の一実施形態における、イメージを数値化する例を示した図である。
図5】本発明の一実施形態における、イメージを数値化する例を示した図である。
図6】本発明の一実施形態における、モデル合成過程の例を示した図である。
【発明を実施するための形態】
【0021】
以下、本発明の実施形態について、添付の図面を参照しながら詳しく説明する。
【0022】
本発明の実施形態に係る制御方法は、以下で説明する電子デバイスのようなコンピュータ装置によって実現されてよい。このとき、コンピュータ装置においては、本発明の一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行されるコンピュータプログラムの制御にしたがって本発明の実施形態に係る制御方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合して前記制御方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されてよい。
【0023】
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子デバイス110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子デバイスの数やサーバの数が図1のように限定されることはない。
【0024】
複数の電子デバイス110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子デバイス110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型パンコン、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子デバイス1(110)の例としてスマートフォンを示しているが、本発明の実施形態において、電子デバイス1(110)は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子デバイス120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータ装置のうちの1つを意味してよい。
【0025】
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を利用する通信方式だけではなく、デバイス間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これに限定されることはない。
【0026】
サーバ150、160それぞれは、複数の電子デバイス110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子デバイス110、120、130、140にサービス(一例として、コンテンツ提供サービス、ソーシャルネットワークサービス、メッセージングサービス、検索サービス、メールサービスなど)を提供するシステムであってよい。
【0027】
上述した図1では、サーバとクライアントの通信環境の例について説明しているが、これは一実施形態に過ぎず、本発明の実施形態に係る制御方法は、複数の電子デバイス110、120、130、140それぞれで個別に実行されてもよい。例えば、図1の実施形態に係る制御方法は、電子デバイス110がサーバ150からコンテンツの提供を受けてメディアプレイヤで再生する場合についての説明であってよい。他の実施形態では、電子デバイス110がサーバ150とは通信せず、電子デバイス110のローカル保存場所に保存されたコンテンツをメディアプレイヤで再生する場合を含んでよい。
【0028】
図2は、本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。上述した複数の電子デバイス110、120、130、140それぞれやサーバ150、160それぞれは、図2に示したコンピュータ装置200によって実現されてよい。例えば、コンピュータ装置200においては、一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行されるコンピュータプログラムの制御にしたがって本発明の一実施形態に係る音源再生共有方法を実行してよい。
【0029】
このようなコンピュータ装置200は、図2に示すように、メモリ210、プロセッサ220、通信インタフェース230、および入力/出力インタフェース240を含んでよい。メモリ210は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記録装置は、メモリ210とは区分される別の永続的記録装置としてコンピュータ装置200に含まれてもよい。また、メモリ210には、オペレーティングシステムと、少なくとも1つのプログラムコードが記録されてよい。このようなソフトウェア構成要素は、メモリ210とは別のコンピュータ読み取り可能な記録媒体からメモリ210にロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピードライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信インタフェース230を通じてメモリ210にロードされてもよい。例えば、ソフトウェア構成要素は、ネットワーク170を介して受信されるファイルによってインストールされるコンピュータプログラムに基づいてコンピュータ装置200のメモリ210にロードされてよい。
【0030】
プロセッサ220は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ210または通信インタフェース230によって、プロセッサ220に提供されてよい。例えば、プロセッサ220は、メモリ210のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
【0031】
通信インタフェース230は、ネットワーク170を介してコンピュータ装置200が他の装置(一例として、上述した記録装置)と互いに通信するための機能を提供してよい。一例として、コンピュータ装置200のプロセッサ220がメモリ210のような記録装置に記録されたプログラムコードにしたがって生成した要求や命令、データ、ファイルなどが、通信インタフェース230の制御にしたがってネットワーク170を介して他の装置に伝達されてよい。これとは逆に、他の装置からの信号や命令、データ、ファイルなどが、ネットワーク170を経てコンピュータ装置200の通信インタフェース230を通じてコンピュータ装置200に受信されてよい。通信インタフェース230を通じて受信された信号や命令、データなどは、プロセッサ220やメモリ210に伝達されてよく、ファイルなどは、コンピュータ装置200がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。
【0032】
入力/出力インタフェース240は、入力/出力装置250とのインタフェースのための手段であってよい。例えば、入力装置は、マイク、キーボード、またはマイクなどの装置を、出力装置は、ディスプレイ、スピーカのような装置を含んでよい。他の例として、入力/出力インタフェース240は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置250は、コンピュータ装置200と1つの装置で構成されてもよい。
【0033】
また、他の実施形態において、コンピュータ装置200は、図2の構成要素よりも少ないか多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、コンピュータ装置200は、上述した入力/出力装置250のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、データベースなどのような他の構成要素をさらに含んでもよい。
【0034】
図3は、本発明の一実施形態における、アバター生成方法の例を示したフローチャートである。図3の実施形態に係るアバター生成方法は、ユーザ端末310、フロントサーバ320、および分析サーバ330によって実行される全体的な過程の例を示している。ここで、ユーザ端末310は、上述した複数の電子デバイス110、120、130、140のうちのいずれか1つのように、アバター生成方法のためのコンピュータプログラムがインストールされて実行される物理的な装置に対応してよく、フロントサーバ320と分析サーバ330は、上述したサーバ150、160に対応してよい。上述したように、複数の電子デバイス110、120、130、140それぞれとサーバ150、160それぞれは、図2で説明したコンピュータ装置200によって実現されてよい。実施形態によって、フロントサーバ320と分析サーバ330は、1つの物理的な装置によって実現されてもよいし、フロントサーバ320および/または分析サーバ330が互いに連係する2つ以上の物理的な装置によって実現されてもよい。
【0035】
段階311で、ユーザ端末310は、イメージを生成または選択してよい。例えば、ユーザ端末310は、ユーザ端末310に含まれるカメラによってイメージをキャプチャするか、またはユーザ端末310に含まれるローカル保存場所に保存されたイメージからユーザが選択したイメージを確認してよい。
【0036】
段階312で、ユーザ端末310は、イメージをアップロードしてよい。例えば、ユーザ端末310は、段階311で生成または選択されたイメージを、ネットワーク170を介してフロントサーバ320に送信してよい。
【0037】
より具体的な例として、ユーザ端末310は、ユーザ端末310においてインストールされて実行されたアプリケーションの制御にしたがい、カメラを駆動させてイメージをキャプチャするための機能、またはユーザ端末310のローカル保存場所に保存されたイメージから少なくとも1つを選択するための機能をユーザに提供してよく、このような機能を利用して生成または選択されるイメージをフロントサーバ320にアップロードしてよい。
【0038】
段階321で、フロントサーバ320は、イメージを数値化してよい。例えば、フロントサーバ320は、ユーザ端末310から受信したイメージを分析し、イメージが含む人間の顔に対する顔構成要素を数値化してよい。数値化は、一例として、顔構成要素として予め定義された特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出する形態で実現されてよい。より具体的な例として、顔構成要素として予め定義された特徴は、目、鼻、口、顔型などから選択されてよく、予め定義された測定項目は、面積、割合、角度、長さなどから選択されてよい。実施形態によって、1つの特徴が1つ以上の細部特徴で構成されてもよい。例えば、特徴「目」は、「左目」と「右目」の細部特徴で構成されてもよいし、「左目」、「左目尻」、「右目」、および「右目尻」などの細部特徴で構成されてもよい。このとき、特徴(または細部特徴)に対して要求される測定項目は、面積、割合、および角度のようにすべて同じ測定項目を含んでもよいが、実施形態によっては要求される測定項目が異なってもよい。例えば、特徴「目」に対しては幅と高さが、細部特徴「左目尻」に対しては角度が、特徴として要求されてよい。測定項目として算出される測定値は、物理的な単位の実際値よりは、基準に沿った相対的な値として測定されてよい。例えば、目の幅や目と目の間の距離は、顔の幅に対する相対的な値で計算されてよく、目の高さは、顔の長さに対する相対的な値で計算されてよい。測定値は、特徴/測定項目ごとに抽出された多数の値の集合(以下、「測定値集合」)を形成してよい。
【0039】
段階322で、フロントサーバ320は、測定値を分析サーバ330に伝達してよい。例えば、フロントサーバ320は、段階321でイメージを数値化することによって抽出される測定値集合を、分析サーバ330に送信してよい。
【0040】
段階331で、分析サーバ330は、動物イメージを数値化してよい。例えば、分析サーバ330は、段階321でフロントサーバ320がイメージに含まれた人間の顔を数値化する方式と同じ方式により、イメージに含まれた動物の顔を数値化してよい。例えば、分析サーバ330は、顔構成要素として予め定義された動物の顔の特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出して測定値集合を生成する形態により、動物イメージに対する数値化を実現してよい。また、動物イメージが含む動物の種類を分類するために、ディープラーニング(deep learning)が活用されてよい。例えば、分析サーバ330は、入力される動物イメージを分析して動物イメージに含まれた動物の種類を分類するように学習されたCNN(Convolutional Neural Network)のようなディープラーニングモデルにより、多数の動物イメージそれぞれから導き出される動物の分類を生成してよい。
【0041】
段階332で、分析サーバ330は、データベースを構築してよい。例えば、分析サーバ330は、上述したディープラーニングによって動物イメージが含む動物を分類し、動物分類ごとに抽出された測定値集合を記録するようにデータベースを構築してよい。
【0042】
段階333で、分析サーバ330は、分類された動物ごとに基本モデルを生成してよい。例えば、犬、猫、うさぎなどのような動物ごとに基本モデルが生成されてよい。動物がより具体的に分類される場合には、同じ種類の動物が細部種類に分けられてもよい。例えば、犬の場合、犬の多様な種類に応じて細部分類が行われる場合には、それぞれの細部分類ごとに基本モデルが生成されてよい。また、子犬と成犬のような細部分類ごとに基本モデルが生成されてもよい。一例として、基本モデルは、データベースに記録された測定値集合に基づいて生成されてよい。1つの動物分類に対してデータベースに2つ以上の測定値集合が記録されている場合には、2つ以上の測定値集合において互いに対応する要素の平均値を計算し、計算された平均値の集合に基づいて基本モデルが生成されてよい。
【0043】
このような段階331~333は、上述した段階311、312、321、322と並列的に実行されてよく、上述した段階311、312、321、322の開始前にデータベースが予め構築されて基本モデルが生成されてよい。
【0044】
段階334で、分析サーバ330は、基本モデルを選択してよい。例えば、分析サーバ330は、フロントサーバ320から受信した測定値集合をデータベースに記録された測定値集合と順に比較していき、最も類似するm(mは自然数)個の測定値集合を決定してよく、このようなm個の測定値集合に対応するn(nはm以下の自然数)個の動物分類を決定してよい。言い換えれば、分析サーバ330は、人間の顔を数値化した測定値集合を受信し、データベースに記録された測定値集合と比較することにより、人間の顔に対応する動物分類を決定してよい。m個の測定値集合に同じ動物分類に対応する2つ以上の測定値集合が存在する場合には、該当の2つ以上の測定値集合に対して1つの動物分類が決定されるため、決定される動物分類の数は、決定される測定値集合の数と同じであるか少ない。また、分析サーバ330は、決定されたn個の動物分類に対応するn個の基本モデルを選択してよい。実施形態によって、分析サーバ330は、測定値集合が最も類似する1つの測定値集合にしたがって1つの基本モデルを選択および提供してもよく、n個の基本モデルを選択および提供してフロントサーバ320やユーザ端末310がn個の基本モデルから1つを選択するようにしてもよく、以下で説明する実施形態のように、n個の基本モデルを合成して新たな動物モデルを生成してもよい。
【0045】
段階335で、分析サーバ330は、基本モデルをカスタマイズしてよい。言い換えれば、分析サーバ330は、人間の顔に対応する動物形状のアバターを提供するために確認された基本モデルを、人間の顔に対応させて処理してよい。例えば、分析サーバ330は、フロントサーバ320から受信した測定値集合によって基本モデルの顔構成要素の項目ごとに値を調節することにより、基本モデルを目標とする人間の顔に合わせてカスタマイズしてよい。言い換えれば、目標とする人間の顔特徴を基本モデルに適用させるのである。このとき、段階334で選択されたn個の基本モデルそれぞれがカスタマイズされてよく、カスタマイズされたn個の基本モデルはフロントサーバ320に伝達されてよい。
【0046】
また、実施形態によって、カスタマイズは、フロントサーバ320で実行されてもよい。例えば、段階334で、分析サーバ330は、選択されたn個の基本モデルをフロントサーバ320に送信してよく、フロントサーバ320がn個の基本モデルそれぞれを段階331で計算された数値を基にしてカスタマイズしてよい。この場合、フロントサーバ320は、人間の顔を数値化した測定値集合によって基本モデルに該当する数値を修正することにより、基本モデルを人間の顔に合うようにカスタマイズしてよい。
【0047】
段階323で、フロントサーバ320は、最終モデルを生成してよい。一実施形態として、フロントサーバ320は、カスタマイズされたn個の基本モデルを互いに合成した、まったく新しい動物モデルを最終モデルとして生成してよい。他の実施形態として、フロントサーバ320は、単にn個の基本モデルそれぞれを最終モデルとして生成してもよい。一方、カスタマイズされたn個の基本モデルは、最終モデルの生成に使用されるだけでなく、その測定値集合とともにデータベースに記録され、以後に他のアバターを生成するときに使用されてもよい。
【0048】
段階324で、フロントサーバ320は、最終モデルを共有してよい。例えば、フロントサーバ320は、最終モデルをネットワーク170を介してユーザ端末310に送信し、生成された最終モデルを共有してよい。言い換えれば、フロントサーバ320は、人間の顔に対応する動物形状のアバターを提供するために、基本モデルまたは基本モデルによって生成される最終モデルをユーザ端末310と共有してよい。例えば、カスタマイズや合成が適用されていない場合には、基本モデルをユーザ端末310に提供してよく、カスタマイズや合成が適用された場合には、カスタマイズや合成が適用された最終モデルをユーザ端末310に提供してよい。
【0049】
段階313で、ユーザ端末320は、最終モデルをレンダリングしてよい。例えば、ユーザ端末320は、フロントサーバ320から動物モデルを受信してよく、モデリングされた動物モデルを画面に実際に表示するための作業を処理してよい。言い換えれば、ユーザ端末320は、モデリングによって最終的に生成されたグラフィック要素を画面に表示することにより、段階311で生成または選択されたイメージに含まれたユーザの顔に対応する動物アバターを生成および表示することができるようになる。一方、実施形態によって、ユーザ端末320は、レンダリングの前に、上述したアプリケーションの制御にしたがい、最終モデルをもう一度カスタマイズする機能をユーザに提供してもよい。この場合、ユーザは、提供される機能を利用して最終モデルの顔立ちなどをユーザの思いのままに修正してよく、最終的に修正された動物モデルがユーザ端末320によってレンダリングされて画面に表示されてよい。
【0050】
このように、本実施形態に係るアバター生成方法により、人間の顔が含まれたイメージを分析して、人間の顔に対応する動物形状のアバターを自動で生成することができる。このとき、生成される動物形状のアバターは、単に予め生成されている動物アバターのテンプレートにユーザの表情などを適用するのではなく、ユーザの顔と類似する動物を見つけ出し、該当の動物形状のアバターが自動で生成されるサービスを提供することができる。
【0051】
また、生成された動物アバターは、多様なポーズや表情、他の効果との結合により、複数のスタンプイメージを含むスタンプパッケージを生成するために利用されてよい。一方、ユーザ端末310で1つのイメージではない一例として、カメラに入力される連続的なフレームがフロントサーバ320に伝達される場合、フロントサーバ320は、連続的なフレームそれぞれから抽出される測定値集合を最終モデルに順に適用することにより、ユーザの顔の表情や行動がリアルタイムで動物アバターに適用されるサービスを提供してもよい。このように、自動で生成される動物アバターは、多様なサービスに活用することができる。
【0052】
図4および図5は、本発明の一実施形態における、イメージを数値化する例を示した図である。
【0053】
図4は、動物イメージの数値化の例として、「うさぎ」の顔が含まれた第1イメージ410、「猫」の顔が含まれた第2イメージ420、および「犬」の顔が含まれた第3イメージ430において、特徴である目、鼻、口、顔型それぞれに対し、項目として面積、割合、および回転(角度)それぞれに対する値を含む測定値集合を抽出した例を示している。このような第1イメージ410から抽出された測定値集合は表1(440)のように、第2イメージ420から抽出された測定値集合は表2(450)のように、第3イメージ430から抽出された測定値集合は表3(460)のように示されてよく、それぞれの動物分類と連係されてデータベースに記録されてよい。
【0054】
このような図4では、1つの動物に対して1つの測定値集合が抽出された例を示しているが、上述したように、同じ種類の動物であっても、細部種類や、子犬と成犬などのような成長程度などによって細部分類されてよく、それぞれの動物分類ごとに複数の測定値集合が抽出されてよい。このために、分析サーバ330は、多数の動物イメージをディープラーニングによって分析して動物イメージの動物を分類してよく、それぞれの動物分類ごとに1つ以上の測定値集合を該当の動物分類と連係させて記録することにより、各動物分類の測定値集合に対するデータベースを構築してよい。一方、他の実施形態では、同じ動物分類に連係されてデータベースに記録された2つ以上の測定値集合が、各要素の平均値によって1つの測定値集合(以下、「平均測定値集合」)の形態で記録されてもよい。例えば、面積、割合、回転に対する項目が存在する場合、面積の平均値、割合の平均値、および回転の平均値がそれぞれ計算され、該当の動物分類に対応して記録されてよい。
【0055】
また、分析サーバ330は、それぞれの動物分類ごとに基本モデルを生成して管理してよい。図4の例では、「うさぎ」に対応する基本モデル、「猫」に対応する基本モデル、および「犬」に対応する基本モデルが、それぞれ生成および管理されてよい。このような基本モデルは、上述したように、対応する動物分類の測定値集合または平均測定値集合に基づいて生成されてよい。
【0056】
図5は、人間イメージを数値化する例として、人間の顔が含まれた第4イメージ510において、特徴である目、鼻、口、顔型それぞれに対し、項目として面積、割合、および回転(角度)それぞれに対する測定値を含む測定値集合を抽出した例を示している。このような測定値集合は、表4(520)のように抽出され、データベースに記録された測定値集合と順に比較されてよい。
【0057】
このとき、分析サーバ330は、測定値集合の比較により、第4イメージに含まれた人間の顔と最も類似する測定値集合をもつn個の動物分類を決定してよく、決定されたn個の動物分類に対応するn個の基本モデルを選択してよい。選択されたn個の基本モデルは、分析サーバ330またはフロントサーバ320でカスタマイズされてよい。カスタマイズには、上述した表4(520)の測定値が活用されてよい。上述したように、カスタマイズは、ユーザの選択にしたがい、ユーザ端末310で追加的に行われてもよい。
【0058】
基本モデルは、対応する動物分類をグラフィック的に実現するためのベクトルであってよい。上述したように、フロントサーバ320は、このようなベクトルの加重和によってn個の基本モデルを合成し、最終モデルを生成してよい。例えば、nが2であり、「犬」基本モデルの類似度が80%、「猫」基本モデルの類似度が20%と計算されたと仮定する。この場合、「犬」基本モデルに対する第1ベクトルと「猫」基本モデルに対する第2ベクトルに対し、それぞれの要素の加重和によって最終モデルに対する第3ベクトルが生成されてよい。例えば、第1ベクトルの1番目の要素がaであり、第2ベクトルの1番目の要素がbであるとき、第3ベクトルの1番目の要素は(0.8a+0.2b)と計算されてよい。このとき、0.8と0.2は、類似度80%と類似度20%に基づいて決定された加重値であってよい。
【0059】
実施形態によって、類似度が最も高い動物分類の基本モデルが、最終モデルとしてそのまま決定されてもよい。例えば、分析サーバ330は、図5の実施形態において第1位として選択された「犬」に対する基本モデルを最終モデルとして決定し、フロントサーバ320に伝達してよい。また他の実施形態において、分析サーバ330は、n個の基本モデルそれぞれをカスタマイズしてフロントサーバ320に伝達し、フロントサーバ320がユーザ端末310と通信し、カスタマイズされたn個の基本モデルからユーザに1つを選択させるようにしてもよい。
【0060】
図6は、本発明の一実施形態における、モデル合成過程の例を示した図である。図6は、図4で説明した「うさぎ」基本モデルと「猫」基本モデルが抽出されることにより、2つの基本モデルを合成する例について説明する。基本モデル「うさぎ」は、表1(440)に示された測定値集合によって実現されてよく、基本モデル「猫」は、表2(450)に示された測定値集合によって実現されてよい。このとき、ユーザの顔に対する測定値集合と表1(440)に示された「うさぎ」に対する測定値集合との類似度が80%であり、ユーザの顔に対する測定値集合と表2(450)に示された「猫」に対する測定値集合との類似度が20%であると仮定する。この場合、合成モデル「うさぎ+猫」を生成するための測定値集合は、図6の表5(610)のように計算されてよい。このとき、フロントサーバ320は、計算された測定値集合に基づいて合成モデル「うさぎ+猫」を生成し、最終モデルとしてユーザ端末310と共有してよい。ここで、合成モデル「うさぎ+猫」は、図6の表5(610)に示された値によって新たに生成されたモデルであってよく、類似度が最も高い基本モデル「うさぎ」をベースとし、図6の表5(610)に示された値を適用して変形させたモデルであってもよい。
【0061】
このように、本発明の実施形態によると、人間の顔が含まれたイメージを分析して、人間の顔に対応する動物形状のアバターを自動で生成することができる。
【0062】
上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
【0063】
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
【0064】
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。前記コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであっても、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピディスク、および磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を記録して実行するように特別に構成されたハードウェア装置が含まれる。このような記録媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されるのではなく、ネットワーク上に分散して存在するものであってもよい。プログラム命令の例には、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。
【0065】
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
【0066】
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
図1
図2
図3
図4
図5
図6