IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ トゥーンスクエア コーポレーションの特許一覧

特開2022-41990入力された文章基盤の漫画画像自動生成装置及び方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022041990
(43)【公開日】2022-03-11
(54)【発明の名称】入力された文章基盤の漫画画像自動生成装置及び方法
(51)【国際特許分類】
   G06T 11/80 20060101AFI20220304BHJP
   G06F 40/237 20200101ALI20220304BHJP
【FI】
G06T11/80 A
G06F40/237
【審査請求】有
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2021140611
(22)【出願日】2021-08-31
(31)【優先権主張番号】10-2020-0110136
(32)【優先日】2020-08-31
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2021-0099674
(32)【優先日】2021-07-29
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】521384256
【氏名又は名称】トゥーンスクエア コーポレーション
【氏名又は名称原語表記】Toonsquare CORP.
【住所又は居所原語表記】1F., 5, Nambusunhwan-ro 289-gil, Seocho-gu, Seoul 06699 Republic of Korea
(74)【代理人】
【識別番号】100121382
【弁理士】
【氏名又は名称】山下 託嗣
(72)【発明者】
【氏名】イ,ホ ヨン
(72)【発明者】
【氏名】キム,ギュ チョル
(72)【発明者】
【氏名】チェ,ホ ソプ
【テーマコード(参考)】
5B050
5B091
【Fターム(参考)】
5B050BA06
5B050BA12
5B050BA13
5B050CA07
5B050DA10
5B050EA07
5B050EA13
5B050EA18
5B050FA02
5B050GA08
5B091AB01
5B091BA02
(57)【要約】      (修正有)
【課題】入力された文章基盤の漫画画像を自動で生成する装置及び方法を提供する。
【解決手段】漫画画像自動生成方法は、少なくとも1つの文章が入力された場合に文章を認識する段階と、認識された文章内に含まれている少なくとも1つの単語を識別する段階と、認識された文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別する段階と、識別された文章符号の種類に基づいて文章を一般表現文章、台詞表現文章及び感情表現文章のうちの何れか1つと判断する段階と、文章が一般表現文章の場合一般表現文章に含まれている単語に基づいて漫画画像を自動生成する段階と、文章が台詞表現文章又は感情表現文章の場合、台詞表現文章又は感情表現文章の主体を把握する段階と、漫画画像内の少なくとも1つのキャラクタのうち把握された主体に該当するキャラクタ上に台詞表現文章又は感情表現文章を吹き出しの形で挿入する段階と、を含む。
【選択図】図4
【特許請求の範囲】
【請求項1】
装置により行われる、入力された文章基盤の漫画画像自動生成方法において、
少なくとも1つの文章が入力された場合に、前記文章を認識する段階と、
前記認識された文章内に含まれている少なくとも1つの単語をそれぞれ識別する段階と、
前記認識された文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別する段階と、
前記識別された文章符号の種類に基づいて前記文章を一般表現文章、台詞表現文章及び感情表現文章のうちの何れか1つと判断する段階と、
前記文章が前記一般表現文章の場合、前記一般表現文章に含まれている単語に基づいて漫画画像を自動生成する段階と、前記漫画画像は、少なくとも1つのテーマを有する少なくとも1つのキャラクタを含み、
前記文章が前記台詞表現文章又は前記感情表現文章の場合、前記台詞表現文章又は前記感情表現文章の主体を把握する段階と、
前記漫画画像内の少なくとも1つのキャラクタのうち前記把握された主体に該当するキャラクタ上に前記台詞表現文章又は前記感情表現文章を吹き出しの形で挿入する段階と、
を含む方法。
【請求項2】
前記文章認識段階は、
前記少なくとも1つの文章が複数の文章の場合、
前記複数の文章のそれぞれに含まれている単語をそれぞれ識別し、
前記識別された単語のそれぞれに対する文章の成分を把握し、
前記把握された文章の成分に基づいて前記複数の文章間の連関性を判断して前記複数の文章を少なくとも1つの段落にグルーピングし、
前記文章符号の種類識別段階は、
前記グルーピングされた段落に含まれている少なくとも1つの文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別する、ことを特徴とする請求項1に記載の方法。
【請求項3】
前記文章判断段階は、
前記識別された文章符号が終了地点にのみ位置する場合、前記認識された文章を前記一般表現文章と判断し、
前記識別された文章符号の種類がダブルクォートの場合、前記認識された文章を前記対話表現文章と判断し、
前記識別された文章符号の種類がシングルクォートの場合、前記認識された文章を前記感情表現文章と判断する、ことを特徴とする請求項1に記載の方法。
【請求項4】
前記文章判断段階は、
前記識別された文章符号の種類に基づいて前記文章が感情表現文章かを更に判断し、
前記自動生成段階は、
前記感情表現文章に対して前記把握された主体に該当するキャラクタの顔を既に設定された割合でズームインして表示するか又は前記顔の形状を変更して表示する、ことを特徴とする請求項1に記載の方法。
【請求項5】
前記文章判断段階は、
前記識別された文章符号が終了地点に位置し、前記識別された文章符号の種類が感嘆符及び疑問符のうちの何れか1つである場合、前記認識された文章を前記感情表現文章と判断するか、又は
前記認識された文章内に既に設定された顔文字又は略語が位置する場合、前記認識された文章を前記感情表現文章と判断する、ことを特徴とする請求項4に記載の方法。
【請求項6】
前記自動生成段階は、
前記単語が主語、目的語及び補語のうちの何れか1つを表す場合、前記単語に該当するテーマを有する前記キャラクタを生成し、
前記単語が場所を表す場合、前記単語に基づいて前記漫画画像の背景を生成し、
前記単語が時間を表す場合、前記単語に基づいて前記漫画画像の明るさを決定する、ことを特徴とする請求項1に記載の方法。
【請求項7】
前記自動生成段階は、
前記一般文章内で前記生成されたキャラクタと関連する動詞を判断し、
前記キャラクタが前記判断された動詞に該当するモーションを表すように生成する、ことを特徴とする請求項6に記載の方法。
【請求項8】
前記自動生成段階は、
キャラクタ配置アルゴリズムに基づいて前記生成されたキャラクタの大きさと位置及び前記吹き出しの大きさと位置を決定し、
前記キャラクタ配置アルゴリズムは、
前記漫画画像に対するユーザの操作情報が入力される場合、前記操作情報と前記漫画画像をマッチングして学習データセットを構築し、
前記構築された学習データセットに基づいて機械学習される、ことを特徴とする請求項7に記載の方法。
【請求項9】
少なくとも1つの文章を獲得する通信部と、
プロセッサとを含み、
前記プロセッサは、
前記少なくとも1つの文章を認識し、
前記認識された文章内に含まれている少なくとも1つの単語をそれぞれ識別し、
前記認識された文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別し、
前記識別された文章符号の種類に基づいて前記文章を一般表現文章、台詞表現文章及び感情表現文章のうちの何れか1つと判断し、
前記文章が前記一般表現文章の場合、前記一般表現文章に含まれている単語に基づいて漫画画像を自動生成し、前記漫画画像が少なくても1つのテーマを有する少なくとも1つのキャラクタを含むように生成し、
前記文章が前記台詞表現文章又は前記感情表現文章の場合、前記台詞表現文章又は前記感情表現文章の主体を把握し、
前記漫画画像内の少なくとも1つのキャラクタのうち前記把握された主体に該当するキャラクタ上に前記台詞表現文章又は前記感情表現文章を吹き出しの形で挿入する、入力された文章基盤の漫画画像自動生成装置。
【請求項10】
前記プロセッサは、前記文章を認識するとき、
前記少なくとも1つの文章が複数の文章の場合、
前記複数の文章のそれぞれに含まれている単語をそれぞれ識別し、
前記識別された単語のそれぞれに対する文章の成分を把握し、
前記把握された文章の成分に基づいて前記複数の文章間の連関性を判断して前記複数の文章を少なくとも1つの段落にグルーピングし、
前記プロセッサは、前記文章符号の種類を識別するとき、
前記グルーピングされた段落に含まれている少なくとも1つの文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別する、ことを特徴とする請求項9に記載の装置。
【請求項11】
前記プロセッサは、前記文章を判断するとき、
前記識別された文章符号が終了地点にのみ位置する場合、前記認識された文章を前記一般表現文章と判断し、
前記識別された文章符号の種類がダブルクォートの場合、前記認識された文章を前記対話表現文章と判断し、
前記識別された文章符号の種類がシングルクォートの場合、前記認識された文章を前記感情表現文章と判断する、ことを特徴とする請求項9に記載の装置。
【請求項12】
前記プロセッサは、前記漫画画像を自動生成するとき、
前記キャラクタを生成する際に前記キャラクタの第1要素と第2要素とに分離された関節部分を連結する中心ブリッジデータを生成して表示し、
前記キャラクタの前記第1要素と前記第2要素を第1方向に連結する第1方向ブリッジデータ又は第2方向に連結する第2方向ブリッジデータを生成して表示し、
ユーザ端末から前記中心ブリッジデータ、第1方向ブリッジデータ又は第2方向ブリッジデータのそれぞれに対応する第1要素動作デザイン又は第2要素動作デザインを選択して前記キャラクタにマッチングする、ことを特徴とする請求項9に記載の装置。
【請求項13】
前記ブリッジは、前記キャラクタの前記第1要素と前記第2要素との間の余白領域にオーバーラップするように配置される、ことを特徴とする請求項12に記載の装置。
【請求項14】
前記プロセッサは、前記第2方向ブリッジデータ生成して表示するとき、前記キャラクタを回転軸を基準に回転させて前記第1方向ブリッジデータと第2方向ブリッジデータを生成して表示する、ことを特徴とする請求項13に記載の装置。
【請求項15】
請求項1~請求項8の何れか一項に記載の入力された文章基盤の漫画画像自動生成方法をコンピュータに実行させるためのプログラム。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、入力された文章基盤の漫画画像を自動で生成する装置及び方法に関する。
【背景技術】
【0002】
近年、昨年の韓国コンテンツ産業の輸出額が8.1%増加することにより、史上初めて100億ドルを超えた。特にネイバー、カカオのウェブトゥーンプラットホームの海外市場への進出が好調となり、韓国ウェブトゥーンのグローバル取引額が初めて1兆ウォンを突破した。このように多様な年齢層の多くの人がウェブトゥーンを購読しており、単にウェブトゥーンの購読に止まらず、多くの人が直接ウェブトゥーンを画くためにウェブトゥーン教室に通う。しかし、専攻者や絵に素質がない人の場合、直接ウェブトゥーンを描くことは簡単ではない。
【0003】
そのため、ユーザのこのようなニーズを充足するために、従来は事前に製作された顔特徴アイコン(例えば、頭、目、鼻、口、顔の輪郭、表情など)及びビューティースタイルアイコン(例えば、ヘアーコンセプト、アクセサリ、衣服など)をユーザが直接選択し、選択されたアイコンを組み合わせてキャラクタを生成できるキャラクタサービス技術が提供されていた。
【0004】
このようなキャラクタサービス技術は、ユーザの所望する漫画画像を生成するために背景の設定、キャラクタの設定、明るさ(brightness)の設定などをいちいち作業しなければならない場合が大半である。
【0005】
また、このようなキャラクタサービス技術は、多様な動作を表現するキャラクタを生成する際に問題が発生し得る。例えば、キャラクタが体を横に倒す動作を表現する際に腰関節の動きによって余白が発生し、これによりキャラクタが不自然に表現される恐れがある。
【0006】
そのため、ユーザの所望する漫画画像をユーザがいちいち操作しなくても容易に生成できる方法が必要である。
【0007】
また、多様な動作を表現するキャラクタを生成する場合、キャラクタの関節部分の動きによって発生する余白を除去して自然な動作が可能なキャラクタを生成できる方法が必要である。
【先行技術文献】
【特許文献】
【0008】
【特許文献1】韓国公開特許第10-2020-0025062号
【発明の概要】
【発明が解決しようとする課題】
【0009】
そこで、本発明は上記事情に鑑みてなされたものであって、その目的は、ユーザが入力した文章によって漫画画像を自動で生成することにある。
【0010】
また、本発明の他の目的は、キャラクタの関節部分や連結部分で発生する余白領域にブリッジを生成することにある。
【0011】
更に、本発明の別の目的は、キャラクタのブリッジを生成する部分を回転軸を基準に一定角度ずつ回転させてブリッジを生成することにある。
【0012】
本発明が解決しようとする課題は、以上で言及した課題に限らず、言及されていない更に他の課題は、以下の記載から通常の技術者が明確に理解できるだろう。
【課題を解決するための手段】
【0013】
上述した課題を解決するための本発明に係る装置により行われる、入力された文章基盤の漫画画像自動生成方法において、少なくとも1つの文章が入力された場合に、前記文章を認識する段階と、前記認識された文章内に含まれている少なくとも1つの単語をそれぞれ識別する段階と、前記認識された文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別する段階と、前記識別された文章符号の種類に基づいて前記文章を一般表現文章、台詞表現文章及び感情表現文章のうちの何れか1つと判断する段階と、前記文章が前記一般表現文章の場合、前記一般表現文章に含まれている単語に基づいて漫画画像を自動生成する段階と、前記漫画画像は、少なくとも1つのテーマを有する少なくとも1つのキャラクタを含み、前記文章が前記台詞表現文章又は前記感情表現文章の場合、前記台詞表現文章又は前記感情表現文章の主体を把握する段階と、前記漫画画像内の少なくとも1つのキャラクタのうち前記把握された主体に該当するキャラクタ上に前記台詞表現文章又は前記感情表現文章を吹き出しの形で挿入する段階とを含むことができる。
【0014】
まず、前記文章認識段階は、前記少なくとも1つの文章が複数の文章の場合、前記複数の文章のそれぞれに含まれている単語をそれぞれ識別し、前記識別された単語のそれぞれに対する文章の成分を把握し、前記把握された文章の成分に基づいて前記複数の文章間の連関性を判断して前記複数の文章を少なくとも1つの段落にグルーピングできる。
【0015】
従って、前記文章符号の種類識別段階は、前記グルーピングされた段落に含まれている少なくとも1つの文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別できる。
【0016】
次に、前記文章判断段階は、前記識別された文章符号が終了地点にのみ位置する場合、前記認識された文章を前記一般表現文章と判断し、前記識別された文章符号の種類がダブルクォートの場合、前記認識された文章を前記対話表現文章と判断し、前記識別された文章符号の種類がシングルクォートの場合、前記認識された文章を前記感情表現文章と判断できる。
【0017】
また、前記文章判断段階は、前記識別された文章符号の種類に基づいて前記文章が感情表現文章かを更に判断できる。
【0018】
従って、前記自動生成段階は、前記感情表現文章に対して前記把握された主体に該当するキャラクタの顔を既に設定された割合でズームインして表示するか又は前記顔の形状を変更して表示できる。
【0019】
また、前記文章判断段階は、前記識別された文章符号が終了地点に位置し、前記識別された文章符号の種類が感嘆符及び疑問符のうちの何れか1つである場合、前記認識された文章を前記感情表現文章と判断できる。
【0020】
又は、前記文章判断段階は、前記認識された文章内に既に設定された顔文字又は略語が位置する場合、前記認識された文章を前記感情表現文章と判断できる。
【0021】
その次に、前記自動生成段階は、前記単語が主語、目的語及び補語のうちの何れか1つを表す場合、前記単語に該当するテーマを有する前記キャラクタを生成し、前記単語が場所を表す場合、前記単語に基づいて前記漫画画像の背景を生成し、前記単語が時間を表す場合、前記単語に基づいて前記漫画画像の明るさを決定できる。
【0022】
また、前記自動生成段階は、前記一般文章内で前記生成されたキャラクタと関連する動詞を判断し、前記キャラクタが前記判断された動詞に該当するモーションを表すように生成できる。
【0023】
また、前記自動生成段階は、キャラクタ配置アルゴリズムに基づいて前記生成されたキャラクタの大きさと位置及び前記吹き出しの大きさと位置を決定できる。
【0024】
ここで、前記キャラクタ配置アルゴリズムは、前記漫画画像に対するユーザの操作情報が入力される場合、前記操作情報と前記漫画画像をマッチングして学習データセットを構築し、前記構築された学習データセットに基づいて機械学習されることができる。
【0025】
また、上述した課題を解決するための本発明に係る少なくとも1つの文章を獲得する通信部と、プロセッサとを含み、前記プロセッサは、前記少なくとも1つの文章を認識し、前記認識された文章内に含まれている少なくとも1つの単語をそれぞれ識別し、前記認識された文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別し、前記識別された文章符号の種類に基づいて前記文章を一般表現文章、台詞表現文章及び感情表現文章のうちの何れか1つと判断し、前記文章が前記一般表現文章の場合、前記一般表現文章に含まれている単語に基づいて漫画画像を自動生成し、前記漫画画像が少なくても1つのテーマを有する少なくとも1つのキャラクタを含むように生成し、前記文章が前記台詞表現文章又は前記感情表現文章の場合、前記台詞表現文章又は前記感情表現文章の主体を把握し、前記漫画画像内の少なくとも1つのキャラクタのうち前記把握された主体に該当するキャラクタ上に前記台詞表現文章又は前記感情表現文章を吹き出しの形で挿入できる。
【0026】
更に、前記プロセッサは、前記文章を認識するとき、前記少なくとも1つの文章が複数の文章の場合、前記複数の文章のそれぞれに含まれている単語をそれぞれ識別し、前記識別された単語のそれぞれに対する文章の成分を把握し、前記把握された文章の成分に基づいて前記複数の文章間の連関性を判断して前記複数の文章を少なくとも1つの段落にグルーピングし、前記プロセッサは、前記文章符号の種類を識別するとき、前記グルーピングされた段落に含まれている少なくとも1つの文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別できる。
【0027】
また、前記プロセッサは、前記文章を判断するとき、前記識別された文章符号が終了地点にのみ位置する場合、前記認識された文章を前記一般表現文章と判断し、前記識別された文章符号の種類がダブルクォートの場合、前記認識された文章を前記対話表現文章と判断し、前記識別された文章符号の種類がシングルクォートの場合、前記認識された文章を前記感情表現文章と判断できる。
【0028】
更に、前記プロセッサは、前記漫画画像を自動生成するとき、前記キャラクタを生成する際に前記キャラクタの第1要素と第2要素とに分離された関節部分を連結する中心ブリッジデータを生成して表示し、前記キャラクタの前記第1要素と前記第2要素を第1方向に連結する第1方向ブリッジデータ又は第2方向に連結する第2方向ブリッジデータを生成して表示し、ユーザ端末から前記中心ブリッジデータ、第1方向ブリッジデータ又は第2方向ブリッジデータのそれぞれに対応する第1要素動作デザイン又は第2要素動作デザインを選択して前記キャラクタにマッチングできる。
【0029】
また、前記ブリッジは、前記キャラクタの前記第1要素と前記第2要素との間の余白領域にオーバーラップするように配置されることができる。
【0030】
更に、 前記プロセッサは、前記第2方向ブリッジデータ生成して表示するとき、前記キャラクタを回転軸を基準に回転させて前記第1方向ブリッジデータと第2方向ブリッジデータを生成して表示できる。
【0031】
この他にも、本発明を実現するための他の方法、他のシステム及び前記方法を実行するためのコンピュータプログラムを提供できる。
【発明の効果】
【0032】
前記のような本発明によれば、ユーザが入力した文章により漫画画像を自動で生成することによって、絵が下手な人も所望の漫画画像を容易に獲得できるという効果が得られる。
【0033】
また、本発明によれば、キャラクタの関節部分や連結部分で発生する余白領域にブリッジを生成してキャラクタの関節部分又は連結部分の動きを自然に行えるという効果がある。
【0034】
更に、本発明によれば、キャラクタのブリッジを生成する部分を回転軸を基準に一定角度ずつ回転させてブリッジを生成して自然なブリッジを備えるキャラクタを表現できるという効果がある。
【0035】
本発明の効果は、以上で言及した効果に限らず、言及されていない更に他の効果は、以下の記載から通常の技術者が明確に理解できるだろう。
【図面の簡単な説明】
【0036】
図1】本発明に係る入力された文章基盤の漫画画像を自動生成する装置を説明する図である。
図2A】本発明に係る入力された文章基盤の漫画画像を自動生成する装置のプロセッサが行う動作を説明する例示図である。
図2B】本発明に係る入力された文章基盤の漫画画像を自動生成する装置のプロセッサが行う動作を説明する例示図である。
図2C】本発明に係る入力された文章基盤の漫画画像を自動生成する装置のプロセッサが行う動作を説明する例示図である。
図3A】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3B】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3C】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3D】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3E】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3F】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3G】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3H】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3I】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3J】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3K】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図3L】本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
図4】本発明に係る入力された文章基盤の漫画画像を自動で生成する過程を示すフローチャートである。
図5】本発明に係る動的可変が可能なキャラクタ生成過程を示すフローチャートである。
図6】本発明に係る中心ブリッジデータを生成する過程を示す順序図である。
図7】本発明に係るキャラクタ生成サービスページの複数のキャラクタの中からユーザの所望するキャラクタを選択することを示す例示図である。
図8】本発明に係るユーザが選択したキャラクタがキャラクタ生成画面に示されたことを示す例示図である。
図9】本発明に係るユーザが選択したキャラクタの上体中心ブリッジデータと下体中心ブリッジデータが示されたことを示す例示図である。
図10】本発明に係る第1方向ブリッジデータと第2方向ブリッジデータを示す例示図である。
図11】本発明に係る第1方向ブリッジデータ又は第2方向ブリッジデータを生成する過程を示すフローチャートである。
図12】本発明に係る回転軸を基準にキャラクタを既に設定された角度で回転させることを示す例示図である。
図13】本発明に係るキャラクタの正面から右側左側へ体を横に倒す動作を行う際に生成される第1方向ブリッジデータと第2方向ブリッジデータを示す例示図である。
図14】本発明に係るキャラクタの側面から右側左側へ体を横に倒す動作を行う際に生成される第1方向ブリッジデータと第2方向ブリッジデータを示す例示図である。
図15】本発明に係るキャラクタの後面から右側左側へ体を横に倒す動作を行う際に生成される第1方向ブリッジデータと第2方向ブリッジデータを示す例示図である。
図16】本発明に係る第1要素動作デザイン又は第2要素動作デザインが選択されてキャラクタにマッチングする過程を示す順序図である。
図17】本発明に係る複数の上体動作デザインを示す例示図である。
図18】本発明に係る複数の下体動作デザインを示す例示図である。
図19】本発明に係る複数の上体と下体動作デザインを示す例示図である。
図20】本発明に係る複数の左腕動作デザインを示す例示図である。
図21】本発明に係る複数の脚動作デザインを示す例示図である。
【発明を実施するための形態】
【0037】
本発明の利点及び特徴、そしてそれらを達成する方法は、添付の図面と共に詳細に後述されている実施例を参照すれば明確になる。しかし、本発明は、以下で開示される実施例に制限されるものではなく、互いに異なる多様な形態に実現することができる。但し、本実施例は本発明の開示を完全なものにし、本発明が属する技術分野における通常の技術者に本発明の範疇を完全に理解させるために提供されるものであり、本発明は請求項の範疇により定義されるに過ぎない。
【0038】
本明細書で用いられた用語は、実施例を説明するためのものであり、本発明を制限しようとするものではない。本明細書において、単数型は特に言及しない限り複数型も含む。明細書で用いられる「含む(comprises)」及び/又は「含んでいる(comprising)」は、言及された構成要素以外に1つ以上の他の構成要素の存在又は追加を排除しない。明細書全体に亘って同一の図面符号は同一の構成要素を示し、「及び/又は」は言及された構成要素のそれぞれ及び1つ以上の全ての組み合わせを含む。たとえ、「第1」、「第2」などが多様な構成要素を叙述するために用いられていても、これらの構成要素はこれらの用語により制限されないのは当然である。これらの用語は、単に1つの構成要素を他の構成要素と区別するために用いる。従って、以下で言及される第1構成要素は、本発明の技術的思想内で第2構成要素でもあり得るのは言うまでもない。
【0039】
他の定義がなければ、本明細書で用いられる全ての用語(技術及び科学的用語を含む)は、本発明が属する技術分野における通常の技術者が共通して理解できる意味として用いられる。また、一般に用いられる辞典に定義されている用語は、明白に特に定義されていない限り、理想的に又は過度に解釈されない。
【0040】
以下、添付の図面を参照して本発明の実施例を詳細に説明する。
【0041】
図1は、本発明に係る入力された文章基盤の漫画画像を自動生成する装置10を説明する図である。
【0042】
以下、図1を参照して、本発明に係る入力された文章基盤の漫画画像を自動生成する装置10について説明する。
【0043】
装置10は、少なくとも1つの文章が入力された場合に、前記文章を認識し、前記認識された文章内に含まれている少なくとも1つの単語をそれぞれ識別できる。
【0044】
そして、装置10は、前記認識された文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別し、前記識別された文章符号の種類に基づいて前記文章を一般表現文章、台詞表現文章及び感情表現文章のうちの何れか1つと判断できる。
【0045】
ここで、装置10は、前記文章が前記一般表現文章の場合、前記一般表現文章に含まれている単語に基づいて漫画画像を自動生成できる。
【0046】
または、装置10は、前記文章が前記台詞表現文章又は前記感情表現文章の場合、前記台詞表現文章又は前記感情表現文章の主体を把握できる。
【0047】
ここで、装置10は、前記漫画画像内の少なくとも1つのキャラクタのうち前記把握された主体に該当するキャラクタ上に前記台詞表現文章又は前記感情表現文章を吹き出しの形で挿入できる。
【0048】
このような装置10は、ユーザが入力した文章により漫画画像を自動で生成することによって、絵が下手な人も所望の漫画画像を容易に獲得できるという効果を奏する。
【0049】
即ち、装置10は、前記入力された文章中にある単語を通じてキャラクタ、場所、状況、雰囲気、感情などを分析して前記漫画画像(該当カット)を多様なオブジェクト(人、動物、背景、ポーズ、表情)に切り替えられるという効果を奏する。
【0050】
ここで、装置10は、演算処理を行ってユーザに結果を提供できる多様な装置を何れも含むことができる。
【0051】
即ち、装置10は、コンピュータ、サーバ、移動端末、スマートフォンなどの少なくとも1つを含む形であり得る。
【0052】
ここで、装置10は、コンピュータの形態であってもよい。より詳細には、前記コンピュータは、演算処理を行ってユーザに結果を提供できる多様な装置を何れも含むことができる。
【0053】
例えば、コンピュータは、デスクトップパソコン、ノートブック(Note Book)だけでなく、スマートフォン(Smart phone)、タブレットPC、セルラーフォン(Cellular phone)、PCSフォン(PCS Phone;Personal Communication Service phone)、同期式/非同期式IMT-2000(International Mobile Telecommunication-2000)の移動端末、パームPC(Palm Personal Computer)、携帯個人端末(PDA;Personal Digital Assistant)なども該当し得る。また、 ヘッドマウントディスプレイ(Head Mounted Display;HMD)装置がコンピューティング機能を含む場合、HMD装置がコンピュータになり得る。
【0054】
また、コンピュータは、クライアントから要請を受信して情報処理を行うサーバが該当し得る。
【0055】
装置10は、通信部110、メモリ120及びプロセッサ130を含むことができる。ここで、装置10は、図1に示された構成要素よりも更に少ない構成要素やより多くの構成要素を含むことができる。
【0056】
通信部110は、装置10と外部装置(図示せず)との間、装置10と外部サーバ(図示せず)との間又は装置10と通信網(図示せず)との間の無線通信を可能にする1つ以上のモジュールを含むことができる。
【0057】
ここで、外部装置(図示せず)はユーザ端末であり、前記ユーザ端末はディスプレイ手段、入力手段、通信機能などが含まれる携帯電話、スマートフォン、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットPC、個人用コンピュータ(例えば、デスクトップコンピュータ、ノートブックコンピュータなど)、ワークステーション、PDA、ウェブパッドなどのようなデジタル機器のうちの1つであり得る。
【0058】
また、外部サーバ(図示せず)は、外部装置(図示せず)から入力された文章基盤の漫画画像を自動生成するサービスのアプリケーションダウンロードの要請を受信すると、ユーザ認証を行うことができ、ユーザの認証が完了すると、外部装置(図示せず)に、要請された前記サービスのアプリケーションを伝送できる。
【0059】
更に、通信網(図示せず)は、装置10、外部装置(図示せず)及び外部サーバ(図示せず)間の多様な情報を送受信できる。通信網は、多様な形態の通信網が利用されることができ、例えば、WLAN(Wireless LAN)、ワイファイ(Wi-Fi)(登録商標)、ワイブロ(Wibro)、ワイマックス(Wimax)(登録商標)、HSDPA(High Speed Downlink Packet Access)などの無線通信方式又はイーサネット(Ethernet)(登録商標)、xDSL(ADSL、VDSL)、HFC(Hybrid Fiber Coax)、FTTC(Fiber to The Curb)、FTTH(Fiber To The Home)などの有線通信方式が利用されることができる。
【0060】
通信網(図示せず)は、前述した通信方式に限定されるものではなく、上述した通信方式以外にもその他に広く公知となっているか、今後開発されるあらゆる形態の通信方式を含むことができる。
【0061】
また、通信部110は、装置10を1つ以上のネットワークに接続する1つ以上のモジュールを含むことができる。
【0062】
このような通信部110は、少なくとも1つの文章を獲得できる。より詳細には、通信部110は外部装置(図示せず)の一例であって、ユーザ端末(図示せず)に提供したウェブサイト又はアプリケーションを介して入力される前記少なくとも1つの文章を獲得できる。
【0063】
ここで、ウェブサイト又はアプリケーションは、入力された文章基盤の漫画画像自動生成サービスを提供するものであり得る。
【0064】
メモリ120は、装置10の多様な機能を支援するデータを格納できる。メモリ120は、装置10で駆動される多数の応用プログラム(application program又はアプリケーション(application))、装置10の動作のためのデータ、命令語を格納できる。このような応用プログラムのうちの少なくとも一部は、装置10の基本的な機能のために存在し得る。一方、応用プログラムは、メモリ120に格納され、装置10上にインストールされてプロセッサ130によって前記装置10の動作(又は機能)を行うように駆動できる。
【0065】
また、メモリ120は、本発明に係る入力された文章基盤の漫画画像を自動で生成するための複数のプロセスを具備できる。ここで、前記複数のプロセスは、プロセッサ130に対する動作を説明する際に後述する。
【0066】
プロセッサ130は、前記応用プログラムと関連する動作以外にも、通常、装置10の全般的な動作を制御できる。プロセッサ130は、前述した構成要素を通じて入力又は出力される信号、データ、情報などを処理するか、メモリ120に格納された応用プログラムを駆動することによって、ユーザに適切な情報又は機能を提供又は処理できる。
【0067】
また、プロセッサ130は、メモリ120に格納された応用プログラムを駆動するために、図1に示した構成要素のうちの少なくとも一部を制御できる。更に、プロセッサ130は、前記応用プログラムの駆動のために、装置10に含まれている構成要素のうち少なくとも2つ以上を互いに組み合わせて動作させることができる。
【0068】
更に、プロセッサ130は、入力された文章基盤の漫画画像の自動生成のためのウェブサイト又はアプリケーションを提供できる。
【0069】
従って、外部装置(図示せず)の一例として、ユーザ端末(図示せず)は、インターネットを介して前記装置10で提供するウェブサイトを利用するか、前記装置10で提供するアプリケーションを前記外部サーバ(図示せず)例えば、ダウンロードサーバからダウンロードして利用できる。
【0070】
プロセッサ130は、少なくとも1つの文章が入力された場合に、前記文章を認識できる。
【0071】
ここで、プロセッサ130は、複数のプロセスのうち第1プロセスに基づいて前記ウェブサイト又は前記アプリケーションのUI(user Interface)を介して少なくとも1つの文章が入力された場合に、前記文章を認識できる。
【0072】
このようなプロセッサ130は、前記少なくとも1つの文章が複数の文章の場合、前記複数の文章のそれぞれに含まれている単語をそれぞれ識別し、前記識別された単語のそれぞれに対する文章の成分を把握できる。
【0073】
ここで、文章の成分は、1つの文章になるために備えるべき要素であり得る。換言すれば、文章の成分とは、文章を構成して一定の役割を果たす要素である。
【0074】
例えば、文章の成分は、主成分、付属成分及び独立成分を含むことができる。ここで、前記主成分は、主語、述語、目的語及び補語を含むことができる。前記付属成分は、冠形語と副詞語を含むことができる。前記独立成分は、独立語を含むことができる。
【0075】
そして、プロセッサ130は、前記把握された文章の成分に基づいて前記複数の文章間の連関性を判断して前記複数の文章を少なくとも1つの段落にグルーピングできる。
【0076】
従って、プロセッサ130は、前記UIを介して記事の内容又は本の内容など複数の文章などが入力されても文章の成分に基づいて段落を自動でグルーピングすることで、文章では理解できない内容を漫画画像に容易に変換してユーザに提供できるという効果を奏する。
【0077】
プロセッサ130は、前記認識された文章内に含まれている少なくとも1つの単語をそれぞれ識別できる。
【0078】
ここで、プロセッサ130は、複数のプロセスのうち第2プロセスに基づいて前記認識された文章内に含まれている少なくとも1つの単語をそれぞれ識別できる。
【0079】
一例として、‘ジョンさんが散歩道を速く歩く。’という文章が認識された場合、前記文章内に含まれている少なくとも1つの単語である‘ジョンさんが’、‘散歩道を’、‘速く’、‘歩く’をそれぞれ識別できる。
【0080】
即ち、前記少なくとも1つの単語は、人、場所、要素、効果、時間などに分類でき、プロセッサ130はこのように分類された単語に基づいて漫画画像を生成できる。
【0081】
プロセッサ130は、前記認識された文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別できる。
【0082】
ここで、プロセッサ130は、複数のプロセスのうち第3プロセスに基づいて前記認識された文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別できる。
【0083】
一例として、プロセッサ130は、前記認識された文章の開始地点及び終了地点に位置するダブルクォート又はシングルクォートを識別し、前記認識された文章の終了地点に位置する終止符、感嘆符、疑問符及び三点リーダのうちの少なくとも1つを識別できる。
【0084】
また、プロセッサ130は、前記少なくとも1つの文章が複数の文章の場合、前記グルーピングされた段落に含まれている少なくとも1つの文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別できる。
【0085】
プロセッサ130は、前記識別された文章符号の種類に基づいて前記文章の種類を判断できる。
【0086】
ここで、プロセッサ130は、複数のプロセスのうち第4プロセスに基づいて前記識別された文章符号の種類に基づいて前記文章を一般表現文章、台詞表現文章及び感情表現文章のうちの何れか1つと判断できる。
【0087】
具体的に、プロセッサ130は、前記識別された文章符号が終了地点にのみ位置する場合、前記認識された文章を前記一般文章と判断できる。
【0088】
一例として、プロセッサ130は、第1文章(例えば、チョルスさんがソファーに座ってテレビを見ている。)の前記識別された文章符号である終止符が前記終了地点にのみ位置する場合、前記第1文章を前記一般文章と判断できる。
【0089】
また、プロセッサ130は、前記識別された文章符号の種類がダブルクォートの場合、前記認識された文章を前記対話表現文章と判断できる。
【0090】
一例として、プロセッサ130は、第2文章(例えば、“今日の天気あまりにも暑くない?”)の前記識別された文章符号の種類がダブルクォートの場合、前記第2文章を前記対話表現文章と判断できる。
【0091】
また、プロセッサ130は、前記識別された文章符号の種類がシングルクォートの場合、前記認識された文章を前記感情表現文章と判断できる。
【0092】
一例として、プロセッサ130は、第3文章(例えば、‘退屈だ・・・’)の前記識別された文章符号の種類がシングルクォートの場合、前記第3文章を前記感情表現文章と判断できる。
【0093】
また、プロセッサ130は、前記識別された文章符号が終了地点に位置し、前記識別された文章符号の種類が感嘆符及び疑問符のうちの何れか1つである場合、前記認識された文章を前記感情表現文章と判断できる。
【0094】
一例として、プロセッサ130は、第4文章(例えば、お腹空いた!!!)の前記識別された文章符号が終了地点に位置し、前記識別された文章符号の種類が感嘆符であるので、前記第4文章を前記感情表現文章と判断できる。
【0095】
又は、プロセッサ130は、前記認識された文章内に既に設定された顔文字又は略語が位置する場合、前記認識された文章を前記感情表現文章と判断できる。
【0096】
一例として、プロセッサ130は、第5文章(例えば、疲れてたππ)内に第1顔文字(例えば、ππ)が位置するので、前記第5文章を前記感情表現文章と判断できる。
【0097】
また、プロセッサ130は、前記少なくとも1つの文章が複数の文章の場合、前記グルーピングされた段落の中から最後に含まれている少なくとも1つの文章に対して、人工知能モデルに基づいて、前記少なくとも1つの文章中に前記文章の成分のうち主語が変更された特定の文章又は前記文章の成分のうち述語、冠形語及び副詞のうちの少なくとも1つが反対語を含む特定の文章を抽出できる。
【0098】
ここで、プロセッサ130は、前記抽出された特定の文章を最後の漫画画像に生成できる。
【0099】
これにより、プロセッサ130は、少なくとも1つ以上の漫画画像のうち最後の漫画画像を前記特定の文章に生成することによって反転があり、その後に漫画に対する好奇心を向上させるという効果を創出できる。
【0100】
ここで、前記人工知能モデルは、回帰型ニューラルネットワーク(Recurrent Neural Network、以下RNN)を含むことができる。
【0101】
このようなRNNは、ある特定部分が繰り返される構造を通じて順序を学習するので、効果的なディープラーニング手法で以前状態の状態値が次の計算の入力に入って結果に影響を及ぼし得る(単語、文章、映像を認識する際に前の単語、文字、フレームを参考にして認識する必要があるためである)。
【0102】
また、RNNは、音声と文字など順次的な(Sequential)情報を認識するのに主に用いることができる。
【0103】
但し、本発明に係る前記関節予測モデルは、CNNとRNNに限定されず、多様な構造の神経網で形成できる。
【0104】
プロセッサ130は、前記文章が前記一般表現文章の場合、前記一般表現文章に基づいて漫画画像を自動生成できる。
【0105】
ここで、プロセッサ130は、複数のプロセスのうち第5プロセスに基づいて前記文章が前記一般表現文章の場合、前記一般表現文章に含まれている単語に基づいて漫画画像を自動生成できる。
【0106】
このような前記漫画画像は、少なくとも1つのテーマを有する少なくとも1つのキャラクタを含むことができる。
【0107】
具体的に、プロセッサ130は、前記単語が主語、目的語及び補語のうちの何れか1つを表す場合、前記単語に該当するテーマを有する前記キャラクタを生成できる。
【0108】
また、プロセッサ130は、前記単語が場所を表す場合、前記単語に基づいて前記漫画画像の背景を生成できる。
【0109】
具体的に、プロセッサ130は、前記単語が場所(又は位置)を表す場合、前記漫画画像の背景に場所を表すイメージを表示できる。
【0110】
より詳細には、プロセッサ130は、既に設定されたウェブブラウザ又は検索機能を通じて、ウェブ上で場所テキストキーワードと関連するイメージを検索し、検索されたイメージのうち同一のものが最も多いイメージを選定できる。
【0111】
そして、プロセッサ130は、前記検索されたイメージのメタ情報に含まれている位置情報のうち前記単語にマッチングされる場所の位置と一致するか又は最も近接する位置を有するイメージを前記背景に表示できる。
【0112】
また、プロセッサ130は、2つ以上の単語がそれぞれの場所を表す場合、まず、前記両場所間の関係性が特定の位置まで移動されるべき経路を表すかを判断できる。
【0113】
一例として、プロセッサ130は、例示文章(~江南駅1番出口から国技院十字路へ来て~)上の江南駅1番出口と国技院十字路がそれぞれ場所を表す場合、前記両場所間の関係性が前記経路を表すかを判断できる。
【0114】
そして、プロセッサ130は、前記判断結果、前記両場所間の関係性が前記経路を表すものである場合、前記両場所までの移動経路を検索し、検索された移動経路を表す経路イメージを生成して背景として表示できる。
【0115】
また、プロセッサ130は、前記両場所のそれぞれを表す第1及び第2イメージを検索しておき、前記ユーザの現在位置で最も近接する場所のイメージを背景としてまず表示した後に、既に設定された時間後にスライドショー方式で次の場所のイメージを表示できる。
【0116】
ここで、前記ユーザの現在位置は、前記ユーザが使用するユーザ端末(図示せず)のGPS信号又は前記ユーザが直接入力した現在位置に基づいて生成できる。
【0117】
または、プロセッサ130は、前記漫画画像の背景を第1及び第2領域に分割した後、分割された領域のそれぞれに前記第1イメージと前記第2イメージをそれぞれ順次表示できる。
【0118】
または、プロセッサ130は、前記ユーザ端末(図示せず)の移動時に既に設定された期間に収集された位置情報に基づいて両場所のうち訪問履歴があるか又はない場所のイメージを背景として優先的に表示できる。
【0119】
また、プロセッサ130は、前記単語が時間を表す場合、前記単語に基づいて前記漫画画像の明るさ(brightness)を決定できる。
【0120】
具体的に、プロセッサ130は、前記単語が特定の時間を表す場合、前記背景イメージに該当する位置の前記特定の時間に該当する明るさにイメージを表示できる。
【0121】
一例として、プロセッサ130は、前記背景イメージに該当する位置がハンカン(漢江)公園であり、前記特定の時間が午後1時の場合には前記明るさを最も明るく(又は最も暗く)し、前記特定の時間が午後10時の場合には最も暗く(又は最も明るく)することができる。
【0122】
また、プロセッサ130は、2つ以上の単語がそれぞれ時間を表す場合、現在時間から最も近い第1単語の第1時間に該当する第1明るさにイメージを表示できる。
【0123】
そして、プロセッサ130は、前記第1時間が経過した後は、第1明るさを第2単語の第2時間に該当する第2明るさにイメージを表示できる。
【0124】
なお、プロセッサ130は、2つ以上の単語が特定の時間及び特定場所を表す場合、この場合、スケジュールと関連性が最も高いので、前記特定の時間及び特定場所を表す漫画画像をカレンダーアプリの該当日付の背景として表示できる。
【0125】
また、プロセッサ130は、前記一般文章内で前記生成されたキャラクタと関連する動詞を判断し、前記キャラクタが前記判断された動詞に該当するモーションを表すように生成できる。
【0126】
更に、プロセッサ130は、キャラクタ配置アルゴリズムに基づいて前記生成されたキャラクタの大きさと位置及び前記吹き出しの大きさと位置を決定できる。
【0127】
そして、プロセッサ130は、前記キャラクタ配置アルゴリズムを用いて前記入力された文章の作成者の意思に符合するようにオブジェクトの大きさと位置、配置、重なる程度などを決定できる。
【0128】
ここで、前記キャラクタ配置アルゴリズムは、前記漫画画像に対するユーザの操作情報が入力される場合、前記操作情報と前記漫画画像をマッチングして学習データセットを構築し、前記構築された学習データセットに基づいて機械学習できる。
【0129】
これにより、プロセッサ130は、前記キャラクタ配置アルゴリズムをユーザ別に適用できる。
【0130】
そして、プロセッサ130は、前記操作情報と前記漫画画像をマッチングすることによって、ユーザのニーズに合う前記キャラクタ配置アルゴリズムの学習データセットの構築が可能になることによって、前記データセットの累積によりその後には前記ユーザの所望する方向の漫画画像をすぐに生成できるようになる。
【0131】
ここで、前記操作情報は、第1情報、第2情報、第3情報及び第4情報のうちの少なくとも1つの情報を含むことができる。
【0132】
このような前記第1情報は、前記キャラクタの大きさと位置変動、左右反転及び上下反転に関する情報であり、前記第2情報は、前記キャラクタの表情変更と前記キャラクタの動作変更に関する情報であり、前記第3情報は、前記キャラクタ又は前記オブジェクトを追加又は削除、前記背景の変更に関する情報であり、前記第4情報は、前記キャラクタ又は前記オブジェクトの遠近感の変更に関する第4情報であり得る。
【0133】
即ち、プロセッサ130は、前記キャラクタ配置アルゴリズムを通じて配置された前記漫画画像に対して前記ユーザから吹き出しの台詞とオブジェクトの修正情報が入力されることができる。
【0134】
このような前記修正情報は、再び前記キャラクタ配置アルゴリズムを高度化する学習データとして活用され、次回に同一の文章を作成してもオブジェクトの表情やカットの雰囲気などが若干変わり得る。
【0135】
また、前記プロセッサ130は、すでに公開された専門ウェブトゥーンを収集して実際の専門作家が構成したカットの構成を学習して前記キャラクタ配置アルゴリズムを持続的に高度化できる。
【0136】
更に、プロセッサ130は、前記感情表現文章に対して主体を把握し、前記把握された主体に該当するキャラクタの顔を既に設定された割合でズームインして表示するか又は前記顔の形状を変更して表示できる。
【0137】
一例として、プロセッサ130は、前記顔の形状を嬉しい感情の程度に応じて若干又はにっこりと笑うように変更するか、悪い感情の程度に応じて顔をしかめる程度を変更できる。
【0138】
プロセッサ130は、前記台詞表現文章又は前記感情表現文章の主体を把握できる。
【0139】
ここで、プロセッサ130は、複数のプロセスのうち第6プロセスに基づいて前記文章が前記台詞表現文章又は前記感情表現文章の場合、前記台詞表現文章又は前記感情表現文章の主体を把握できる。
【0140】
プロセッサ130は、前記把握された主体に該当するキャラクタ上に前記台詞表現文章又は前記感情表現文章を吹き出しの形で挿入できる。
【0141】
ここで、プロセッサ130は、複数のプロセスのうち第7プロセスに基づいて、前記漫画画像内の少なくとも1つのキャラクタのうち前記把握された主体に該当するキャラクタ上に、前記台詞表現文章又は前記感情表現文章を吹き出しの形で挿入できる。
【0142】
なお、プロセッサ130は、前記単語が場所(又は位置)を表す場合、前記漫画画像の背景に場所を表すイメージに表示できる。
【0143】
より詳細には、プロセッサ130は、既に設定されたウェブブラウザ又は検索機能を通じて、ウェブ上で場所テキストキーワードと関連するイメージを検索し、検索されたイメージのうち同一のものが最も多いイメージを選定できる。
【0144】
そして、プロセッサ130は、前記検索されたイメージのメタ情報に含まれている位置情報のうち前記単語にマッチングされる場所の位置と一致するか又は最も近接する位置を有するイメージを前記背景に表示できる。
【0145】
また、プロセッサ130は、2つ以上の単語がそれぞれの場所を表す場合、まず、前記両場所間の関係性が特定の位置まで移動されるべき経路を表すかを判断できる。
【0146】
一例として、プロセッサ130は、例示文章(~江南駅1番出口から国技院十字路へ来て~)上の江南駅1番出口と国技院十字路がそれぞれ場所を表す場合、前記両場所間の関係性が前記経路を表すかを判断できる。
【0147】
そして、プロセッサ130は前記判断結果、前記両場所間の関係性が前記経路を表すものである場合、前記両場所までの移動経路を検索し、検索された移動経路を表す経路イメージを生成して背景として表示できる。
【0148】
具体的に、プロセッサ130は、前記両場所のそれぞれを表す第1及び第2イメージを検索しておき、現在位置で最も近接する場所のイメージを背景としてまず表示した後に既に設定された時間後にスライドショー方式で次の場所のイメージを表示できる。
【0149】
または、プロセッサ130は、前記漫画画像の背景を第1及び第2領域に分割した後、分割された領域のそれぞれに前記第1イメージと前記第2イメージをそれぞれ順次表示できる。
【0150】
プロセッサ130は、前記単語が特定の時間を表す場合、前記背景イメージに該当する位置の前記特定の時間に該当する明るさにイメージを表示できる。
【0151】
一例として、プロセッサ130は、前記背景イメージに該当する位置が漢江公園であり、前記特定の時間が午後1時の場合には、前記明るさを最も明るく(又は最も暗く)し、前記特定の時間が午後10時の場合には最も暗く(又は最も明るく)できる。
【0152】
また、プロセッサ130は、2つ以上の単語がそれぞれ時間を表す場合、現在時間から最も近い第1単語の第1時間に該当する第1明るさにイメージを表示できる。
【0153】
そして、プロセッサ130は、前記第1時間が経過した後には、第1明るさを第2単語の第2時間に該当する第2明るさにイメージを表示できる。
【0154】
なお、プロセッサ130は、2つ以上の単語が特定の時間及び特定場所を表す場合、スケジュールと関連性が最も高いので、前記特定の時間及び特定場所を表す漫画画像をカレンダーアプリの該当日付の背景として表示できる。
【0155】
図2A乃至図2Cは、本発明に係る入力された文章基盤の漫画画像を自動生成する装置10のプロセッサ130が行う動作を説明する例示図である。
【0156】
まず、図2Aを参照すると、プロセッサ130は、ユーザ端末(図示せず)を介して前記ウェブサイト又はアプリケーションで提供するUIをユーザに提供できる。
【0157】
ここで、前記UIは、複数の機能を有する複数のアイコンが位置する第1領域201、前記漫画画像が表示される第2領域202及び前記漫画画像のページプレビューと前記漫画画像を順次見るためのプレビューアイコンが位置する第3領域203を含むことができる。
【0158】
このとき、プロセッサ130は、ユーザが前記UIに表示されるAIボタンを入力する場合、図2Aの画面を図2Bの画面に切り換えられる。
【0159】
図2Bを参照すると、プロセッサ130は、2つの文章が入力される場合、前記2つの文章(例えば、第1文章:セラさんが居間でテレビを見ながら座っている。第2文章:“何にもしたくない”)を認識し、前記2つの文章内に含まれている少なくとも1つの単語をそれぞれ識別できる。
【0160】
即ち、前記少なくとも1つの単語は、人、場所、要素、効果、時間などに分類でき、プロセッサ130はこのように分類された単語に基づいて漫画画像を生成できる。
【0161】
そして、プロセッサ130は、前記識別された文章符号の種類に基づいて、前記2つの文章を一般表現文章、台詞表現文章及び感情表現文章のうちの何れか1つと判断できる。
【0162】
具体的に、プロセッサ130は、前記第1文章の文章符号が終了地点に終止符が位置するので、前記第1文章を前記一般表現文章と判断できる。
【0163】
そして、プロセッサ130は、前記第2文章の文章符号の種類がダブルクォートの場合、前記第2文章を前記対話表現文章と判断できる。
【0164】
ここで、図2Cを参照すると、プロセッサ130は、前記第1文章が前記一般表現文章の場合、前記一般表現文章に含まれている単語に基づいて漫画画像を自動生成できる。
【0165】
このような前記漫画画像は、少なくとも1つのテーマを有する少なくとも1つのキャラクタを含むことができる。
【0166】
また、プロセッサ130は、前記第2文章が前記台詞表現文章の場合、前記台詞表現文章である前記第2文章の主体を把握できる。
【0167】
ここで、前記第2文章の主体は、前記第1文章の主語である‘セラさん’であると把握できる。
【0168】
従って、プロセッサ130は、前記漫画画像内の少なくとも1つのキャラクタのうち前記把握された主体に該当する‘セラさん’のキャラクタ上に、前記台詞表現文章である前記第2文章を吹き出しの形で挿入できる。
【0169】
図3A乃至図3Lは、本発明に係る入力された文章基盤の漫画画像を自動生成して提供するUIを説明する図である。
【0170】
図3Aを参照すると、前記UIは複数の機能を有する複数のアイコンが位置する第1領域201、前記漫画画像が表示される第2領域202及び前記漫画画像のページプレビューと前記漫画画像を順次見るためのプレビューアイコンが位置する第3領域203を含むことができる。
【0171】
ここで、第1領域201は統合検索アイコン、テンプレートアイコン、キャラクタアイコン、テキストアイコン、吹き出しアイコン、要素アイコン、効果アイコン、背景アイコン、写真アイコン、マイピクチャアイコン、ドローイングアイコン及び項目アイコンを含むことができる。
【0172】
図3Bを参照すると、プロセッサ130は、前記ユーザから前記統合検索アイコンが入力され、ユーザから「人」という単語が入力される場合、前記単語である「人」に関する複数のアイコン別のサンプル情報が表示される。
【0173】
図3Cを参照すると、プロセッサ130は、前記ユーザから前記テンプレートアイコンが入力される場合、既に格納された少なくとも1つ以上のサンプルテンプレート情報を前記第1領域201に表示し、前記ユーザから特定サンプルテンプレートが入力される場合、前記特定サンプルテンプレートを前記第1領域201と前記第2領域202に表示できる。
【0174】
具体的に、前記第1領域201には、前記特定サンプルテンプレートに含まれている少なくとも1つのサンプル漫画画像がプレビュー形式で表示され、前記第2領域202には、前記特定サンプルテンプレートの中から選択されたサンプル漫画画像を表示できる。
【0175】
ここで、前記既に格納されたサンプルテンプレートは、内容、書体、背景、色などが全て編集可能な状態であるテンプレートであり得る。
【0176】
また、ここで、プロセッサ130は、前記第1領域201に前記ユーザから細部検索により前記サンプルテンプレート情報に関する検索語が入力される場合、前記検索語にマッチングされる少なくとも1つのサンプルテンプレート情報を前記メモリ120から抽出して前記第1領域201に表示できる。
【0177】
図3Dを参照すると、プロセッサ130は、前記ユーザから前記キャラクタアイコンが入力される場合、既に格納された少なくとも1つ以上のキャラクタ情報を前記第1領域201に表示し、前記ユーザから特定のキャラクタが入力される場合、前記特定のキャラクタを前記第2領域202に表示できる。
【0178】
ここで、プロセッサ130は、前記第1領域201に前記ユーザから細部検索により前記キャラクタに対する検索語が入力される場合、前記検索語にマッチングされる少なくとも1つのキャラクタを前記メモリ120から抽出して前記第1領域201に表示できる。
【0179】
図3Eを参照すると、プロセッサ130は、前記ユーザから前記テキストアイコンが入力される場合、既に格納された少なくとも1つ以上のテキストの情報を前記第1領域201に表示し、前記ユーザから特定テキストが入力される場合、前記特定テキストを前記第2領域202に表示できる。
【0180】
ここで、プロセッサ130は、前記第1領域201に前記ユーザから細部検索により前記テキストの情報に対する検索語が入力される場合、前記検索語にマッチングされる少なくとも1つのテキストの情報を前記メモリ120から抽出して前記第1領域201に表示できる。
【0181】
図3Fを参照すると、プロセッサ130は、前記吹き出しアイコンが入力される場合、既に格納された少なくとも1つの吹き出し情報を前記第1領域201に表示し、前記ユーザから特定の吹き出しが入力される場合、前記特定の吹き出しを前記第2領域202に表示できる。
【0182】
ここで、プロセッサ130は、前記ユーザから前記特定の吹き出し内に特定の文字、顔文字、文章、イメージなどが入力されて表示できる。
【0183】
また、プロセッサ130は、前記第1領域201に前記ユーザから細部検索により前記吹き出し情報に対する検索語が入力される場合、前記検索語にマッチングされる少なくとも1つの吹き出し情報を前記メモリ120から抽出して前記第1領域201に表示できる。
【0184】
図3Gを参照すると、プロセッサ130は、前記要素アイコンが入力される場合、既に格納された少なくとも1つの要素情報を前記第1領域201に表示し、前記ユーザから特定の要素が入力される場合、前記特定の要素を前記第2領域202に表示できる。
【0185】
ここで、プロセッサ130は、前記第2領域202に表示される前記特定の要素の大きさ、色、位置などを前記ユーザの入力によって変更して表示できる。
【0186】
また、プロセッサ130は、前記第1領域201に前記ユーザから細部検索により前記要素情報に対する検索語が入力される場合、前記検索語にマッチングされる少なくとも1つの要素情報を前記メモリ120から抽出して前記第1領域201に表示できる。
【0187】
図3Hを参照すると、プロセッサ130は、前記効果アイコンが入力される場合、既に格納された少なくとも1つの要素情報を前記第1領域201に表示し、前記ユーザから特定の効果が入力される場合、前記特定の効果を前記第2領域202に表示できる。
【0188】
ここで、プロセッサ130は、前記第2領域202に表示される前記特定の効果の大きさ、色、位置などを前記ユーザの入力によって変更して表示できる。
【0189】
また、プロセッサ130は、前記第1領域201に前記ユーザから細部検索により前記効果情報に対する検索語が入力される場合、前記検索語にマッチングされる少なくとも1つの効果情報を前記メモリ120から抽出して前記第1領域201に表示できる。
【0190】
図3Iを参照すると、プロセッサ130は、前記背景アイコンが入力される場合、既に格納された少なくとも1つの背景情報を前記第1領域201に表示し、前記ユーザから特定の背景が入力される場合、前記特定の背景を前記第2領域202に表示できる。
【0191】
ここで、プロセッサ130は、前記第1領域201に前記ユーザから細部検索により前記背景情報に対する検索語が入力される場合、前記検索語にマッチングされる少なくとも1つの効果情報を前記メモリ120から抽出して前記第1領域201に表示できる。
【0192】
図3Jを参照すると、プロセッサ130は、前記写真アイコンが入力される場合、既に格納された少なくとも1つの写真情報を前記第1領域201に表示し、前記ユーザから特定の写真が入力される場合、前記特定の写真を前記第2領域202に表示できる。
【0193】
ここで、プロセッサ130は、前記第1領域201に前記ユーザから細部検索により前記写真情報に対する検索語が入力される場合、前記検索語にマッチングされる少なくとも1つの写真情報を前記メモリ120から抽出して前記第1領域201に表示できる。
【0194】
図3Kを参照すると、プロセッサ130は、前記マイピクチャアイコンが入力される場合、既に格納された少なくとも1つのマイピクチャ情報を前記第1領域201に表示し、前記ユーザから特定のマイピクチャが入力される場合、前記特定のマイピクチャを前記第2領域202に表示できる。
【0195】
図3Lを参照すると、プロセッサ130は、前記ドローイングアイコンが入力される場合、既に格納された少なくとも1つのドローイング情報を前記第1領域201に表示し、前記ユーザから特定のドローイング道具が入力される場合、新たな画面に前記ドローイング道具の細部事項(一例として、ペンの太さ、ペンの色、ペンの種類、消しゴムの大きさなど)を表示できる。
【0196】
ここで、プロセッサ130は、前記新たな画面に前記ユーザから前記ドローイング道具の細部事項の設定が入力される場合、前記設定が完了したドローイング道具に基づいて前記ユーザが入力する入力内容を前記第2領域202にリアルタイムに表示できる。
【0197】
以上、プロセッサ130は、図3A乃至図3Lに示された前記UIを介して前記ユーザから入力された文章基盤の漫画画像を前記ユーザの入力によって所望の方向に補正できる。
【0198】
また、プロセッサ130は、前記UIを介して前記漫画画像を前記ユーザの入力がなくても自動で一括補正することによって、より高品質の漫画画像を生成して提供できる。
【0199】
このような補正は、前記漫画画像の生成前に前記UIを介して予め設定するか、前記漫画画像の生成中にも行うことができる。
【0200】
図4は、本発明に係る入力された文章基盤の漫画画像を自動で生成する過程を示すフローチャートである。以下、プロセッサ130の動作は、装置10で実行可能である。
【0201】
プロセッサ130は、少なくとも1つの文章が入力された場合に、前記文章を認識できる(S401)。
【0202】
具体的に、プロセッサ130は、入力された文章基盤の漫画画像自動生成サービスを提供するウェブサイト又はアプリケーションのUIを介して、少なくとも1つの文章が入力された場合に、前記文章を認識できる。
【0203】
ここで、プロセッサ130は、前記少なくとも1つの文章が複数の文章の場合、前記複数の文章のそれぞれに含まれている単語をそれぞれ識別し、前記識別された単語のそれぞれに対する文章の成分を把握できる。
【0204】
そして、プロセッサ130は、前記把握された文章の成分に基づいて前記複数の文章間の連関性を判断して前記複数の文章を少なくとも1つの段落にグルーピングできる。
【0205】
従って、プロセッサ130は、前記UIを介して記事の内容又は本の内容など複数の文章などが入力されても、文章の成分に基づいて段落を自動でグルーピングすることによって、文章では理解できない内容を漫画画像に容易に変換してユーザに提供できるという効果を奏する。
【0206】
プロセッサ130は、前記認識された文章内に含まれている少なくとも1つの単語をそれぞれ識別できる(S402)。
【0207】
即ち、前記少なくとも1つの単語は、人、場所、要素、効果、時間などに分類でき、その後、プロセッサ130はこのように分類された単語に基づいて漫画画像を生成できる。
【0208】
プロセッサ130は、前記認識された文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別できる(S403)。
【0209】
一例として、プロセッサ130は、前記認識された文章の開始地点及び終了地点に位置するダブルクォート又はシングルクォートを識別し、前記認識された文章の終了地点に位置する終止符、感嘆符、疑問符及び三点リーダのうちの少なくとも1つを識別できる。
【0210】
また、プロセッサ130は、前記少なくとも1つの文章が複数の文章の場合、前記グルーピングされた段落に含まれている少なくとも1つの文章の開始地点及び終了地点のうちの少なくとも1つに位置する文章符号の種類を識別できる。
【0211】
プロセッサ130は、前記識別された文章符号の種類に基づいて前記文章を一般表現文章、台詞表現文章及び感情表現文章のうちの何れか1つと判断できる(S404)。
【0212】
具体的に、プロセッサ130は、前記識別された文章符号が終了地点にのみ位置する場合、前記認識された文章を前記一般文章と判断できる。
【0213】
また、プロセッサ130は、前記識別された文章符号の種類がダブルクォートの場合、前記認識された文章を前記対話表現文章と判断し、前記識別された文章符号の種類がシングルクォートの場合、前記認識された文章を前記感情表現文章と判断できる。
【0214】
更に、プロセッサ130は、前記識別された文章符号が終了地点に位置し、前記識別された文章符号の種類が感嘆符及び疑問符のうちの何れか1つである場合、前記認識された文章を前記感情表現文章と判断できる。
【0215】
または、プロセッサ130は、前記認識された文章内に既に設定された顔文字又は略語が位置する場合、前記認識された文章を前記感情表現文章と判断できる。
【0216】
また、プロセッサ130は、前記少なくとも1つの文章が複数の文章の場合、前記グルーピングされた段落の中から最後に含まれている少なくとも1つの文章に対して、人工知能モデルに基づいて、前記少なくとも1つの文章中に前記文章の成分のうち主語が変更された特定の文章又は前記文章の成分のうち述語、冠形語及び副詞語のうちの少なくとも1つが反対語を含む特定の文章を抽出できる。
【0217】
ここで、プロセッサ130は、前記抽出された特定の文章を最後の漫画画像として生成できる。
【0218】
これにより、プロセッサ130は、少なくとも1つ以上の漫画画像のうち最後の漫画画像を前記特定の文章として生成することによって反転があり、その後に漫画に対する好奇心を向上させるという効果を創出できる。
【0219】
プロセッサ130は、前記文章が前記一般表現文章の場合、前記一般表現文章に含まれている単語に基づいて漫画画像を自動生成できる(S405)。
【0220】
ここで、前記漫画画像は、少なくとも1つのテーマを有する少なくとも1つのキャラクタを含むことができる。
【0221】
具体的に、プロセッサ130は前記単語が主語、目的語及び補語のうちの何れか1つを表す場合、前記単語に該当するテーマを有する前記キャラクタを生成できる。
【0222】
また、プロセッサ130は、前記単語が場所を表す場合、前記単語に基づいて前記漫画画像の背景を生成できる。
【0223】
更に、プロセッサ130は、前記単語が時間を表す場合、前記単語に基づいて前記漫画画像の明るさを決定できる。
【0224】
また、プロセッサ130は、前記一般文章内で前記生成されたキャラクタと関連する動詞を判断し、前記キャラクタが前記判断された動詞に該当するモーションを表すように生成できる。
【0225】
また、プロセッサ130は、キャラクタ配置アルゴリズムに基づいて前記生成されたキャラクタの大きさと位置及び前記吹き出しの大きさと位置を決定できる。
【0226】
ここで、前記キャラクタ配置アルゴリズムは、前記漫画画像に対するユーザの操作情報が入力される場合、前記操作情報と前記漫画画像をマッチングして学習データセットを構築し、前記構築された学習データセットに基づいて機械学習できる。
【0227】
これにより、プロセッサ130は、前記キャラクタ配置アルゴリズムをユーザ別に適用できる。
【0228】
そして、前記プロセッサ130は、前記操作情報と前記漫画画像をマッチングすることによって、ユーザのニーズに合う前記キャラクタ配置アルゴリズムの学習データセットの構築が可能になることによって、前記データセットの累積によりその後には前記ユーザの所望する方向の漫画画像をすぐに生成できる。
【0229】
ここで、前記操作情報は、第1情報、第2情報、第3情報及び第4情報のうちの少なくとも1つの情報を含むことができる。
【0230】
このような前記第1情報は、前記キャラクタの大きさと位置変動、左右反転及び上下反転に関する情報であり、前記第2情報は、前記キャラクタの表情変更と前記キャラクタの動作変更に関する情報であり、前記第3情報は、前記キャラクタ又は前記オブジェクトを追加又は削除、前記背景の変更に関する情報であり、前記第4情報は、前記キャラクタ又は前記オブジェクトの遠近感の変更に関する第4情報であり得る。
【0231】
また、プロセッサ130は、前記感情表現文章に対して主体を把握し、前記把握された主体に該当するキャラクタの顔を既に設定された割合でズームインして表示するか又は前記顔の形状を変更して表示できる。
【0232】
一例として、プロセッサ130は、前記顔の形状を嬉しい感情の程度に応じて若干又はにっこりと笑うように変更するか、悪い感情の程度に応じて顔をしかめる程度を変更できる。
【0233】
プロセッサ130は、前記文章が前記台詞表現文章又は前記感情表現文章の場合、前記台詞表現文章又は前記感情表現文章の主体を把握できる(S406)。
【0234】
プロセッサ130は、前記漫画画像内の少なくとも1つのキャラクタのうち前記把握された主体に該当するキャラクタ上に前記台詞表現文章又は前記感情表現文章を吹き出しの形で挿入できる(S407)。
【0235】
図4は、段階S401乃至段階S407を順次実行することと記載しているが、これは本実施例の技術思想を例示的に説明したことに過ぎないものであって、本実施例が属する技術分野における通常の知識を有する者であれば、本実施例の本質的な特性から逸脱しない範囲で図4に記載された順序を変更して実行するか、段階S401乃至段階S407のうちの1つ以上の段階を並列的に実行することに多様に修正及び変形して適用可能であるので、図4は、時系列的な順序に限定されるものではない。
【0236】
以下、本発明に係る装置10が生成された漫画画像内のキャラクタに対して動的可変が可能なキャラクタに生成する過程を説明する。
【0237】
ここで、装置10は、キャラクタの関節や連結部位で発生する余白領域にブリッジを生成できる。
【0238】
その後、装置10は、ウェブサイト又はアプリケーションを介してユーザからキャラクタの動作デザインが入力されて生成したキャラクタを表示できる。
【0239】
ここで、前記ウェブサイト又は前記アプリケーションは、入力された文章基盤の漫画画像を自動生成するサービスに含まれる動的可変キャラクタ生成サービスを提供できる。
【0240】
これにより、装置10は、キャラクタの関節部分を連結するためのキャラクタ関節部分別にブリッジを生成してキャラクタの関節部分の動きを自然に行えるという効果を奏する。
【0241】
また、装置10は、キャラクタのブリッジを生成する部分を回転軸を基準に一定角度ずつ回転させてブリッジを生成して自然なブリッジを備えるキャラクタを表現できるという効果を奏する。
【0242】
更に、装置10は、ウェブサイト上に接続して動的可変キャラクタ生成サービスを利用できるように支援することもでき、動的可変キャラクタ生成サービスを支援するために自ら製作されたアプリケーションを支援することもできる。
【0243】
以下、装置10のプロセッサ130を通じた詳細な動作を説明する。
【0244】
プロセッサ130は、ユーザ端末(図示せず)から選択されたキャラクタに対応する関節部分を第1要素と第2要素とに分離し、前記第1要素と前記第2要素を一直線に連結する中心ブリッジデータを生成して表示できる。ここで、前記ブリッジは、前記キャラクタの前記第1要素と前記第2要素間の余白領域にオーバーラップするように配置できる。
【0245】
プロセッサ130は、前記キャラクタの前記第1要素と前記第2要素を第1方向に連結する第1方向ブリッジデータ又は第2方向に連結する第2方向ブリッジデータを生成して表示できる。
【0246】
また、プロセッサ130は、前記キャラクタを回転軸を基準に回転させて前記第1方向ブリッジデータと第2方向ブリッジデータを生成して表示できる。
【0247】
プロセッサ130は、前記ユーザ端末(図示せず)から前記中心ブリッジデータ、第1方向ブリッジデータ又は第2方向ブリッジデータのそれぞれに対応する第1要素動作デザイン又は第2要素動作デザインを選択して前記キャラクタに前記第2要素動作デザインをマッチングできる。
【0248】
メモリ120は複数のキャラクタ、複数の第1要素動作デザインと第2要素動作デザインが格納されることができる。
【0249】
以上で説明した本発明に係る装置10の動作は、図5乃至図18を通じて説明する動的可変が可能なキャラクタを生成する過程と発明のカテゴリーのみ異なるだけで、同一の内容であるので、詳細な内容については図5乃至図18を通じて後述する。
【0250】
ユーザ端末(図示せず)は、ユーザからキャラクタの動作デザインが入力されて装置10で生成したキャラクタを表示してユーザに提供できる。
【0251】
ユーザは、前記ユーザ端末(図示せず)に前記アプリケーションをインストールして駆動することによって、該当サービスを利用できる。ここで、前記該当サービスは、入力された文章基盤の漫画画像を自動生成するサービスに含まれる動的可変キャラクタ生成サービスであり得る。
【0252】
または、前記ユーザは、前記ユーザ端末(図示せず)を介して前記ウェブサイトに接続して前記該当サービスを利用できる。
【0253】
また、本発明の実施例でユーザが使用するユーザ端末(図示せず)は、代表的にはコンピュータを適用可能であり、スマートフォン、タブレットPC、ノートブックなどのようにディスプレイ手段、入力手段、通信機能が含まれていれば、何でも適用可能である。
【0254】
一例として、ユーザ端末(図示せず)は、ディスプレイ手段、入力手段、通信機能が含まれる携帯電話、スマートフォン、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットPC、個人用コンピュータ(例えば、デスクトップコンピュータ、ノートブックコンピュータなど)、ワークステーション、PDA、ウェブパッドなどのようなデジタル機器のうちの1つとできる。
【0255】
図5は、本発明に係る動的可変が可能なキャラクタ生成過程を示すフローチャートである。以下、プロセッサ130の動作は、装置10で実行可能である。
【0256】
プロセッサ130が、ユーザ端末(図示せず)から選択されたキャラクタの第1要素と第2要素とに分離された関節部分を連結する中心ブリッジデータを生成して表示できる(S510)。
【0257】
ここで、前記第1要素は、前記キャラクタのボディのうち上体、腕のうち上腕、脚のうち太股であり、前記第2要素は、前記キャラクタのボディのうち下体、腕のうち下腕、脚のうちふくらはぎであり得る。
【0258】
また、第1要素と第2要素の該当する皮膚と関節だけでなく、皮膚と関節部分をカバーする衣類の一端と他端、ボタンの一端と他端、ジッパーの一端と他端などの要素を含むことができる。
【0259】
従って、プロセッサ130は、キャラクタの動きによって第1要素と第2要素とに分離される関節部分又は連結部分に対して中心ブリッジデータを生成してキャラクタの動きを自然に行えるという効果を奏する。
【0260】
段階S510である中心ブリッジデータの生成に関する細部内容を、図6乃至図9を参照して説明する。
【0261】
図6は、本発明に係る中心ブリッジデータを生成する過程を示す順序図である。
【0262】
図7は、本発明に係るキャラクタ生成サービスページの複数のキャラクタの中からユーザの所望するキャラクタを選択することを示す例示図である。
【0263】
図8は、本発明に係るユーザが選択したキャラクタがキャラクタ生成画面に示されたことを示す例示図である。
【0264】
図9は、本発明に係るユーザが選択したキャラクタの上体中心ブリッジデータと下体中心ブリッジデータが示されたことを示す例示図である。
【0265】
図6を参照すると、段階S510である中心ブリッジデータの生成において、プロセッサ130が、既に格納された複数のキャラクタのうち前記ユーザ端末(図示せず)から1つのキャラクタを選択できる(S512)。
【0266】
一例として、図7を参照すると、プロセッサ130は、ユーザ端末(図示せず)でキャラクタ生成サービスアプリケーションが駆動されると、前記UI上に図7のようなキャラクタ生成サービスページを活性化させることができる。
【0267】
前記キャラクタ生成サービスページには、前記第1領域201にキャラクタ選択欄71に複数のキャラクタを備えることができる。
【0268】
ユーザは、ユーザ端末(図示せず)を介して複数のキャラクタのうち所望のキャラクタである第1キャラクタ700を選択できる。
【0269】
ここで、図8を参照すると、ユーザがユーザ端末(図示せず)を介して第1キャラクタ700を選択する場合、プロセッサ130が、第2領域202のキャラクタ生成画面であるアートボード42に第1キャラクタ700を表示できる。
【0270】
プロセッサ130が前記キャラクタの第1要素である上体と第2要素である下体とに分離されるボディに対して前記上体に対応する上体中心ブリッジデータと前記下体に対応する下体中心ブリッジデータを生成して表示できる(S514)。
【0271】
一例として、図9を参照すると、ユーザがユーザ端末(図示せず)を介して選択した第2キャラクタ900は、ボディが第1要素である上体と第2要素である下体とに分離されて表示されることができる。
【0272】
従って、第2キャラクタ900が図9に示されるように、左へ上体を横に倒す場合、上体が傾きながら余白90が発生し得る。
【0273】
第2キャラクタ900の関節が動く部分に対して余白が発生する場合、第2キャラクタ900が不自然に表示され得る。従って、第2キャラクタ900が自然に表示されるために余白90を連結するブリッジが必要である。
【0274】
図9を参照すると、プロセッサ130がユーザ端末(図示せず)を介して選択された第2キャラクタ900の第1要素である上体と第2要素である下体を連結するための下体中心ブリッジデータ910又は上体中心ブリッジデータ920を生成して表示できる。
【0275】
ここで、上体中心ブリッジデータ910は、第2キャラクタ900の関節部分のうち腰部分に対するブリッジであって、第2キャラクタ900の上衣901内に腰部分を表現して第2キャラクタ900が左側方向へ体を横に倒す場合に発生し得る余白90を埋められるという効果を奏する。
【0276】
また、下体中心ブリッジデータ920は、第2キャラクタ900の関節部分のうち腰部分に対するブリッジであって、第2キャラクタ900の上衣901内に腰部分まで覆っている下衣902を表現して第2キャラクタ900が左側方向へ体を横に倒す場合に発生し得る余白90を埋められるという効果を奏する。
【0277】
プロセッサ130が、前記ユーザ端末(図示せず)から前記上体中心ブリッジデータと前記下体中心ブリッジデータのうちの1つを選択して前記中心ブリッジデータを生成して表示できる(S516)。
【0278】
プロセッサ130が、前記キャラクタの前記第1要素と前記第2要素を第1方向に連結する第1方向ブリッジデータ又は第2方向に連結する第2方向ブリッジデータを生成して表示できる(S520)。
【0279】
段階S520である第1方向ブリッジデータ又は第2方向ブリッジデータを生成して表示することに関する細部内容は、図10乃至15を参照して説明する。
【0280】
図10は、本発明に係る第1方向ブリッジデータと第2方向ブリッジデータを示す例示図である。
【0281】
図11は、本発明に係る第1方向ブリッジデータ又は第2方向ブリッジデータを生成する過程を示すフローチャートである。
【0282】
図12は、本発明に係る回転軸を基準にキャラクタを既に設定された角度で回転させることを示す例示図である。
【0283】
図13は、本発明に係るキャラクタの正面から右側左側へ体を横に倒す動作を行う際に生成される第1方向ブリッジデータと第2方向ブリッジデータを示す例示図である。
【0284】
図14は、本発明に係るキャラクタの側面から右側左側へ体を横に倒す動作を行う際に生成される第1方向ブリッジデータと第2方向ブリッジデータを示す例示図である。
【0285】
図15は、本発明に係るキャラクタの後面から右側左側へ体を横に倒す動作を行う際に生成される第1方向ブリッジデータと第2方向ブリッジデータを示す例示図である。
【0286】
一例として、図10を参照すると、第1キャラクタ700が第1方向である右に上体を10°横に倒す場合、第1方向ブリッジデータ710を生成して表示できる。
【0287】
また、図10を参照すると、第1キャラクタ700が第2方向である左に上体を10°横に倒す場合、第2方向ブリッジデータ720を生成して表示できる。
【0288】
プロセッサ130が前記回転軸をキャラクタ生成画面に表示し、前記回転軸を基準に前記キャラクタを既に設定された角度で回転させることができる(S522)。
【0289】
一例として、図12を参照すると、キャラクタ生成画面であるアートボード72は、3等分に分けて表示され、第1画面73は下体中心ブリッジデータ910を含む下体の側面を表示できる。
【0290】
また、第2画面74は、下体中心ブリッジデータ910を含む下体の正面を表示でき、第3画面75は、下体中心ブリッジデータ910を含む下体の後面を表示できる。
【0291】
プロセッサ130が、キャラクタの下体が位置する第1画面73、第2画面74及び第3画面75のそれぞれに回転軸1200を表示し、回転軸1200を基準にキャラクタ900を-10°、10°ずつ回転させることができる。
【0292】
プロセッサ130が回転軸1200を基準にキャラクタの下体を既に設定された角度で回転させるので、キャラクタ900の腰部分に対する下体中心ブリッジデータ910を自然に調節して位置させることができるという効果を奏する。
【0293】
プロセッサ130が前記回転軸1200を基準に前記既に設定された角度によって回転される前記キャラクタの正面、側面、後面のそれぞれに対応する前記第1方向ブリッジデータと前記第2方向ブリッジデータを生成できる(S524)。
【0294】
ここで、プロセッサ130は、第1方向ブリッジデータと第2方向ブリッジデータを段階S516でユーザ端末(図示せず)から選択されて生成した中心ブリッジデータに基づいて上体又は下体に対応するように生成できる。
【0295】
一例として、図13を参照すると、プロセッサ130は、回転軸1200を基準にキャラクタ900の正面から第1方向である右側へ上体を10°横に倒す場合、第1方向ブリッジデータ1301を生成できる。
【0296】
また、プロセッサ130は、回転軸1200を基準にキャラクタ900の正面から第2方向である左側へ上体を10°横に倒す場合、第2方向ブリッジデータ1302を生成して表示できる。
【0297】
これにより、キャラクタ900は、正面から右側左側へ体を横に倒す動作を行う際にそれぞれの第1方向ブリッジデータ1301と第2方向ブリッジデータ1302がマッチングされて自然な感じになる。
【0298】
ここで、第1方向ブリッジデータ1301と第2方向ブリッジデータ1302は、キャラクタ900のボディのうち上体部分に対するブリッジであって、キャラクタ900が着用した上衣に対するブリッジであり得る。
【0299】
また、図14を参照すると、プロセッサ130は、回転軸1200を基準にキャラクタ900の側面から第1方向である右側へ上体を10°横に倒す場合、第1方向ブリッジデータ1101を生成できる。
【0300】
更に、プロセッサ130は、前記回転軸1200を基準に前記キャラクタ900の側面から第2方向である左側へ上体を10°横に倒す場合、第2方向ブリッジデータ1102を生成して表示できる。
【0301】
これにより、キャラクタ900は、側面から右側左側へ横に倒す動作を行う際にそれぞれの第1方向ブリッジデータ1401と第2方向ブリッジデータ1402がマッチングされて自然な感じになる。
【0302】
また、図15を参照すると、プロセッサ130は、回転軸1200を基準にキャラクタ900の後面から第1方向である右側へ上体を10°横に倒す場合、第1方向ブリッジデータ1501を生成できる。
【0303】
更に、プロセッサ130は、前記回転軸1200を基準に前記キャラクタ900の後面から第2方向である左側へ上体を10°横に倒す場合、第2方向ブリッジデータ1502を生成して表示できる。
【0304】
これにより、キャラクタ900は、後面から右側左側へ横に倒す動作を行う際にそれぞれの第1方向ブリッジデータ1501と第2方向ブリッジデータ1502がマッチングされて自然な感じになる。
【0305】
プロセッサ130が、前記ユーザ端末(図示せず)から前記中心ブリッジデータ、第1方向ブリッジデータ又は第2方向ブリッジデータのそれぞれに対応する第1要素動作デザイン又は第2要素動作デザインを選択して前記キャラクタにマッチングできる(S530)。
【0306】
ここで、前記第1要素動作デザインは、前記キャラクタのボディのうち上体、腕のうち上腕、脚のうち太股の多数の動作に対応するデザインのうちの1つであり得る。
【0307】
また、前記第2要素動作デザインは、前記キャラクタのボディのうち下体、腕のうち下腕、脚のうちふくらはぎの多数の動作に対応するデザインのうちの1つであり得る。
【0308】
段階S530である第1要素動作デザイン又は第2要素動作デザインが選択されて前記キャラクタにマッチングすることに関する細部内容は、図16乃至18を参照して説明する。
【0309】
図16は、本発明に係る第1要素動作デザイン又は第2要素動作デザインが選択されてキャラクタにマッチングする過程を示す順序図である。
【0310】
図17は、本発明に係る複数の上体動作デザインを示す例示図である。
【0311】
図18は、本発明に係る複数の下体動作デザインを示す例示図である。
【0312】
プロセッサ130が、前記ユーザ端末(図示せず)から前記上体中心ブリッジデータ、第1方向ブリッジデータ又は第2方向ブリッジデータのそれぞれに対応する前記第1要素動作デザインのうち上体動作デザインを選択して前記キャラクタに前記上体動作デザインをマッチングできる(S532)。
【0313】
一例として、図17を参照すると、ユーザは、ユーザ端末(図示せず)を介して、複数の上体動作デザイン17のうち上体中心ブリッジデータ、第1方向ブリッジデータ又は第2方向ブリッジデータのそれぞれに対応する第1上体動作デザイン1701を選択できる。
【0314】
プロセッサ130が、前記ユーザ端末(図示せず)から前記下体中心ブリッジデータ、第1方向ブリッジデータ又は第2方向ブリッジデータのそれぞれに対応する前記第2要素動作デザインのうち下体動作デザインを選択して前記キャラクタに前記下体動作デザインをマッチングできる(S534)。
【0315】
一例として、図18を参照すると、ユーザは、ユーザ端末(図示せず)を介して、複数の上体動作デザイン18のうち下体中心ブリッジデータ、第1方向ブリッジデータ又は第2方向ブリッジデータのそれぞれに対応する第1下体動作デザイン1801を選択できる。
【0316】
図19は、本発明に係る複数の上体と下体動作デザインを示す例示図であり、図20は、本発明に係る複数の左腕動作デザインを示す例示図であり、図21は、本発明に係る複数の脚動作デザインを示す例示図である。
【0317】
図19を参照すると、プロセッサ130は、キャラクタ生成サービスページの上端中央に備えられた「正面」、「側面」、「後面」、「一体型」ボタンのうちユーザがユーザ端末(図示せず)を介して「正面」ボタンを入力する場合、キャラクタの正面での左腕、右腕、脚それぞれのデザインを表示できる。
【0318】
ここで、キャラクタ生成サービスページは、中央にユーザの入力によって生成されたキャラクタを表示できる。
【0319】
一例として、ユーザが、ユーザ端末(図示せず)を介して、複数の左腕デザインのうち第1左腕デザイン1901を選択した場合、プロセッサ130は、中央に表示されるキャラクタのデザイン全体から左腕をユーザが選択した第1左腕デザイン1901に変更して表示できる。
【0320】
また、ユーザがユーザ端末(図示せず)を介して複数の右腕デザインのうち第1右腕デザイン1902を選択した場合、プロセッサ130は、中央に表示されるキャラクタのデザイン全体から右腕をユーザが選択した第1右腕デザイン1902に変更して表示できる。
【0321】
更に、ユーザが、ユーザ端末(図示せず)を介して、複数の脚デザインの中から第1脚デザイン1903を選択した場合、プロセッサ130は、中央に表示されるキャラクタのデザイン全体から脚をユーザが選択した第1脚デザイン1903に変更して表示できる。
【0322】
図20を参照すると、プロセッサ130は、キャラクタ生成サービスページの左側上端に備えられた「正面」、「側面」、「後面」、「一体型」ボタンのうちユーザがユーザ端末(図示せず)を介して「正面」ボタンを入力する場合、正面でのキャラクタのデザイン全体を表示できる。
【0323】
また、プロセッサ130は、キャラクタ生成サービスページの右側上端に備えられた「左腕」、「右腕」、「脚」ボタンのうちユーザがユーザ端末(図示せず)を介して「左腕」ボタンを入力する場合、正面でのキャラクタの左腕に対応する複数の左腕デザインを表示できる。
【0324】
ここで、ユーザがユーザ端末(図示せず)を介して複数の左腕デザインのうち第2左腕デザイン2001を選択した場合、プロセッサ130は、左側画面にキャラクタのデザイン全体から左腕をユーザが選択した第2左腕デザイン2001に変更して表示できる。
【0325】
図21を参照すると、プロセッサ130は、キャラクタ生成サービスページの左側上端に備えられた「正面」、「側面」、「後面」、「一体型」ボタンのうちユーザがユーザ端末(図示せず)を介して「正面」ボタンを入力する場合、正面でのキャラクタのデザイン全体を表示できる。
【0326】
また、プロセッサ130は、キャラクタ生成サービスページの右側上端に備えられた「左腕」、「右腕」、「脚」ボタンのうちユーザがユーザ端末(図示せず)を介して「脚」ボタンを入力する場合、正面でのキャラクタの脚に対応する複数の脚デザインを表示できる。
【0327】
ここで、ユーザがユーザ端末(図示せず)を介して複数の脚デザインのうち第2脚デザイン2101を選択した場合、プロセッサ130は、左側画面にキャラクタのデザイン全体から脚をユーザが選択した第2脚デザイン2101に変更して表示できる。
【0328】
以上、図5図6図11及び図16では、それぞれ複数の段階を順次実行することとして記載しているが、これは本実施例の技術思想を例示的に説明したことに過ぎないものであって、本実施例が属する技術分野における通常の知識を有する者であれば、本実施例の本質的な特性から逸脱しない範囲で図5図6図11及び図16に記載された順序を変更して実行するか、複数の段階のうち1つ以上の段階を並列的に実行することと多様に修正及び変形して適用可能であるので、図5図6図11及び図16は、時系列的な順序に限定されるものではない。
【0329】
以上で前述した本発明に係る方法は、ハードウェアであるコンピュータにて実行するためにプログラム(又はアプリケーション)として実現されて媒体に格納できる。ここで、コンピュータは、前述した装置10であり得る。
【0330】
前記前述したプログラムは、前記コンピュータがプログラムを読み込んでプログラムに実現した前記方法を実行させるために、前記コンピュータのプロセッサ(CPU)が前記コンピュータの装置インターフェースを介して読み取られるC、C++、JAVA(登録商標)、機械語などのコンピュータ言語でコード化されたコード(Code)を含むことができる。このようなコードは、前記方法を実行するのに必要な機能を定義した関数などと関連する機能的なコード(Functional Code)を含むことができ、前記機能を前記コンピュータのプロセッサが所定の手順通りに実行させるのに必要な実行手順関連の制御コードを含むことができる。
【0331】
また、このようなコードは、前記機能を前記コンピュータのプロセッサが実行させるのに必要な追加の情報やメディアが前記コンピュータの内部又は外部メモリのどの位置(アドレス)で参照されるべきかに対するメモリ参照関連のコードを更に含むことができる。
【0332】
また、前記コンピュータのプロセッサが前記機能を実行させるために、遠隔(Remote)にある任意の他のコンピュータやサーバなどと通信が必要な場合、コードは前記コンピュータの通信モジュールを用いて遠隔にある任意の他のコンピュータやサーバなどとどのように通信すべきか、通信時に如何なる情報やメディアを送受信すべきかなどに対する通信関連のコードを更に含むことができる。
【0333】
本発明の実施例と関連して説明された方法又はアルゴリズムの段階は、ハードウェアで直接実現するか、ハードウェアにより実行されるソフトウェアモジュールで実現するか、又はこれらの結合により実現することができる。ソフトウェアモジュールはRAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ(Flash Memory)、ハードディスク、脱着型ディスク、CD-ROM、又は本発明が属する技術分野において周知されている任意の形態のコンピュータ読み取り可能な記録媒体に常に存在し得る。
【0334】
以上、添付の図面を参照して本発明の実施例を説明したが、本発明が属する技術分野における通常の技術者は、本発明がその技術的思想や必須な特徴を変更することなく、他の具体的な形態に実施され得るということが理解できるだろう。従って、以上で述べた実施例はあらゆる面で例示的なものであり、制限的ではないものとして理解すべきである。
【符号の説明】
【0335】
10 装置
110 通信部
120 メモリ
130 プロセッサ

図1
図2A
図2B
図2C
図3A
図3B
図3C
図3D
図3E
図3F
図3G
図3H
図3I
図3J
図3K
図3L
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21