IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

7799121画像編集装置、画像編集方法、およびプログラム
<>
  • -画像編集装置、画像編集方法、およびプログラム 図1
  • -画像編集装置、画像編集方法、およびプログラム 図2
  • -画像編集装置、画像編集方法、およびプログラム 図3
  • -画像編集装置、画像編集方法、およびプログラム 図4
  • -画像編集装置、画像編集方法、およびプログラム 図5
  • -画像編集装置、画像編集方法、およびプログラム 図6
  • -画像編集装置、画像編集方法、およびプログラム 図7
  • -画像編集装置、画像編集方法、およびプログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2026-01-05
(45)【発行日】2026-01-14
(54)【発明の名称】画像編集装置、画像編集方法、およびプログラム
(51)【国際特許分類】
   G06T 11/60 20260101AFI20260106BHJP
   G06Q 30/0241 20230101ALI20260106BHJP
【FI】
G06T11/60 100B
G06Q30/0241 444
【請求項の数】 16
(21)【出願番号】P 2025098400
(22)【出願日】2025-06-12
【審査請求日】2025-06-12
【早期審査対象出願】
(73)【特許権者】
【識別番号】500149555
【氏名又は名称】株式会社サイバーエージェント
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100141139
【弁理士】
【氏名又は名称】及川 周
(72)【発明者】
【氏名】白川 嵩大
(72)【発明者】
【氏名】鳴本 拓人
(72)【発明者】
【氏名】岡本 大和
(72)【発明者】
【氏名】毛利 真崇
【審査官】鈴木 明
(56)【参考文献】
【文献】特開2019-009754(JP,A)
【文献】特開2004-112112(JP,A)
【文献】中国特許出願公開第110493630(CN,A)
【文献】特開2007-172573(JP,A)
【文献】国際公開第2016/072117(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 11/60
G06Q 30/0241
(57)【特許請求の範囲】
【請求項1】
視覚効果を付与する対象の画像である対象画像を入力する対象画像入力部と、
前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識部と、
前記オブジェクト認識部が認識した前記1つ以上のオブジェクトの中から、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識部と、
前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与部と、
前記対象画像から、前記オブジェクトの表示属性に関する属性情報を取得する属性情報取得部と、
を備え、
前記視覚効果付与部は、前記属性情報に基づいて、前記対象オブジェクトの表示属性が維持されるように前記対象オブジェクトに前記視覚効果を付与する、
画像編集装置。
【請求項2】
視覚効果を付与する対象の画像である対象画像を入力する対象画像入力部と、
前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識部と、
前記オブジェクト認識部が認識した前記1つ以上のオブジェクトの中から、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識部と、
前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与部と、
を備え、
前記視覚効果付与部は、前記対象オブジェクトの画像に前記視覚効果を付与することで前記視覚効果が付与された前記対象オブジェクトの画像である対象オブジェクト画像を生成し、前記対象画像に前記対象オブジェクト画像を重ね合わせることで前記対象画像に前記視覚効果を付与するものであり、
前記対象オブジェクト画像の生成は、前記対象オブジェクトの画像を、視覚効果を有した態様で表示させるためのプログラムを生成することである、
画像編集装置。
【請求項3】
前記視覚効果付与部は、前記対象画像に含まれる前記対象オブジェクトに対して動きを伴う視覚効果を付与する、
請求項1または2に記載の画像編集装置。
【請求項4】
前記対象画像から、前記オブジェクトの表示属性に関する属性情報を取得する属性情報取得部をさらに備え、
前記視覚効果付与部は、前記属性情報に基づいて、前記対象オブジェクトの表示属性が維持されるように前記対象オブジェクトに前記視覚効果を付与する、
請求項に記載の画像編集装置。
【請求項5】
前記視覚効果付与部は、前記対象画像から前記対象オブジェクトの画像を除去し、前記対象オブジェクトの画像が除去された前記対象画像に対して前記対象オブジェクト画像を重ね合わせる、
請求項に記載の画像編集装置。
【請求項6】
前記オブジェクトは前記対象画像内のテキストであり、
前記属性情報は、前記テキストを構成する文字列の文字数、方向、位置、改行の位置、および領域の形状のうち1つ以上を含む、
請求項に記載の画像編集装置。
【請求項7】
前記オブジェクトは前記対象画像内のテキストであり、
前記属性情報は、テキストに対応づけられた装飾オブジェクトの属性を含み、
前記視覚効果付与部は、前記装飾オブジェクトの属性に応じた態様で前記対象オブジェクトに視覚効果を付与する、
請求項に記載の画像編集装置。
【請求項8】
前記オブジェクトは前記対象画像内のテキストであり、
前記対象オブジェクト認識部は、前記対象画像内におけるテキスト群のレイアウト分析を行い、前記レイアウト分析の結果に基づいて視覚効果を付与する対象のテキストである対象テキストを選択する、
請求項に記載の画像編集装置。
【請求項9】
前記属性情報は、前記対象画像に含まれる複数の前記オブジェクトについての表示属性を含むものであり、
前記視覚効果付与部は、複数の前記オブジェクトの表示属性に応じた態様で前記対象オブジェクトに視覚効果を付与する、
請求項に記載の画像編集装置。
【請求項10】
前記視覚効果付与部は、前記属性情報と前記視覚効果の付与に関する規則とに基づいて、前記オブジェクトのうち前記対象オブジェクト以外のオブジェクトの表示属性と、前記対象オブジェクトの表示属性との間に前記規則が適用されるように、前記対象オブジェクトに視覚効果を付与する、
請求項に記載の画像編集装置。
【請求項11】
前記オブジェクトは前記対象画像内の前景物体であり、
前記属性情報は、前記前景物体の位置、カテゴリ、および領域の形状のうち1つ以上を含む、
請求項に記載の画像編集装置。
【請求項12】
前記対象画像は商品を広告するための広告画像であり、
前記オブジェクトは前記商品である、
請求項1、2、9、10および11のいずれか一項に記載の画像編集装置。
【請求項13】
視覚効果を付与する対象の画像である対象画像を入力する対象画像入力ステップと、
前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識ステップと、
前記オブジェクト認識ステップにおいて認識した前記1つ以上のオブジェクトの中から、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識ステップと、
前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与ステップと、
前記対象画像から、前記オブジェクトの表示属性に関する属性情報を取得する属性情報取得ステップと、
を有する画像編集方法であって、
前記視覚効果付与ステップは、前記属性情報に基づいて、前記対象オブジェクトの表示属性が維持されるように前記対象オブジェクトに前記視覚効果を付与するものである、
画像編集方法。
【請求項14】
視覚効果を付与する対象の画像である対象画像を入力する対象画像入力ステップと、
前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識ステップと、
前記オブジェクト認識ステップにおいて認識した前記1つ以上のオブジェクトの中から、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識ステップと、
前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与ステップと、
を有する画像編集方法であって、
前記視覚効果付与ステップは、前記対象オブジェクトの画像に前記視覚効果を付与することで前記視覚効果が付与された前記対象オブジェクトの画像である対象オブジェクト画像を生成し、前記対象画像に前記対象オブジェクト画像を重ね合わせることで前記対象画像に前記視覚効果を付与するものであり、
前記対象オブジェクト画像の生成は、前記対象オブジェクトの画像を、視覚効果を有した態様で表示させるためのプログラムを生成することである、
画像編集方法。
【請求項15】
視覚効果を付与する対象の画像である対象画像を入力する対象画像入力ステップと、
前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識ステップと、
前記オブジェクト認識ステップにおいて認識した前記1つ以上のオブジェクトの中から、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識ステップと、
前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与ステップと、
前記対象画像から、前記オブジェクトの表示属性に関する属性情報を取得する属性情報取得ステップと、
をコンピュータに実行させるためのプログラムであって、
前記視覚効果付与ステップは、前記属性情報に基づいて、前記対象オブジェクトの表示属性が維持されるように前記対象オブジェクトに前記視覚効果を付与するものである、
プログラム。
【請求項16】
視覚効果を付与する対象の画像である対象画像を入力する対象画像入力ステップと、
前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識ステップと、
前記オブジェクト認識ステップにおいて認識した前記1つ以上のオブジェクトの中から、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識ステップと、
前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与ステップと、
をコンピュータに実行させるためのプログラムであって、
前記視覚効果付与ステップは、前記対象オブジェクトの画像に前記視覚効果を付与することで前記視覚効果が付与された前記対象オブジェクトの画像である対象オブジェクト画像を生成し、前記対象画像に前記対象オブジェクト画像を重ね合わせることで前記対象画像に前記視覚効果を付与するものであり、
前記対象オブジェクト画像の生成は、前記対象オブジェクトの画像を、視覚効果を有した態様で表示させるためのプログラムを生成することである、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、動画像に視覚効果を付与する技術に関する。
【背景技術】
【0002】
従来、生成AI(Artificial Intelligence)を用いて動画像を生成したり、編集したりする技術が提案されている。例えば、大規模言語モデルであるChatGPT-4oは、自然言語で入力された指示文に基づいて対象の動画像を編集する機能を有している。また、テキスト情報から動画を生成する技術(例えば非特許文献1参照)が知られている。
【先行技術文献】
【非特許文献】
【0003】
【文献】「ビデオに生成AIの力をもたらすAdobe Firefly Video Model」,[online],[令和7年5月12日検索],インターネット,<URL:https://blog.adobe.com/jp/publish/2024/09/13/cc-video-bringing-gen-ai-to-video-adobe-firefly-video-model-coming-soon>
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来の技術では、対象の動画像を利用者の意図したとおりに編集できない場合があった。例えば、従来の技術では、意図しないオブジェクトに視覚効果が付与される場合があり、これを回避するためには、どのオブジェクトに視覚効果を付与するのかを動画像ごとに個別に指示を行う必要があった。また、例えば、従来の技術では、特定のオブジェクトだけに視覚効果を付与したいところ、対象のオブジェクト以外の部分にも視覚効果が付与されてしまう場合があった。また、例えば、従来の技術では、必ずしも他の部分と調和がとれた形で対象オブジェクトに視覚効果を付与することができず、動画像の審美性や可読性が損なわれてしまう可能性があった。
【0005】
上記事情に鑑み、本発明は、より利用者の意図に即した形で動画像に視覚効果を付与することができる技術の提供を目的としている。
【課題を解決するための手段】
【0006】
本発明の一態様は、視覚効果を付与する対象の画像である対象画像を入力する対象画像入力部と、前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識部と、前記オブジェクト認識部が認識した前記1つ以上のオブジェクトから、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識部と、前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与部と、を備える画像編集装置である。
【0007】
本発明の一態様は、上記の画像編集装置であって、前記視覚効果付与部は、前記対象オブジェクトの画像に前記視覚効果を付与することで前記視覚効果が付与された前記対象オブジェクトの画像である対象オブジェクト画像を生成し、前記対象画像に前記対象オブジェクト画像を重ね合わせることで前記対象画像に前記視覚効果を付与するものである。
【0008】
本発明の一態様は、上記の画像編集装置であって、前記対象オブジェクト画像の生成は、前記対象オブジェクトの画像を、視覚効果を有した態様で表示させるためのプログラムを生成することである。
【0009】
本発明の一態様は、上記の画像編集装置であって、前記視覚効果付与部は、前記対象画像から前記対象オブジェクトの画像を除去し、前記対象オブジェクトの画像が除去された前記対象画像に対して前記対象オブジェクト画像を重ね合わせるものである。
【0010】
本発明の一態様は、上記の画像編集装置であって、前記対象画像から、前記オブジェクトの表示属性に関する属性情報を取得する属性情報取得部をさらに備え、前記視覚効果付与部は、前記属性情報に基づいて、前記オブジェクトの表示属性に応じた態様で前記対象オブジェクトに視覚効果を付与するものである。
【0011】
本発明の一態様は、上記の画像編集装置であって、前記オブジェクトは前記対象画像内のテキストであり、前記属性情報は、前記テキストを構成する文字列の文字数、方向、位置、改行の位置、および領域の形状のうち1つ以上を含むものである。
【0012】
本発明の一態様は、上記の画像編集装置であって、前記オブジェクトは前記対象画像内のテキストであり、前記属性情報は、テキストに対応づけられた装飾オブジェクトの属性を含み、前記視覚効果付与部は、前記装飾オブジェクトの属性に応じた態様で前記対象オブジェクトに視覚効果を付与するものである。
【0013】
本発明の一態様は、上記の画像編集装置であって、前記オブジェクトは前記対象画像内のテキストであり、前記対象オブジェクト認識部は、前記対象画像内におけるテキスト群のレイアウト分析を行い、前記レイアウト分析の結果に基づいて視覚効果を付与する対象のテキストである対象テキストを選択するものである。
【0014】
本発明の一態様は、上記の画像編集装置であって、前記属性情報は、前記対象画像に含まれる複数の前記オブジェクトについての表示属性を含むものであり、前記視覚効果付与部は、複数の前記オブジェクトの表示属性に応じた態様で前記対象オブジェクトに視覚効果を付与するものである。
【0015】
本発明の一態様は、上記の画像編集装置であって、前記視覚効果付与部は、前記属性情報と前記視覚効果の付与に関する規則とに基づいて、前記オブジェクトのうち前記対象オブジェクト以外のオブジェクトの表示属性と、前記対象オブジェクトの表示属性との間に前記規則が適用されるように、前記対象オブジェクトに視覚効果を付与するものである。
【0016】
本発明の一態様は、上記の画像編集装置であって、前記オブジェクトは前記対象画像内の前景物体であり、前記属性情報は、前記前景物体の位置、カテゴリ、および領域の形状のうち1つ以上を含むものである。
【0017】
本発明の一態様は、上記の画像編集装置であって、前記対象画像は商品を広告するための広告画像であり、前記オブジェクトは前記商品である。
【0018】
本発明の一態様は、上記の画像編集装置であって、視覚効果を付与する対象の画像である対象画像を入力する対象画像入力ステップと、前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識ステップと、前記オブジェクト認識ステップにおいて認識した前記1つ以上のオブジェクトから、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識ステップと、前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与ステップと、を有する画像編集方法である。
【0019】
本発明の一態様は、上記の画像編集装置であって、視覚効果を付与する対象の画像である対象画像を入力する対象画像入力ステップと部と、前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識ステップと、前記オブジェクト認識ステップにおいて認識した前記1つ以上のオブジェクトから、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識ステップと、前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与ステップと、をコンピュータに実行させるためのプログラムである。
【発明の効果】
【0020】
本発明により、より利用者の意図に即した形で動画像に視覚効果を付与することが可能となる。
【図面の簡単な説明】
【0021】
図1】第1実施形態の広告画像編集装置100Aの機能構成の一例を示す図である。
図2】第1実施形態の広告画像編集装置100Aが対象画像に対して視覚効果を付与する処理の流れの一例を示すフローチャートである。
図3】対象画像内の対象テキストに対して視覚効果を付与する処理の流れの概略を説明するイメージ図である。
図4】第2実施形態の広告画像編集装置100Bの機能構成の一例を示す図である。
図5】第2実施形態の広告画像編集装置100Bが対象画像に対して視覚効果を付与する処理の流れの一例を示すフローチャートである。
図6】第3実施形態の広告画像編集装置100Cの機能構成の一例を示す図である。
図7】第3実施形態の広告画像編集装置100Cが対象画像に対して視覚効果を付与する処理の流れの一例を示すフローチャートである。
図8】対象画像内の対象物体に対して視覚効果を付与する処理の流れの概略を説明するイメージ図である。
【発明を実施するための形態】
【0022】
以下、本発明の実施形態について、図面を参照して詳細に説明する。
【0023】
<第1実施形態>
図1は、第1実施形態の広告画像編集装置100Aの機能構成の一例を示す図である。広告画像編集装置100Aは、対象の広告画像に対して視覚効果を付与する機能を有する装置である。広告画像編集装置100Aは、例えば、対象画像入力部110と、テキスト認識部120と、対象テキスト認識部130と、視覚効果付与部140Aと、記憶部150とを備える。広告画像編集装置100Aは、例えばCPU(Central Processing Unit)等のプロセッサーとメモリーとを用いて構成される。広告画像編集装置100Aは、プロセッサーがプログラムを実行することによって、対象画像入力部110、テキスト認識部120、対象テキスト認識部130、視覚効果付与部140A、および記憶部150を備える装置として機能する。なお、広告画像編集装置100Aの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。
【0024】
対象画像入力部110は、視覚効果を付与する対象の広告画像(以下「対象画像」という。)を入力する。対象画像入力部110は、例えば、ネットワークインターフェースを含み、ネットワーク上の他の装置から対象画像のデータ(対象画像データ)を受信する。また、例えば、対象画像入力部110は、記憶装置と接続するための接続インターフェースを含み、当該記憶装置から対象画像データを取得してもよい。
【0025】
テキスト認識部120は、対象画像内のテキストを認識する。テキスト認識部120は、対象画像にOCR(Optical Character Recognition)処理を施すことにより対象画像内のテキストを認識することができる。テキスト認識部120は対象画像から認識されたテキストに関するテキスト情報151を記憶部150に保存する。
【0026】
対象テキスト認識部130は、対象画像内のテキストのうち、視覚効果を付与する対象となるテキスト(以下「対象テキスト」という。)を認識する。対象テキスト認識部130は、対象画像と、テキスト情報とに基づいて対象テキストを認識する。対象テキスト認識部130は、認識された対象テキストに関する対象テキスト情報152を記憶部150に保存する。
【0027】
視覚効果付与部140Aは、対象画像に視覚効果を付与する。より具体的には、視覚効果付与部140Aは、対象画像と、対象テキスト情報152とに基づいて対象画像内の対象テキストに視覚情報に付与する。視覚効果の一例として、フェードイン、フェードアウト、ズームイン、ズームアウト、点滅、回転などが挙げられる。視覚効果は、これらの組み合わせであってもよい。視覚効果付与部140Aは、画像編集機能を提供するAPI(Application Program Interface)を用いて構成されてもよいし、ChatGPT-4o(登録商標)などの動画生成機能を有した生成AI(Artificial Intelligence)を用いて構成されてもよい。視覚効果付与部140Aは、視覚効果が付与された後の対象画像(編集後対象画像)を記憶部150に保存する。
【0028】
記憶部150は、例えば、HDD等の磁気記憶装置や、SSD(Solid State Drive)、フラッシュメモリ等の半導体記憶装置を用いて構成される。記憶部150は、例えば、テキスト情報151と、対象テキスト情報152と、編集後対象画像153とを記憶する。
【0029】
図2は、第1実施形態の広告画像編集装置100Aが対象画像に対して視覚効果を付与する処理の流れの一例を示すフローチャートである。広告画像編集装置100Aにおいて、まず対象画像入力部110が対象画像を入力する(S101)。続いて、テキスト認識部120が、S101で入力された対象画像について、対象画像内のテキストを認識するテキスト認識処理を行う(S102)。例えば、テキスト認識部120はOCR処理を行うことにより対象画像内のテキストの座標と、当該テキストを示す文字列とを認識し、認識した座標および文字列を含むテキスト情報151を出力する。
【0030】
続いて、対象テキスト認識部130が、S102で出力されたテキスト情報151をもとに、対象画像内の対象テキストを認識する処理を行う(S103)。例えば、対象テキスト認識部130は、テキスト情報151に基づいて、対象画像内のテキスト群についてカテゴリを分析し、対象テキストカテゴリに該当するカテゴリを有するテキストを対象テキストとして選択することができる。ここで対象テキストカテゴリは、対象テキストとして選択されるテキストのカテゴリであり、予め広告画像編集装置100Aに設定されるものとする。
【0031】
なお、カテゴリ分析は、テキストの文字列をもとにルールベースでカテゴリを認識するものであってもよいし、ChatGPT-4o(登録商標)等のLLM(Large Language Model:大規模言語モデル)によって実現されてもよい。例えば、対象テキスト認識部130は、対象画像から認識されたテキスト情報151をLLMに与え、テキスト情報151の文字列がどの対象テキストカテゴリに該当するかをLLMに判断させてもよい。これにより、例えば「商品名」という対象テキストカテゴリが設定されている場合、対象テキスト認識部130は、対象画像内のテキスト群のうち商品名を含むものを対象テキストとして選択することができる。広告画像編集装置100Aは、LLMを含む装置として構成されてもよいし、ネットワークを介して通信可能なLLMサービスを利用するように構成されてもよい。
【0032】
また、対象テキスト認識部130は、LLMに対してテキスト情報151を与え、どのテキストに視覚効果を付与すればよいかを、カテゴリを経由せずに直接的に判断させてもよい。この場合、LLMには、視覚効果を付与する対象のテキスト(対象テキスト)を選択する基準を示す情報が与えられてもよい。また、対象テキスト認識部130は、利用者によるテキストの指定操作を受け付け、指定されたテキストを対象テキストとして認識するように構成されてもよい。
【0033】
また、対象テキスト認識部130は、対象画像から認識されたテキスト情報151に基づいて、対象画像内におけるテキスト群のレイアウト分析を行い、当該レイアウト分析の結果に基づいて対象テキストを選択するように構成されてもよい。例えば、対象テキスト認識部130は、フォントサイズが大きいテキストを対象テキストとして認識するように構成されてもよいし、複数認識されたテキスト領域の中で、レイアウトが特定の条件に合致したものを対象テキストとして認識するように構成されてもよい。例えば、対象テキスト認識部130は、複数のテキスト領域のうちセンターに配置されたものを対象テキストとして認識するように構成されてもよいし、最上段または最下段にあるテキスト領域を対象テキストとして認識するように構成されてもよい。また、対象テキスト認識部130は、テキストの配置と、当該テキストの属性との関係性を学習したモデルにレイアウト分析の結果を入力することにより各テキスト領域の属性を推論し、「見出し」や「商品名」などの特定の属性を有するテキスト領域を対象テキストとして認識するように構成されてもよい。対象テキスト認識部130は、このように認識した対象テキストの座標および文字列を含む対象テキスト情報152を出力する。
【0034】
続いて、視覚効果付与部140Aが、S103で出力された対象テキスト情報152をもとに、対象画像内の対象テキストに視覚効果を付与する(S104)。
【0035】
図3は、対象画像内の対象テキストに対して視覚効果を付与する処理の流れの概略を説明するイメージ図である。まず、テキスト認識部120は、対象画像IM11に対してテキスト認識処理を行うことにより、テキストTX1およびTX2を認識する。続いて、対象テキスト認識部130は、認識したテキストTX1およびTX2のうちテキストTX2を対象テキストとして認識する。続いて、視覚効果付与部140Aは、認識した対象テキストTX2に視覚効果を付与する。より具体的には、視覚効果付与部140Aは、例えば、対象テキストTX2に視覚効果を付与するための情報(視覚効果情報)を生成する。
【0036】
例えば、ウェブブラウザの機能によって視覚効果を付与する場合、視覚効果付与部140Aは、視覚効果を付与するためのソースコードを視覚効果情報として生成することができる。図3は、視覚効果情報としてのソースコードの一例として、CSS(Cascading Style Sheet)等のスタイル情報CD11と、HTML(Hyper-Text Markup Language)情報CD12とが生成される場合を例示している。例えば、スタイル情報CD11において、対象テキストTX2の複数の表示パターンを定義しておき、HTML情報CD12において表示パターンを切り替える処理を記述しておくことにより、対象テキストTX2に視覚効果が付与された対象画像IM13を表示させることができる。
【0037】
より具体的には、視覚効果付与部140Aは、視覚効果情報を生成する一方で、対象画像IM11から対象テキストTX2が削除された対象画像IM12を生成する。例えば、視覚効果付与部140Aは、対象画像IM11内の対象テキストTX2の画像を周辺の背景と同様の画像に置き換えることにより対象画像IM12を生成することができる。このような画像置き換えは、画像インペインティングと呼ばれ、視覚効果付与部140には任意の画像インペインティング技術が用いられてよい。視覚効果付与部140Aは、スタイル情報CD11およびHTML情報CD12を実行することにより、対象画像IM12上に対象テキストTX2を表示させるとともに、対象テキストTX2の表示態様を定期的に切り替えることができる。これにより、対象テキストTX2において視覚効果を有する対象画像IM13を表示させることができる。
【0038】
ここでは、スタイル情報CD11およびHTML情報CD12により視覚効果が付与された対象画像IM13を表示させる方法について説明した。この場合、対象テキストTX2が削除された対象画像IM12と、スタイル情報CD11と、HTML情報CD12とが編集後対象画像153として記憶部150に保存されてもよい。一方、視覚効果付与部140Aは、視覚効果を有する対象テキストTX2の画像を生成し、それを対象画像IM12と合成することにより、視覚効果を有する画像(例えばPNG形式の画像など)そのものを編集後対象画像153として生成するように構成されてもよい。このように、合成前の対象画像において、視覚効果を付与する対象を予め削除しておくことにより、動きを伴うアニメーションを視覚効果として付与する場合に、より自然な形で視覚効果を付与することができる。
【0039】
以上説明した第1実施形態の広告画像編集装置100Aによれば、対象画像から対象テキストを認識し、認識した対象テキストに対して視覚効果を付与することができるので、対象テキスト以外のテキストに対して意図しない視覚効果が付与されることを抑制することができる。
【0040】
<第2実施形態>
図4は、第2実施形態の広告画像編集装置100Bの機能構成の一例を示す図である。第2実施形態の広告画像編集装置100Bは、視覚効果付与部140Aに代えて視覚効果付与部140Bを備える点、および、属性情報取得部160Bをさらに備える点で第1実施形態の広告画像編集装置100Aと異なる。それ以外の構成は、広告画像編集装置100Aと同様である。そのため、以下では、広告画像編集装置100Bの構成要素のうち、広告画像編集装置100Aとは異なる部分について網羅的に説明し、共通部分についての説明は可能な限り省略する。
【0041】
属性情報取得部160Bは、対象画像内のテキストに関する属性情報154を取得する。例えば、属性情報154は、テキストの表示態様に関する属性を示す情報である。例えば、属性情報154には、テキストに対応づけて表示される装飾オブジェクトの情報が含まれ得る。ここで、装飾オブジェクトとは、下線や傍点、圏点、傍線等のテキストを装飾するオブジェクトである。属性情報154には、例えば、装飾オブジェクトの位置やサイズ、色、装飾オブジェクトとテキストとの対応関係などの情報が含まれ得る。
【0042】
例えば、装飾オブジェクトの検出には、装飾オブジェクトの検出用に訓練されたオブジェクト検出モデル(Object Detection Model)を用いることができる。例えば、オブジェクト検出モデルの一例として、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)を基にしたR-CNN、YOLO、SSD等が挙げられる。また、例えば、装飾オブジェクトの検出は、装飾オブジェクトの検出用に訓練された領域分類モデル(Semantic Segmentation Model)を用いて装飾オブジェクトとそれ以外の部分とを示す二値画像を生成することにより実現されてもよい。また、装飾オブジェクトとテキストの対応関係は、例えば、装飾オブジェクトとテキストの間の距離に基づいて判定可能である。
【0043】
また、属性情報154には、例えば、テキストの属性(向きやサイズ、文字色、フォントの種別など)が含まれ得る。テキストの属性は属性情報154に含まれる代わりに、テキスト情報151に含まれてもよい。また、属性情報154には、例えば、テキスト以外の前景オブジェクトの属性が含まれ得る。例えば、前景オブジェクトの属性は、前景オブジェクトの位置や種類などである。例えば、「人物」、「商品」、「ロゴ」などが前景オブジェクトの一例である。テキストの向きは、例えば、テキスト認識用に訓練された画像認識モデルを用いて判定可能である。また、テキストの向きは、例えば、テキスト領域の形状に基づいて判定されてもよい。例えば、テキスト以外の前景オブジェクトの検出には、前景オブジェクトの検出用に訓練されたオブジェクト検出モデル(Object Detection Model)を用いることができる。属性情報取得部160Bは、取得した属性情報154を記憶部150に保存する。
【0044】
視覚効果付与部140Bは、対象画像内の対象テキストに視覚効果を付与する。視覚効果付与部140Bは、対象画像と、対象テキスト情報152と、属性情報154とに基づいて対象画像内の対象テキストに視覚情報に付与する。視覚効果付与部140Bは、視覚効果が付与された後の対象画像(編集後対象画像)を記憶部150に保存する。
【0045】
図5は、第2実施形態の広告画像編集装置100Bが対象画像に対して視覚効果を付与する処理の流れの一例を示すフローチャートである。図5において、S101~S103は図2と同様であるので説明を省略する。S103に続いて、属性情報取得部160Bが、対象画像内のテキストに関する属性情報154を取得する(S201)。例えば、属性情報取得部160Bは、テキスト認識部120が出力したテキスト情報151をもとに対象画像内のテキストの位置および文字列を認識し、認識したテキスト領域の画像に対して文字の表示属性の認識処理を行うことにより属性情報154を出力する。
【0046】
続いて、視覚効果付与部140Bが、S103で出力された対象テキスト情報152と、S201で出力された属性情報154とをもとに、対象画像内の対象テキストに対して他のテキストの表示属性に応じた態様の視覚効果を付与する(S202)。例えば、視覚効果付与部140Bは、対象テキストの表示属性が維持されるように対象画像内の対象テキストに視覚効果を付与するための視覚効果情報を生成する。また、例えば、視覚効果付与部140Bは、テキスト情報151および対象テキスト情報152をもとに対象テキスト以外の他のテキストを認識し、対象テキストが他のテキストの表示属性に応じた態様で表示されるような視覚効果情報を生成してもよい。
【0047】
より具体的には、視覚効果付与部140Bは、テキストの表示態様に関して、例えば、以下のような考慮がなされるような視覚効果情報を生成する。
・対象テキストに下線や括弧などの装飾が施されている場合、対象テキストの表示態様の変化(フェードや移動など)に連動して装飾の表示態様も変化させる。
・所定の範囲内(例えば同じ文章内など)の対象テキストに対して同じ態様の視覚効果が付与されるようにする。
・視覚効果が付与された対象テキストによって他のテキストが隠されないようにする。
【0048】
[属性情報と視覚効果の一例]
例えば、フェードのように動きを伴う視覚効果を付与する場合、テキストの「向き」を属性情報として用いることができる。この場合、例えば、視覚効果付与部140Bは、属性情報をもとに対象テキストの向きを認識し、縦書きの場合には縦方向の動きを付与し、横書きの場合には横方向の動きを付与するような視覚効果情報を生成してもよい。このようにすれば、視覚効果による文字の動きと文字を読む目の動きが一致せず視認性が低下してしまうことを抑制することができる。
【0049】
さらに、テキストの向きに加えて、テキスト内の「改行数」を属性情報として用いることができる。一般に、テキスト内の改行数が多いほど、縦書きなのか横書きなのかを視認するのが難しくなる傾向がある。したがって、改行数の多いテキストにフェードなどの動きを付与する場合には、視覚効果を付与する向きが特に重要になる。このため、視覚効果付与部140Bは、改行数が多いテキストほど優先的に、テキストの向きと動きの方向とがより一致するように視覚効果を付与するように構成されてもよい。
【0050】
また、例えば、「テキスト領域の形状」を属性情報として用いることができる。上記「改行数」の場合と同様に、テキスト領域の形状が縦長や横長の場合に比べて、正方形の形状に近い場合は縦書きなのか横書きなのかを視認するのが難しくなる傾向がある。そこで、視覚効果付与部140Bは、「改行数」の場合と同様に、領域の形状が正方形に近いテキストほど優先的に、テキストの向きと動きの方向とがより一致するように視覚効果を付与するように構成されてもよい。
【0051】
また、例えば、テキスト内の「文字数」を属性情報として用いることができる。テキスト内の文字数が多いほど改行が多くなる可能性が高くなるので、上記「改行数」や「テキスト領域の形状」の場合と同様に、文字数が多いテキストほど向きの視認性が低下する。そこで、視覚効果付与部140Bは、「改行数」や「テキスト領域の形状」の場合と同様に、文字数が多いテキストほど優先的に、テキストの向きと動きの方向とがより一致するように視覚効果を付与するように構成されてもよい。
【0052】
以上説明した第2実施形態の広告画像編集装置100Bによれば、対象画像から対象テキストと、対象テキストの表示属性とを認識し、認識した対象テキストに対して表示属性を維持しながら視覚効果を付与することができるので、対象テキスト以外のテキストに対して視覚効果が付与されることを抑制しつつ、対象テキストに対して意図したとおりの視覚効果が付与されるようにすることができる。
【0053】
また、第2実施形態の広告画像編集装置100Bによれば、対象画像内の対象テキスト以外のオブジェクトの表示態様に応じた態様で対象テキストに視覚効果を付与することができるので、対象画像の審美性や可読性を損なわない統一感のある視覚効果を対象画像に付与することができる。
【0054】
<第3実施形態>
図6は、第3実施形態の広告画像編集装置100Cの機能構成の一例を示す図である。第3実施形態の広告画像編集装置100Cは、テキスト認識部120に代えて前景物体認識部121を備える点、対象テキスト認識部130に代えて対象物体認識部131を備える点、属性情報取得部160Bに代えて属性情報取得部160Cを備える点、視覚効果付与部140Bに代えて視覚効果付与部140Cを備える点で第2実施形態の広告画像編集装置100Bと異なる。それ以外の構成は、広告画像編集装置100Bと同様である。そのため、以下では、広告画像編集装置100Cの構成要素のうち、広告画像編集装置100Bとは異なる部分について網羅的に説明し、共通部分についての説明は可能な限り省略する。
【0055】
前景物体認識部121は、対象画像内で物体が映っている前景領域を認識するとともに、当該前景領域の物体(以下「前景物体」という。)の種類を認識する物体認識機能を有する。物体認識機能には任意の物体検出モデルが用いられてよい。例えば、物体検出モデルの一例として、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)を基にしたR-CNN、YOLO、SSD等が挙げられる。前景物体認識部121は対象画像から認識された前景物体に関する前景物体情報155を記憶部150に保存する。
【0056】
対象物体認識部131は、対象画像内の前景物体のうち、視覚効果を付与する対象となる前景物体(以下「対象物体」という。)を認識する。対象物体認識部131は、対象画像と、前景物体情報155とに基づいて対象物体を認識する。対象物体認識部131は、認識された対象物体に関する対象物体情報156を記憶部150に保存する。
【0057】
属性情報取得部160Cは、対象画像内の前景物体に関する属性情報157を取得する。例えば、属性情報157は、前景物体の表示態様に関する属性を示す情報である。例えば、属性情報157には、前景物体の状態(進行方向など)や前景物体と接している他のオブジェクトの情報などが含まれる。属性情報取得部160Cは、取得した属性情報157を記憶部150に保存する。
【0058】
視覚効果付与部140Cは、対象画像内の対象物体に視覚効果を付与する。視覚効果付与部140Cは、対象画像と、対象物体情報156と、属性情報157とに基づいて対象画像内の対象物体に視覚情報に付与する。視覚効果付与部140Cは、視覚効果が付与された後の対象画像を編集後対象画像158として記憶部150に保存する。
【0059】
図7は、第3実施形態の広告画像編集装置100Cが対象画像に対して視覚効果を付与する処理の流れの一例を示すフローチャートである。広告画像編集装置100Cにおいて、まず対象画像入力部110が対象画像を入力する(S301)。続いて、前景物体認識部121が、S301で入力された対象画像について、対象画像内の前景物体を認識する物体認識処理を行う(S302)。例えば、前景物体認識部121は物体検出モデルにより対象画像内の前景物体の座標と、当該前景物体の種類とを認識し、認識した座標および種類を含む前景物体情報155を出力する。
【0060】
続いて、対象物体認識部131が、S302で出力された前景物体情報155をもとに、対象画像内の対象物体を認識する処理を行う(S303)。例えば、対象物体認識部131は、前景物体情報155に基づいて、対象画像内の前景物体群についてカテゴリを分析し、対象物体カテゴリに該当するカテゴリを有する前景物体を対象物体として選択することができる。ここで対象物体カテゴリは、対象物体として選択される前景物体のカテゴリであり、予め広告画像編集装置100Cに設定されるものとする。
【0061】
なお、カテゴリ分析は、前景物体の種類をもとにルールベースでカテゴリを認識するものであってもよいし、ChatGPT-4o(登録商標)等のLLMによって実現されてもよい。例えば、対象物体認識部131は、対象画像から認識された前景物体情報155をLLMに与え、前景物体の種類がどの対象物体カテゴリに該当するかをLLMに判断させてもよい。これにより、例えば「野菜」という対象物体カテゴリが設定されている場合、対象物体認識部131は、対象画像内の前景物体群のうち野菜に該当するものを対象物体として選択することができる。
【0062】
また、対象物体認識部131は、LLMに対して前景物体情報155を与え、どの前景物体に視覚効果を付与すればよいかを、カテゴリを経由せずに直接的に判断させてもよい。この場合、LLMには、視覚効果を付与する対象の前景物体(対象物体)を選択する基準を示す情報が与えられてもよい。また、対象物体認識部131は、利用者による前景物体の指定操作を受け付け、指定された前景物体を対象物体として認識するように構成されてもよい。
【0063】
また、対象物体認識部131は、対象画像から認識された前景物体情報155に基づいて、対象画像内における前景物体群のレイアウト分析を行い、当該レイアウト分析の結果に基づいて対象物体を選択するように構成されてもよい。例えば、対象物体認識部131は、複数認識された前景物体の大きさを認識するとともに比較を行い、最も大きい前景物体を対象物体として認識するように構成されてもよい。この方法は例えば、広告画像などのように、強調したいものほど大きく表現される類の画像を対象とする場合に好適である。また、例えば、対象物体認識部131は、複数認識された前景物体の中で、レイアウトが特定の条件に合致したものを対象物体として認識するように構成されてもよい。例えば、対象物体認識部131は、複数の前景物体のうちセンターに配置されたものを対象物体として認識するように構成されてもよいし、最上段または最下段にある前景物体を対象物体として認識するように構成されてもよい。また、対象物体認識部131は、前景物体の配置と、当該前景物体の属性との関係性を学習したモデルにレイアウト分析の結果を入力することにより各前景物体の属性を推論し、「見出し」や「商品名」などの特定の属性を有する前景物体を対象物体として認識するように構成されてもよい。対象物体認識部131は、このように認識した対象物体の座標および種類を含む対象物体情報156を出力する。
【0064】
続いて、属性情報取得部160Cが、対象画像内の前景物体に関する属性情報157を取得する(S304)。例えば、属性情報取得部160Cは、対象物体認識部131が出力した前景物体情報155をもとに対象画像内の前景物体の位置および種類を認識し、認識した前景物体の画像に対して表示属性の認識処理を行うことにより属性情報157を出力する。
【0065】
続いて、視覚効果付与部140Cが、S303で出力された対象物体情報156と、S304で出力された属性情報157とをもとに、対象画像内の対象物体に視覚効果を付与する(S304)。例えば、視覚効果付与部140Cは、対象物体の表示属性が維持されるように対象画像内の対象物体に視覚効果を付与するための視覚効果情報を生成する。また、例えば、視覚効果付与部140Cは、前景物体情報155および対象物体情報156をもとに対象物体以外の他の前景物体を認識し、対象物体が他の前景物体の表示属性に応じた態様で表示されるような視覚効果情報を生成してもよい。
【0066】
図8は、対象画像内の対象物体に対して視覚効果を付与する処理の流れの概略を説明するイメージ図である。まず、前景物体認識部121は、対象画像IM21に対して物体認識処理を行うことにより、前景物体BS1およびBS2を認識する。続いて、対象物体認識部131は、認識した前景物体BS1およびBS2のうち前景物体BS2を対象物体として認識する。続いて、視覚効果付与部140Cは、認識した対象物体BS2に視覚効果を付与する。より具体的には、視覚効果付与部140Cは、例えば、対象物体BS2に視覚効果を付与するための情報(視覚効果情報)を生成する。
【0067】
例えば、ウェブブラウザの機能によって視覚効果を付与する場合、視覚効果付与部140Cは、視覚効果を付与するためのソースコードを視覚効果情報として生成することができる。図8は、視覚効果情報としてのソースコードの一例として、HTML情報CD21と、JavaScript等のスクリプト情報CD22が生成される場合を例示している。例えば、HTML情報CD21において、対象画像に対象物体BS2の画像を合成する処理を記述しておき、スクリプト情報CD22において、対象物体BS2に視覚効果を付与する処理を記述しておくことにより、対象物体BS2に視覚効果が付与された対象画像IM23を表示させることができる。
【0068】
より具体的には、視覚効果付与部140Cは、視覚効果情報を生成する一方で、対象画像IM21から対象物体BS2が削除された対象画像IM22と、対象画像IM21から対象物体BS2以外が消去(例えば透明化)された画像(以下「対象物体画像」という。)IM24を生成する。例えば、視覚効果付与部140Cは、対象画像IM21内の対象物体BS2の画像を周辺の背景と同様の画像に置き換えることにより対象画像IM22を生成することができる。そして、視覚効果付与部140Cは、HTML情報CD21およびスクリプト情報CD22を実行することにより、対象画像IM22に対象物体画像IM24を合成するとともに、対象物体画像IM24に視覚効果を付与することができる。これにより、対象物体BS2において視覚効果を有する対象画像IM23を表示させることができる。
【0069】
また、この場合、視覚効果付与部140Cは、前景物体の属性情報をもとに、対象物体BS2以外の前景物体の表示態様に応じた適切な視覚効果を対象物体BS2に付与することができる。例えば、視覚効果付与部140Cは、前景物体BS1に対して意図しない視覚効果が付与されるのを抑制しつつ、対象物体BS2に視覚効果を付与することができる。また、例えば、視覚効果付与部140Cは、前景物体BS1の表示に悪影響を及ぼさないように(例えば対象物体BS2によって前景物体BS1が隠れないように)、対象物体BS2の視覚効果を付与することができる。
【0070】
ここでは、HTML情報CD21およびスクリプト情報CD22により視覚効果が付与された対象画像IM23を表示させる方法について説明した。この場合、対象物体BS2が削除された対象画像IM22と、対象物体BS2以外が消去された対象物体画像IM24と、HTML情報CD21と、スクリプト情報CD22とが編集後対象画像158として記憶部150に保存されてもよい。一方、視覚効果付与部140Cは、視覚効果を有する対象物体BS2の画像を生成し、それを対象画像IM22と合成することにより、視覚効果を有する画像(例えばPNG形式の画像など)そのものを編集後対象画像158として生成するように構成されてもよい。
【0071】
以上説明した第3実施形態の広告画像編集装置100Cによれば、対象画像から対象物体と、対象物体の表示属性とを認識し、認識した対象物体に対して表示属性を維持しながら視覚効果を付与することにより、対象物体以外の前景物体に対して視覚効果が付与されることを抑制しつつ、対象物体に対して意図したとおりの視覚効果が付与されるようにすることができる。
【0072】
なお、第3実施形態の広告画像編集装置100Cは、視覚効果を付与する対象がテキストではなく、前景物体である点で第2実施形態の広告画像編集装置100Bと異なるものの、対象画像内のオブジェクト(テキストや前景物体)を認識し、その中から視覚効果を付与する対象のオブジェクト(以下「対象オブジェクト」という。)を認識し、認識した対象オブジェクトに対して視覚効果を付与する点で共通するものである。そのため、第3実施形態の広告画像編集装置100Cは、第1実施形態の広告画像編集装置100Aと同様に、属性情報取得部160Cを備えない装置として構成されてもよい。また、その場合の装置構成の詳細は、第1実施形態においてテキストを前景物体に読み替えることにより同様に理解されるものである。
【0073】
<変形例>
対象画像から複数のオブジェクト(テキストまたは前景物体)が認識され得る場合、実施形態の広告画像編集装置100A、100B、および100C(以下総称して、広告画像編集装置100と記載する)には、予め視覚効果の付与に関する規則を示す情報が記憶されていてもよい。この場合、広告画像編集装置100は、属性情報と当該規則とに基づいて、認識されたオブジェクトのうち対象オブジェクト以外のオブジェクトの表示属性と、対象オブジェクトの表示属性との間に当該規則が適用されるように、対象オブジェクトに視覚効果を付与するように構成されてもよい。例えば、移動を伴う視覚効果を対象オブジェクトに付与する場合、広告画像編集装置100は、対象オブジェクトに対して、当該対象オブジェクトが移動中に他のオブジェクトを隠してしまわないような視覚効果を付与するように構成されてもよい。このような考慮がなされた視覚効果を付与することにより、視認性の低下を抑制しながら、対象画像の訴求力を向上させることができる。
【0074】
上記実施形態では、広告画像編集装置100A~100Cが広告画像に対して視覚効果を付与する場合について説明したが、実施形態の広告画像編集装置100A~100Cは広告画像以外の任意の画像に視覚効果を付与する装置として構成されてもよい。また、上記実施形態では、広告画像編集装置100A~100Cが画像に対して視覚効果を付与する場合について説明したが、実施形態の広告画像編集装置100A~100Cは、動画を構成する時系列画像に視覚効果を付与することにより動画対して視覚効果を付与する装置として構成されてもよい。また、視覚効果を付与する対象の動画は広告の動画であってもよいし、広告以外の動画であってもよい。
【0075】
以上説明した少なくとも一つの実施形態によれば、対象画像から1つ以上のオブジェクトを認識し、認識した1つ以上のオブジェクトから、視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識し、認識した対象オブジェクトに対して視覚効果を付与することにより、より利用者の意図に即した形で動画像に視覚効果を付与することができる。
【0076】
例えば、従来は特定のオブジェクト(テキストや前景物体)に視覚効果を付与しようとした場合、どのオブジェクトに視覚効果を付与するのかを動画像ごとに個別に指示を行う必要があり、手間であった。これに対して本実施形態では、視覚効果を付与する対象オブジェクトが自動的に選択されるので、利用者は適切な対象オブジェクトに対して精度良く視覚効果を付与することができる。
【0077】
また、例えば、従来は、目的とするオブジェクト以外のオブジェクトにも視覚効果が付与されてしまう場合があった。これに対して本実施形態では、対象画像内のオブジェクトの表示属性を考慮した上で対象オブジェクトに視覚効果を付与することができるので、審美性や可読性を損なわない統一感のある視覚効果を対象の動画像に付与することができる。
【0078】
また、本実施形態によれば、利用者は簡単に既存の動画像を編集して作り変えることができるので、例えば広告の動画像を編集対象とした場合、利用者は既存の広告を再利用することで広告の制作コストを抑えることが可能となる。また、本実施形態によれば、例えば視覚効果を有する広告を新規に制作する場合においても、視覚効果を付与する工程を圧縮することができるので、広告の制作コストを抑えることが可能となる。また、本実施形態によれば、既存の動画像をベースとして新たな動画像を簡単かつ精度良く生成することができるので、利用者はより多くの広告を試作することが可能となり、より多くの選択肢の中からより目的に沿った広告を選択することが可能となる。
【0079】
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
【産業上の利用可能性】
【0080】
本発明は、動画像内のオブジェクトに視覚効果を付与する用途に適用可能である。
【符号の説明】
【0081】
100A、100B、100C 広告画像編集装置
110 対象画像入力部
120 テキスト認識部
121 前景物体認識部
130 対象テキスト認識部
131 対象物体認識部
140A、140B、140C 視覚効果付与部
150 記憶部
151 テキスト情報
152 対象テキスト情報
153、158 編集後対象画像
154、157 属性情報
155 前景物体情報
156 対象物体情報
160B、160C 属性情報取得部
【要約】
【課題】より利用者の意図に即した形で動画像に視覚効果を付与することができる技術を提供すること。
【解決手段】本発明の一態様は、視覚効果を付与する対象の画像である対象画像を入力する対象画像入力部と、前記対象画像から1つ以上のオブジェクトを認識するオブジェクト認識部と、前記オブジェクト認識部が認識した前記1つ以上のオブジェクトから、前記視覚効果を付与する対象のオブジェクトである対象オブジェクトを認識する対象オブジェクト認識部と、前記対象画像に含まれる前記対象オブジェクトに対して前記視覚効果を付与する視覚効果付与部と、を備える画像編集装置である。
【選択図】図1
図1
図2
図3
図4
図5
図6
図7
図8