IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社ネフロックの特許一覧

<>
  • 特開-画像出力装置及び画像出力方法 図1
  • 特開-画像出力装置及び画像出力方法 図2
  • 特開-画像出力装置及び画像出力方法 図3
  • 特開-画像出力装置及び画像出力方法 図4
  • 特開-画像出力装置及び画像出力方法 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022085452
(43)【公開日】2022-06-08
(54)【発明の名称】画像出力装置及び画像出力方法
(51)【国際特許分類】
   G06T 7/00 20170101AFI20220601BHJP
   G06T 11/80 20060101ALI20220601BHJP
【FI】
G06T7/00 350B
G06T7/00 660A
G06T11/80 A
【審査請求】有
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2020197151
(22)【出願日】2020-11-27
(11)【特許番号】
(45)【特許公報発行日】2021-04-14
(71)【出願人】
【識別番号】519286418
【氏名又は名称】株式会社ネフロック
(74)【代理人】
【識別番号】110002262
【氏名又は名称】TRY国際特許業務法人
(72)【発明者】
【氏名】▲鶴▼見 敏行
【テーマコード(参考)】
5B050
5L096
【Fターム(参考)】
5B050AA10
5B050BA06
5B050BA12
5B050CA01
5B050DA01
5B050EA19
5B050FA02
5L096CA25
5L096DA01
5L096HA09
5L096HA11
5L096JA03
5L096KA04
5L096KA15
(57)【要約】      (修正有)
【課題】学習モデルを用いて、第1態様の対象画像を含む本物画像から第2態様の対象画像を含む仮想画像を適切に出力することを可能とする画像出力装置及び画像出力方法を提供する。
【解決手段】画像出力装置は、第1態様の対象画像を含む第1本物画像から、第2態様の対象画像を含む第1仮想画像を生成する。そして、第2態様の対象画像を含む第2本物画像に基づいて、第1仮想画像が本物であるか否かを識別する。本物であると識別された第1仮想画像及び第1本物画像を教師データとして学習モデルを生成する。さらに、学習モデルを用いて、第1態様(又は第2態様)の対象画像を含む第3本物画像(又は第4本物画像)から、第2態様(又は第1態様)の対象画像を含む第3仮想画像(又は第4仮想画像)を出力する。
【選択図】図1
【特許請求の範囲】
【請求項1】
第1態様の対象画像を含む第1本物画像から、前記第1態様の少なくとも一部が変更された第2態様の対象画像を含む第1仮想画像を生成する生成部と、
前記第2態様の対象画像を含む第2本物画像に基づいて、前記第1仮想画像が本物であるか否かを識別する識別部と、
前記識別部によって本物であると識別された前記第1仮想画像及び前記第1本物画像を教師データとして、前記第1本物画像と前記第1仮想画像との相関関係を学習することによって学習モデルを生成する学習部と、
前記学習モデルを用いて、前記第1態様の対象画像を含む第3本物画像から、前記第2態様の対象画像を含む第3仮想画像を出力し、或いは、前記学習モデルを用いて、前記第2態様の対象画像を含む第4本物画像から、前記第1態様の対象画像を含む第4仮想画像を出力する出力部と、を備え、
前記生成部及び前記識別部は、前記識別部の識別結果に基づいて調教される、画像出力装置。
【請求項2】
前記教師データは、クレンジング処理が適用された後に前記学習部に入力される、請求項1に記載の画像出力装置。
【請求項3】
前記第1態様の対象画像は、装飾品を身につけた人物の画像であり、
前記第2態様の対象画像は、装飾品を身につけていない人物の画像である、請求項1又は請求項2に記載の画像出力装置。
【請求項4】
前記第1態様の対象画像は、装飾品を身につけていない人物の画像であり、
前記第2態様の対象画像は、装飾品を身につけた人物の画像である、請求項1又は請求項2に記載の画像出力装置。
【請求項5】
第1態様の対象画像を含む第1本物画像から、前記第1態様の少なくとも一部が変更された第2態様の対象画像を含む第1仮想画像を生成部によって生成するステップと、
前記第2態様の対象画像を含む第2本物画像に基づいて、前記第1仮想画像が本物であるか否かを識別部によって識別するステップと、
前記識別部によって本物であると識別された前記第1仮想画像及び前記第1本物画像を教師データとして、前記第1本物画像と前記第1仮想画像との相関関係を学習することによって学習モデルを生成するステップと、
前記学習モデルを用いて、前記第1態様の対象画像を含む第3本物画像から、前記第2態様の対象画像を含む第3仮想画像を出力し、或いは、前記学習モデルを用いて、前記第2態様の対象画像を含む第4本物画像から、前記第1態様の対象画像を含む第4仮想画像を出力するステップと、を備え、
前記生成部及び前記識別部は、前記識別部の識別結果に基づいて調教される、画像出力方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像出力装置及び画像出力方法に関する。
【背景技術】
【0002】
従来、眼鏡を掛けた人物の画像と眼鏡を掛けていない人物の画像との相関関係を学習することによって学習モデルを生成し、生成された学習モデルを用いて、眼鏡を掛けた人物の画像(例えば、第1態様の対象画像を含む本物画像)から眼鏡を掛けていない人物の画像(例えば、第2態様の対象画像を含む仮想画像)を出力する技術が知られている。
【0003】
さらに、上述した技術では、学習モデルの生成段階において、眼鏡を掛けた人物の画像及び眼鏡を掛けていない人物の画像が同一アングルで撮像される必要があるという課題も知られている。このような課題を解決するために、眼鏡を掛けた人物の画像から眼鏡を検出し、検出された眼鏡を覆うマスクを展開する技術も提案されている(例えば、特許文献1)。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特表2019-527410号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、検出された眼鏡を覆うマスクを展開する技術は、極めて複雑な演算が必要とされており、眼鏡のフィッティングに現実に適用することは困難である。
【0006】
そこで、本発明は、上述した課題を解決するためになされたものであり、学習モデルを用いて、第1態様の対象画像を含む本物画像から、第1態様の少なくとも一部が変更された第2態様の対象画像を含む仮想画像を適切に出力することを可能とする画像出力装置及び画像出力方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
第1の特徴は、画像出力装置であって、第1態様の対象画像を含む第1本物画像から、前記第1態様の少なくとも一部が変更された第2態様の対象画像を含む第1仮想画像を生成する生成部と、前記第2態様の対象画像を含む第2本物画像に基づいて、前記第1仮想画像が本物であるか否かを識別する識別部と、前記識別部によって本物であると識別された前記第1仮想画像及び前記第1本物画像を教師データとして、前記第1本物画像と前記第1仮想画像との相関関係を学習することによって学習モデルを生成する学習部と、前記学習モデルを用いて、前記第1態様の対象画像を含む第3本物画像から、前記第2態様の対象画像を含む第3仮想画像を出力し、或いは、前記学習モデルを用いて、前記第2態様の対象画像を含む第4本物画像から、前記第1態様の対象画像を含む第4仮想画像を出力する出力部と、を備え、前記生成部及び前記識別部は、前記識別部の識別結果に基づいて調教される、ことを要旨とする。
【0008】
第2の特徴は、第1の特徴において、前記教師データは、クレンジング処理が適用された後に前記学習部に入力される、ことを要旨とする。
【0009】
第3の特徴は、第1の特徴又は第2の特徴において、前記第1態様の対象画像は、装飾品を身につけた人物の画像であり、前記第2態様の対象画像は、装飾品を身につけていない人物の画像である、ことを要旨とする。
【0010】
第4の特徴は、第1の特徴又は第2の特徴において、前記第1態様の対象画像は、装飾品を身につけていない人物の画像であり、前記第2態様の対象画像は、装飾品を身につけた人物の画像である、ことを要旨とする。
【0011】
第5の特徴は、画像出力方法であって、第1態様の対象画像を含む第1本物画像から、前記第1態様の少なくとも一部が変更された第2態様の対象画像を含む第1仮想画像を生成部によって生成するステップと、前記第2態様の対象画像を含む第2本物画像に基づいて、前記第1仮想画像が本物であるか否かを識別部によって識別するステップと、前記識別部によって本物であると識別された前記第1仮想画像及び前記第1本物画像を教師データとして、前記第1本物画像と前記第1仮想画像との相関関係を学習することによって学習モデルを生成するステップと、前記学習モデルを用いて、前記第1態様の対象画像を含む第3本物画像から、前記第2態様の対象画像を含む第3仮想画像を出力し、或いは、前記学習モデルを用いて、前記第2態様の対象画像を含む第4本物画像から、前記第1態様の対象画像を含む第4仮想画像を出力するステップと、を備え、前記生成部及び前記識別部は、前記識別部の識別結果に基づいて調教される、ことを要旨とする。
【発明の効果】
【0012】
本発明によれば、学習モデルを用いて、第1態様の対象画像を含む本物画像から、第1態様の少なくとも一部が変更された第2態様の対象画像を含む仮想画像を適切に出力することを可能とする画像出力装置及び画像出力方法を提供することができる。
【図面の簡単な説明】
【0013】
図1図1は、実施形態に係る画像出力装置100を示す図である。
図2図2は、実施形態に係る適用例を示す図である。
図3図3は、実施形態に係る適用例を示す図である。
図4図4は、実施形態に係る適用例を示す図である。
図5図5は、実施形態に係る画像出力方法を示す図である。
【発明を実施するための形態】
【0014】
以下において、実施形態について図面を参照しながら説明する。なお、以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。但し、図面は模式的なものである。
【0015】
[実施形態]
(画像出力装置)
以下において、実施形態に係る画像出力装置について説明する。図1は、実施形態に係る画像出力装置100を示す図である。
【0016】
図1に示すように、画像出力装置100は、教師データ生成部110と、学習部120と、出力部130と、を有する。
【0017】
教師データ生成部110は、学習部120に入力する教師データを出力する。教師データは、第1態様の対象画像を含む本物画像(以下、第1本物画像)と、第1態様の少なくとも一部が変更された第2態様の対象画像を含む仮想画像(以下、第1仮想画像)と、を含む。言い換えると、教師データは、第1本物画像と第1仮想画像とのペアを含む。
【0018】
実施形態では、「本物画像」という用語は、実物を撮像した画像を意味するようとして用いる。「仮想画像」という用語は、「本物画像」ではない画像を意味する用語として用いる。従って、「仮想画像」は、「生成画像」と読み替えてもよく、「偽物画像」と読み替えてもよい。
【0019】
ここで、対象画像は、人物の画像であってもよい。第1態様の対象画像は、装飾品を身につけた人物の画像であり、第2態様の対象画像は、装飾品を身につけていない人物の画像であってもよい。逆に、第1態様の対象画像は、装飾品を身につけていない人物の画像であり、第2態様の対象画像は、装飾品を身につけた人物の画像であってもよい。装飾品は、眼鏡、アクセサリ、衣服、服飾品、カツラなどの中から選択された1以上の装飾品を含んでもよい。
【0020】
このような前提下において、教師データ生成部110は、生成部111と、識別部112と、を有する。教師データ生成部110は、GAN(Generative Adversarial Network)を用いて第1仮想画像を生成する。GANは、DC(Deep Convolutional) GANを含んでもよい。生成部111は、GANにおけるGeneratorと読み替えてもよく、識別部112は、GANにおけるDiscriminatorと読み替えてもよい。生成部111及び識別部112は、識別部112の識別結果に基づいて調教される。なお、”調教”は、”学習”と読み替えてもよい。
【0021】
生成部111は、第1本物画像から第1仮想画像を生成する。具体的には、生成部111は、第1本物画像を所定生成モデルに入力し、第1仮想画像を所定生成モデルから出力する。所定生成モデルとしては、GANにおけるGeneratorで用いる既知の生成モデルを用いることができる。但し、所定生成モデルに入力される潜在変数として第1本物画像を用いる点で既知の生成モデルと異なってもよい。
【0022】
識別部112は、第2態様の対象画像を含む第2本物画像に基づいて、生成部111によって生成された第1仮想画像が本物であるか否かを識別する。具体的には、識別部112は、第2本物画像及び第1仮想画像を所定識別モデルに入力し、所定識別モデルの出力を比較することによって、第1仮想画像が本物であるか否かを識別する。所定識別モデルとしては、GANにおけるDiscriminatorで用いる既知の識別モデルを用いることができる。第2本物画像に関する人物は、第1仮想画像に関する人物と異なっていてもよい。
【0023】
ここで、生成部111は、所定識別モデルを固定した状態で、識別部112によって第1仮想画像が本物であると判定されたか(すなわち、識別結果)に基づいて調教される。生成部111の調教は、所定生成モデルの調教と同義である。識別結果は、GANにおける誤差逆伝搬であると考えてもよい。
【0024】
識別部112は、所定生成モデルを固定した状態で、識別部112の識別結果が正しいか否か(すなわち、識別結果)に基づいて調教される。識別部112の調教において第1仮想画像が本物ではないことは識別部112にとって既知である。識別部112の調教は、所定識別モデルの調教と同義である。識別結果は、GANにおける誤差逆伝搬であると考えてもよい。
【0025】
生成部111の調教及び識別部112の調教は交互に実行されてもよい。特に限定されるものではないが、生成部111及び識別部112を調教する回数(エポック数)は、所定生成モデル及び所定識別モデルの過学習が生じない程度の回数であってもよい。生成部111及び識別部112を調教する回数は、第1仮想画像の精度をオペレータが確認することによって特定されてもよい。
【0026】
上述した教師データは、調教済みの識別部112によって本物であると識別された第1仮想画像と、当該第1仮想画像と対応する第1本物画像(調教済みの生成部111に入力される第1本物画像)と、を含む。言い換えると、教師データに含まれる第1仮想画像は、調教済みの生成部111によって生成された第1仮想画像の中から、調教済みの識別部112によって本物であると識別された第1仮想画像である。
【0027】
教師データは、クレンジング処理が適用された後に学習部120に入力されてもよい。クレンジング処理は、オペレータによって不適切な教師データを除外する処理であってもよい。クレンジング処理が自動化可能であれば、教師データ生成部110が自動的にクレンジング処理を実行してもよい。
【0028】
学習部120は、教師データ生成部110から入力される教師データに基づいて学習モデルを生成する。すなわち、学習部120は、識別部112によって本物であると識別された第1仮想画像及び第1本物画像を教師データとして、第1本物画像と第1仮想画像との相関関係を学習することによって学習モデルを生成する。第1本物画像と第1仮想画像との相関関係を学習した後の学習モデルは、学習済みモデルと称されてもよい。特に限定されるものではないが、学習モデルは、画像処理に適したモデルであってもよい。例えば、学習モデルは、CNN(Convolution Neural Network)を含んでもよい。
【0029】
出力部130は、学習モデル(学習済みモデル)を用いて、第1態様の対象画像を含む第3本物画像から、第2態様の対象画像を含む第3仮想画像を出力する。或いは、出力部130は、学習モデル(学習済みモデル)を用いて、第2態様の対象画像を含む第4本物画像から、第1態様の対象画像を含む第4仮想画像を出力する。
【0030】
ここで、第3仮想画像に関する人物は、第3本物画像に関する人物と同じである。同様に、第4仮想画像に関する人物は、第4本物画像に関する人物と同じである。一方で、第3本物画像及び第3仮想画像に関する人物は、第1本物画像及び第1仮想画像に関する人物と異なってもよく、第2本物画像に関する人物と異なってもよい。同様に、第4本物画像及び第4仮想画像に関する人物は、第1本物画像及び第1仮想画像に関する人物と異なってもよく、第2本物画像に関する人物と異なってもよい。
【0031】
(適用例)
以下において、上述した画像出力装置100の適用例について説明する。図2図4は、実施形態に係る画像出力装置100の適用例を示す図である。
【0032】
適用例では説明の明確化のために、第1態様の対象画像が眼鏡を掛けた人物の画像であり、第2態様の対象画像が眼鏡を掛けていない人物の画像であるケースについて主として説明する。
【0033】
第1に、教師データ生成フェーズについて、図2を参照しながら説明する。
【0034】
図2に示すように、生成部111は、眼鏡を掛けた人物の画像を含む第1本物画像に基づいて、眼鏡を掛けていない人物の画像を含む第1仮想画像を生成する。識別部112は、眼鏡を掛けていない人物の画像を含む第2本物画像に基づいて、生成部111によって生成された第1仮想画像が本物であるか否かを識別する。
【0035】
ここで、生成部111は、GANにおけるGeneratorを構成し、識別部112は、GANにおけるDiscriminatorを構成する。生成部111及び識別部112は、識別部112の識別結果に基づいて調教される(誤差逆伝搬)。
【0036】
以下においては、生成部111及び識別部112の調教が完了したものとして説明を続ける。このような前提下において、教師データ生成部110は、識別部112によって本物であると識別された第1仮想画像及び第1本物画像を教師データとして出力する。具体的には、教師データは、調教済みの識別部112によって本物であると識別された第1仮想画像と、第1仮想画像と対応する第1本物画像(調教済みの生成部111に入力される第1本物画像)と、を含む。
【0037】
ここで、第1本物画像及び第1仮想画像は同一人物に関する画像である。すなわち、教師データ生成部110は、同一人物に関する画像のペアを教師データとして出力する。教師データ生成部110が2以上の人物に関する画像のペアを教師データとして出力してもよいことは勿論である。
【0038】
第2に、学習フェーズについて、図3を参照しながら説明する。
【0039】
図3に示すように、眼鏡を掛けた人物の画像を含む第1本物画像から、眼鏡を掛けていない人物の画像を含む第1仮想画像を生成するニューラルネットワーク(学習モデル)の学習が実行される。言い換えると、学習部120は、第1本物画像及び第1仮想画像のペア(教師データ)に基づいて、第1本物画像と第1仮想画像との相関関係を学習する。特に限定されるものではないが、ニューラルネットワークの学習は、ニューラルネットワークを構成するニューロン間の重み係数を調整する処理を含んでもよい。
【0040】
以下においては、ニューラルネットワークの学習が完了したものとして説明を続ける。言い換えると、学習部120は、ニューラルネットワーク(学習モデル)の学習を完了する。
【0041】
上述したように、教師データは、クレンジング処理が適用された後に学習部120に入力されてもよい。クレンジング処理は、オペレータによって不適切な教師データを除外する処理であってもよい。クレンジング処理が自動化可能であれば、教師データ生成部110が自動的にクレンジング処理を実行してもよい。
【0042】
第3に、推論フェーズについて、図4を参照しがら説明する。
【0043】
図4に示すように、学習済みニューラルネットワーク(学習済みモデル)は、眼鏡を掛けた人物の画像を含む第3本物画像から、眼鏡を掛けた人物の画像を含む第3仮想画像を生成する。言い換えると、出力部130は、学習済みニューラルネットワーク(学習済みモデル)を用いて、第3本物画像から第3仮想画像を出力する。
【0044】
(画像出力方法)
以下において、実施形態に係る画像出力方法について説明する。図5は、実施形態に係る画像出力方法を示す図である。
【0045】
図1に示すように、ステップS11において、画像出力装置100は、第1態様の対象画像を含む第1本物画像から、第2態様の対象画像を含む第1仮想画像を生成する。
【0046】
ステップS12において、画像出力装置100は、第2態様の対象画像を含む第2本物画像に基づいて、ステップS11で生成された第1仮想画像が本物であるか否かを識別する。
【0047】
ステップS13において、画像出力装置100は、生成部111(所定生成モデル)及び識別部112(所定識別モデル)の調教が完了したか否かを判定する。画像出力装置100は、調教の回数(エポック数)が所定閾値に達した場合に、調教が完了したと判定してもよい。調教の完了はオペレータによって判定されてもよい。
【0048】
ステップS14において、クレンジング処理が実行される。クレンジング処理は、不適切な教師データを除外する処理である。教師データは、調教済みの識別部112によって本物であると識別された第1仮想画像と、第1仮想画像と対応する第1本物画像(調教済みの生成部111に入力される第1本物画像)と、を含む。
【0049】
ステップS15において、画像出力装置100は、教師データ(第1本物画像及び第1仮想画像)に基づいて、第1本物画像と第1仮想画像との相関関係を学習することによって学習モデルを生成する。
【0050】
ステップS16において、画像出力装置100は、学習モデル(学習済みモデル)を用いて、第1態様の対象画像を含む第3本物画像から、第2態様の対象画像を含む第3仮想画像を出力する。或いは、画像出力装置100は、学習モデル(学習済みモデル)を用いて、第2態様の対象画像を含む第4本物画像から、第1態様の対象画像を含む第4仮想画像を出力する。
【0051】
図5では、クレンジング処理が実行されるケースが例示されているが、クレンジング処理は省略されてもよい。
【0052】
(作用及び効果)
実施形態では、画像出力装置100は、第1本物画像及び第1仮想画像を教師データとして、第1本物画像と第1仮想画像との相関関係を学習することによって学習モデルを生成する。画像出力装置100は、学習モデルを用いて、第3本物画像(又は第4本物画像)から第3仮想画像(又は第4仮想画像)を出力する。このような前提下において、教師データは、調教済みの識別部112によって本物であると識別された第1仮想画像と、当該第1仮想画像と対応する第1本物画像(調教済みの生成部111に入力される第1本物画像)と、を含む。言い換えると、教師データがGANを用いて生成される。
【0053】
このような構成によれば、GANを用いて生成された教師データを用いて学習モデルが生成されるため、第1態様の少なくとも一部が変更された第2態様の対象画像を含む“本物”画像を用いることなく、学習モデルを適切に生成することができる。第2態様の対象画像を含む“本物”画像を用いないため、第1態様の対象画像及び第2態様の対象画像が同一アングルで撮像される必要がない。さらに、第2態様の対象画像を含む“本物”画像が含み得るノイズ(例えば、影)などの影響を抑制することができる。上述したように、学習モデルを適切に生成することができるため、画像出力装置100は、第1態様の対象画像を含む本物画像(第3本物画像又は第4本物画像)から第2態様の対象画像を含む仮想画像(第3仮想画像又は第4仮想画像)を適切に出力することができる。
【0054】
実施形態では、画像出力装置100は、生成部111(所定生成モデル)に入力される潜在変数として第1本物画像を用いる。従って、第1仮想画像の生成精度が向上する。ひいては、調教回数(エポック数)を抑制することができる。
【0055】
[変更例1]
以下において、実施形態の変更例1について説明する。以下においては、実施形態に対する相違点について主として説明する。
【0056】
変更例1では、第1態様の対象画像及び第2態様の対象画像のバリエーションについて説明する。
【0057】
上述したように、第1態様の対象画像は、装飾品を身につけた人物の画像であり、第2態様の対象画像は、装飾品を身につけていない人物の画像であってもよい。逆に、第1態様の対象画像は、装飾品を身につけていない人物の画像であり、第2態様の対象画像は、装飾品を身につけた人物の画像であってもよい。装飾品は、眼鏡、アクセサリ、衣服、服飾品、カツラなどの中から選択された1以上の装飾品を含んでもよい。
【0058】
しかしながら、第1態様の対象画像及び第2態様の対象画像は、これに限定されるものではない。第1態様の対象画像及び第2態様の対象画像は、以下に示すバリエーションを含んでもよい。
【0059】
例えば、第1態様の対象画像は、メイク前の人物の画像であり、第2態様の対象画像は、メイク後の人物の画像であってもよい。逆に、第1態様の対象画像は、メイク後の人物の画像であり、第2態様の対象画像は、メイク前の人物の画像であってもよい。
【0060】
例えば、第1態様の対象画像は、整形前の人物の画像であり、第2態様の対象画像は、整形後の人物の画像であってもよい。逆に、第1態様の対象画像は、整形後の人物の画像であり、第2態様の対象画像は、整形前の人物の画像であってもよい。整形は、美容整形を含んでもよい。
【0061】
例えば、第1態様の対象画像は、変更前の髪型(例えば、長髪)を有する人物の画像であり、第2態様の対象画像は、変更後の髪型(例えば、短髪)を有する人物の画像であってもよい。逆に、第1態様の対象画像は、変更後の髪型(例えば、短髪)を有する人物の画像であり、第2態様の対象画像は、変更前の髪型(例えば、長髪)を有する人物の画像であってもよい。
【0062】
例えば、第1態様の対象画像は、ダイエット前の人物の画像であり、第2態様の対象画像は、ダイエット後の人物の画像であってもよい。逆に、第1態様の対象画像は、ダイエット後の人物の画像であり、第2態様の対象画像は、ダイエット後の人物の画像であってもよい。
【0063】
例えば、第1態様の対象画像は、現在の人物の画像であり、第2態様の対象画像は、将来の人物の画像であってもよい。逆に、第1態様の対象画像は、将来の人物の画像であり、第2態様の対象画像は、現在の人物の画像であってもよい。或いは、第1態様の対象画像は、現在の人物の画像であり、第2態様の対象画像は、過去の人物の画像であってもよい。逆に、第1態様の対象画像は、過去の人物の画像であり、第2態様の対象画像は、現在の人物の画像であってもよい。或いは、第1態様の対象画像は、過去の人物の画像であり、第2態様の対象画像は、将来の人物の画像であってもよい。逆に、第1態様の対象画像は、将来の人物の画像であり、第2態様の対象画像は、過去の人物の画像であってもよい。
【0064】
上述したように、対象画像は、人物の画像であってもよい。しかしながら、対象画像はこれに限定されるものではない。対象画像は、車両などの物品の画像であってもよい。このようなケースにおいて、第1態様の対象画像は、傷を有する物品の画像であり、第2態様の対象画像は、傷をリペアした後の物品の画像であってもよい。逆に、第1態様の対象画像は、傷をリペアした後の物品の画像であり、第2態様の対象画像は、傷を有する物品の画像であってもよい。
【0065】
或いは、対象画像は、風景画像などであってもよい。このようなケースにおいて、第1態様の対象画像は、第1季節の風景画像であり、第2態様の対象画像は、第1季節とは異なる第2季節の風景画像であってもよい。
【0066】
或いは、対象画像は、実際の人物の画像及び人工の人物の画像を含んでもよい。このようなケースにおいて、第1態様の対象画像は、実際の人物の画像であり、第2態様の対象画像は、人工の人物の画像であってもよい。逆に、第1態様の対象画像は、人工の人物の画像であり、第2態様の対象画像は、実際の人物の画像であってもよい。人工の人物の画像は、人物のイラスト、CG(Computer Graphics)、アバターなどの画像であってもよい。
【0067】
或いは、対象画像は、検品対象の物品の画像であってもよい。このようなケースにおいて、第1態様の対象画像は、正常な物品の画像であり、第2態様の対象画像は、異常な物品の画像であってもよい。逆に、第1態様の対象画像は、異常な物品の画像であり、第2態様の対象画像は、正常な物品の画像であってもよい。
【0068】
或いは、対象画像の種類を問わなくてもよい。このようなケースにおいて、第1態様の対象画像は、第1解像度の画像であり、第2態様の対象画像は、第1解像度とは異なる第2解像度の画像であってもよい。
【0069】
[その他の実施形態]
本発明は上述した実施形態によって説明したが、この開示の一部をなす論述及び図面は、この発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
【0070】
上述した開示では特に触れていないが、画像出力装置100は、第1本物画像の入力インタフェースを有していてもよい。画像出力装置100は、第2本物画像の入力インタフェースを有していてもよい。入力インタフェースは、撮像装置を含んでもよく、インターネットなどのネットワークと通信を行う通信モジュールを含んでもよい。
【0071】
上述した開示では特に触れていないが、第1仮想画像は、第1本物画像に含まれる背景画像を含まなくてもよい。背景画像は、対象画像以外の部分である。従って、第3仮想画像(又は第4仮想画像)も背景画像を含まなくてもよい。
【0072】
上述した開示では、画像出力装置100の各機能が1つの装置に設けられるケースについて例示した。しかしながら、上述した開示はこれに限定されるものではない。画像出力装置100の各機能は、2以上の装置に設けられてもよく、画像出力装置100の機能の一部は、クラウドサービスによって提供されてもよい。このようなケースにおいては、画像出力装置を画像出力システムと読み替えてもよい。
【0073】
上述した開示では特に触れていないが、画像出力装置100が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。
【0074】
或いは、画像出力装置100が行う各処理を実行するためのプログラムを記憶するメモリ及びメモリに記憶されたプログラムを実行するプロセッサによって構成されるチップが提供されてもよい。
【符号の説明】
【0075】
100…画像出力装置、110…教師データ生成部、111…生成部、112…識別部、120…学習部、130…出力部
図1
図2
図3
図4
図5