IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

特開2024-70286情報処理装置、情報処理方法及び情報処理プログラム
<>
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図1
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図2
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図3
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図4
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図5
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図6
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図7
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図8
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図9
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図10
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図11
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図12
  • 特開-情報処理装置、情報処理方法及び情報処理プログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024070286
(43)【公開日】2024-05-23
(54)【発明の名称】情報処理装置、情報処理方法及び情報処理プログラム
(51)【国際特許分類】
   G06T 15/06 20110101AFI20240516BHJP
【FI】
G06T15/06
【審査請求】未請求
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2021050060
(22)【出願日】2021-03-24
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】100104215
【弁理士】
【氏名又は名称】大森 純一
(74)【代理人】
【識別番号】100196575
【弁理士】
【氏名又は名称】高橋 満
(74)【代理人】
【識別番号】100168181
【弁理士】
【氏名又は名称】中村 哲平
(74)【代理人】
【識別番号】100160989
【弁理士】
【氏名又は名称】関根 正好
(74)【代理人】
【識別番号】100117330
【弁理士】
【氏名又は名称】折居 章
(74)【代理人】
【識別番号】100168745
【弁理士】
【氏名又は名称】金子 彩子
(74)【代理人】
【識別番号】100176131
【弁理士】
【氏名又は名称】金山 慎太郎
(74)【代理人】
【識別番号】100197398
【弁理士】
【氏名又は名称】千葉 絢子
(74)【代理人】
【識別番号】100197619
【弁理士】
【氏名又は名称】白鹿 智久
(72)【発明者】
【氏名】入江 大輔
(72)【発明者】
【氏名】高橋 紀晃
(72)【発明者】
【氏名】西田 幸司
【テーマコード(参考)】
5B080
【Fターム(参考)】
5B080AA17
5B080AA19
5B080CA01
5B080DA06
5B080FA02
5B080FA03
5B080FA08
5B080FA09
5B080FA14
5B080FA17
5B080GA02
5B080GA04
5B080GA06
5B080GA11
(57)【要約】
【課題】光線追跡方式によるレンダリング映像をより高速に作成する。
【解決手段】情報処理装置は、モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成するレンダラと、前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する映像合成部とを具備する。
【選択図】図2
【特許請求の範囲】
【請求項1】
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成する
レンダラと、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する映像合成部と
を具備する情報処理装置。
【請求項2】
請求項1に記載の情報処理装置であって、
前記レンダラは、前記モデルデータをNフレーム毎に前記光線追跡方式によりレンダリングすることで、時間的に間引いて前記光線追跡映像を作成し、
前記情報処理装置は、前記Nフレームの付加映像と、光線追跡映像が作成されなかったフレームである間引きフレームの付加映像とに基づき、前記Nフレームから前記間引きフレームへの動きベクトルを算出する動きベクトル算出部をさらに具備し、
前記映像合成部は、前記間引きフレームの前記付加映像と、前記Nフレームの前記光線追跡映像を前記動きベクトルに基づき補正することにより作成された補正後の光線追跡映像とを合成して、前記間引きフレームの合成映像を作成する
情報処理装置。
【請求項3】
請求項2に記載の情報処理装置であって、
前記補正後の光線追跡映像を作成するプレ信号処理部
をさらに具備する情報処理装置。
【請求項4】
請求項2に記載の情報処理装置であって、
前記映像合成部は、前記補正後の光線追跡映像を作成する
情報処理装置。
【請求項5】
請求項1に記載の情報処理装置であって、
前記モデルデータの前記光線追跡方式の固有の表現領域を設定する表現領域設定部をさらに具備し、
前記レンダラは、前記モデルデータの前記表現領域を前記光線追跡方式によりレンダリングして、前記光線追跡映像を作成し、
前記映像合成部は、前記付加映像と、前記表現領域の前記光線追跡映像とを合成して合成映像を作成する
情報処理装置。
【請求項6】
請求項5に記載の情報処理装置であって、
前記レンダラは、前記モデルデータのマテリアル設定に基づき、前記表現領域をマスクするマスク映像を作成し、
前記表現領域設定部は、前記マスク映像に特定される前記表現領域を設定する
情報処理装置。
【請求項7】
請求項5に記載の情報処理装置であって、
前記レンダラは、
前記光線追跡方式より低SPP(Samples Per Pixel)及び/若しくは低解像度の光線追跡方式で、前記モデルデータをプリレンダリングしてプリレンダリング映像を作成し、
前記プリレンダリング映像の内部成分に基づき前記表現領域をマスクするマスク映像を作成し、
前記表現領域設定部は、前記マスク映像に特定される前記表現領域を設定する
情報処理装置。
【請求項8】
請求項5に記載の情報処理装置であって、
前記レンダラは、前記光線追跡方式より低SPP(Samples Per Pixel)及び/若しくは低解像度の光線追跡方式で、前記モデルデータをプリレンダリングしてプリレンダリング映像を作成し、
前記情報処理装置は、前記レンダラが作成した前記プリレンダリング映像から、前記表現領域を識別する識別器をさらに具備し、
前記表現領域設定部は、前記プリレンダリング映像から予測された前記表現領域を設定する
情報処理装置。
【請求項9】
請求項5に記載の情報処理装置であって、
前記表現領域設定部は、前記表現領域を前記光線追跡方式によりレンダリングするときのレンダリングパラメータを設定し、
前記レンダラは、前記レンダリングパラメータに基づき、前記モデルデータの前記表現領域を前記光線追跡方式によりレンダリングして、前記光線追跡映像を作成する
情報処理装置。
【請求項10】
請求項9に記載の情報処理装置であって、
前記表現領域設定部は、前記光線追跡映像の全体領域に対する前記表現領域の割合に基づき、前記レンダリングパラメータを設定する
情報処理装置。
【請求項11】
請求項1に記載の情報処理装置であって、
前記レンダラは、前記光線追跡方式と異なる方法として、前記モデルデータを非光線追跡方式又は記光線追跡方式より低SPP及び/若しくは低解像度の光線追跡方式で、前記モデルデータをレンダリングして前記付加映像を作成する
情報処理装置。
【請求項12】
請求項11に記載の情報処理装置であって、
前記非光線追跡方式は、ラスタライズ方式、Zソート法、Zバッファ法又はスキャンライン方式である
情報処理装置。
【請求項13】
請求項1に記載の情報処理装置であって、
前記レンダラは、前記付加映像として、さらに、前記付加映像のAlbedo成分、法線成分、Depth成分、粗さ成分、UVマップ成分、AOVs(Arbitrary Output Variable)成分及び/又はShadowマップ成分を含む内部成分を作成する
情報処理装置。
【請求項14】
請求項1に記載の情報処理装置であって、
前記光線追跡方式は、レイトレーシング又はパストレーシングである
情報処理装置。
【請求項15】
請求項1に記載の情報処理装置であって、
前記レンダラは、前記モデルデータを16SPP未満で光線追跡方式によりレンダリングして前記光線追跡映像を作成する
情報処理装置。
【請求項16】
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成し、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する
情報処理方法。
【請求項17】
情報処理装置のプロセッサを、
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成し、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する
よう動作させる情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、光線追跡方式によるレンダリング映像を作成する情報処理装置、情報処理方法及び情報処理プログラムに関する。
【背景技術】
【0002】
レンダリングにおいて、光線のシミュレーションに基づく光線追跡方式(レイトレーシングやパストレーシング方式)は、他のレンダリング方式(ラスタライズやZバッファ法等の非光線追跡方式)に比べて、光の反射や透過等の表現が優れており、より写実的なレンダリングが可能である。光線追跡方式は、様々な分野で使用されている(特許文献1及び特許文献2)。
【0003】
特許文献1は、カーナビゲーションGUIにおける、表示地図上の操作パネルのレンダリングの例を開示する。特許文献1は、部分領域を光線追跡方式、それ以外の領域を異なる方法でレンダリングする。具体的には、カーナビゲーションのボタン等のGUIを、レイトレーシングで透過表示する。
【0004】
特許文献2は、超音波診断装置にレイトレーシングを利用する。一般的な手法として、3次元の超音波画像からボリュームレンダリング法により作成した2次元超音波画像を用いることで、心臓弁における開閉状況を確認するが、弁があまり開かない場合に視認性が下がるおそれがある。そこで、特許文献2は、レイトレーシングを併用することで、心臓弁が開いていることが光の漏れとして分かるので、超音波画像における心臓弁の開閉状況の視認性の向上を図る。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2003-187264号公報
【特許文献2】特表2010-188118号公報
【非特許文献】
【0006】
【非特許文献1】"Intel (R) Open Image Denoise", [online], [2021年2月24日検索], インターネット<URL:https://www.openimagedenoise.org/index.html>
【発明の概要】
【発明が解決しようとする課題】
【0007】
光線追跡方式では、レンダリング映像の1ピクセル毎に数千~数万本もの光線シミュレーションを必要とするため、光線追跡方式のレンダリングは、非常に長い処理時間を要する。実際に、映画の映像制作の場面で、レンダリングの待機時間が大きなペインポイントと認識されている。
【0008】
そこで、非特許文献1は、低SPP(例えば、16SPP)設定のレイトレーシング方式で、高速にレンダリングした高ノイズな映像、Albedo成分及び法線マップを、DNNを用いて合成する。
【0009】
以上のような事情に鑑み、本開示の目的は、光線追跡方式によるレンダリング映像をより高速に作成することにある。
【課題を解決するための手段】
【0010】
本開示の一形態に係る情報処理装置は、
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成する
レンダラと、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する映像合成部と
を具備する。
【0011】
本形態によれば、情報処理装置は、光線追跡方式により、光源成分表現等が可能な光線追跡映像を、低画質で高速に作成する。同時に、情報処理装置は、非光線追跡方式により、光源成分表現等が不可能であるが高画質な映像(付加映像と称する)を、高速に作成する。情報処理装置は、低画質であるが光源成分表現等が可能な光線追跡映像と、光源成分表現等が不可能であるが高画質な付加映像とを合成する。これにより、情報処理装置は、光線追跡映像及び付加映像のそれぞれの利点を活かしそれぞれの欠点を補い合う合成映像を高速に作成することができる。
【0012】
前記レンダラは、前記モデルデータをNフレーム毎に前記光線追跡方式によりレンダリングすることで、時間的に間引いて前記光線追跡映像を作成し、
前記情報処理装置は、前記Nフレームの付加映像と、光線追跡映像が作成されなかったフレームである間引きフレームの付加映像とに基づき、前記Nフレームから前記間引きフレームへの動きベクトルを算出する動きベクトル算出部をさらに具備し、
前記映像合成部は、前記間引きフレームの前記付加映像と、前記Nフレームの前記光線追跡映像を前記動きベクトルに基づき補正することにより作成された補正後の光線追跡映像とを合成して、前記間引きフレームの合成映像を作成してもよい。
【0013】
本実施形態の情報処理装置は、モデルデータを時間的に間引いて光線追跡映像を作成する。非光線追跡方式のレンダリング回数が減るので、その分だけ毎回のレンダリングに時間を掛けることができ、比較的高SPPで光線追跡映像を作成することができる。また、間引きフレームに用いられる光線追跡映像として、レンダリング済みの複数の付加映像から算出した動きベクトルに基づき補正された光線追跡映像を使用する。これにより、全フレームの光線追跡映像を作成しなくても、時間的に滑らかな合成映像を作成することが可能となる。これにより、高速化及びさらなる高画質化を両立できる。
【0014】
情報処理装置は、前記補正後の光線追跡映像を作成するプレ信号処理部をさらに具備してもよい。
【0015】
前記映像合成部は、前記補正後の光線追跡映像を作成してもよい。
【0016】
プレ信号処理部が、Nフレームの光線追跡映像を動きベクトルに基づき補正することにより、補正後の光線追跡映像を作成してもよい。これに対して、映像合成部が、合成映像を作成する際に、用いてNフレームの光線追跡映像を動きベクトルに基づき補正することにより、補正後の光線追跡映像を作成してもよい。
【0017】
前記モデルデータの前記光線追跡方式の固有の表現領域を設定する表現領域設定部をさらに具備し、
前記レンダラは、前記モデルデータの前記表現領域を前記光線追跡方式によりレンダリングして、前記光線追跡映像を作成し、
前記映像合成部は、前記付加映像と、前記表現領域の前記光線追跡映像とを合成して合成映像を作成してもよい。
【0018】
本実施形態の情報処理装置は、モデルデータの光線追跡方式の固有の表現領域にレンダリング対象を限定して(言い換えれば、レンダリング対象領域を空間的に間引いて)、光線追跡方式の固有の表現領域のみの光線追跡映像を作成する。光線追跡方式でレンダリングする領域が減るので、その分だけ表現領域のレンダリングに時間を掛けることができ、高SPPで表現領域の光線追跡映像を作成することができる。これにより、高速化及びさらなる高画質化を両立できる。
【0019】
前記レンダラは、前記モデルデータのマテリアル設定に基づき、前記表現領域をマスクするマスク映像を作成し、
前記表現領域設定部は、前記マスク映像に特定される前記表現領域を設定してもよい。
【0020】
前記レンダラは、
前記光線追跡方式より低SPP(Samples Per Pixel)及び/若しくは低解像度の光線追跡方式で、前記モデルデータをプリレンダリングしてプリレンダリング映像を作成し、
前記プリレンダリング映像の内部成分に基づき前記表現領域をマスクするマスク映像を作成し、
前記表現領域設定部は、前記マスク映像に特定される前記表現領域を設定してもよい。
【0021】
前記レンダラは、前記光線追跡方式より低SPP(Samples Per Pixel)及び/若しくは低解像度の光線追跡方式で、前記モデルデータをプリレンダリングしてプリレンダリング映像を作成し、
前記情報処理装置は、前記レンダラが作成した前記プリレンダリング映像から、前記表現領域を識別する識別器をさらに具備し、
前記表現領域設定部は、前記プリレンダリング映像から予測された前記表現領域を設定してもよい。
【0022】
レンダラが表現領域をマスクするマスク映像を作成する方法では、レンダラのシステムの規定によりレンダラが表現領域をマスクするマスク映像を作成することになる。一方、外部APIとして処理を行う場合、レンダラの内部を操作できない場合がある。そこで、レンダラの外部の識別器が表現領域を特定すれば、外部APIとして処理を実行できる。
【0023】
前記表現領域設定部は、前記表現領域を前記光線追跡方式によりレンダリングするときのレンダリングパラメータを設定し、
前記レンダラは、前記レンダリングパラメータに基づき、前記モデルデータの前記表現領域を前記光線追跡方式によりレンダリングして、前記光線追跡映像を作成してもよい。
【0024】
前記表現領域設定部は、前記光線追跡映像の全体領域に対する前記表現領域の割合に基づき、前記レンダリングパラメータを設定してもよい。
【0025】
これにより、表現領域の割合に基づき、適切な速度の範囲で最も高画質に、光線追跡映像をレンダリングすることができる。
【0026】
前記レンダラは、前記光線追跡方式と異なる方法として、前記モデルデータを非光線追跡方式又は記光線追跡方式より低SPP及び/若しくは低解像度の光線追跡方式で、前記モデルデータをレンダリングして前記付加映像を作成してもよい。
【0027】
非光線追跡方式のレンダリング映像は、光線追跡方式に比べて処理に要する時間が短く高速である。非光線追跡方式のレンダリング時間は、最小で1フレーム当たり数ミリ秒であり、設定によりリアルタイム処理も可能である。一方、非光線追跡方式は、少なくとも被写体固有の形状を表現することは可能であるものの、光源成分表現、散乱表現、ヘアレンダリング表現等が出来ない。光線追跡方式でも、解像度やSPP(光線数)を抑えれば、非光線追跡方式と同程度の速度でレンダリングすることは可能である。しかしながら、低解像度でレンダリングすると極端に低解像度の光線追跡映像が作成され、低SPPでレンダリングすると極端に高ノイズの光線追跡映像が作成され、非実用的である。以上のような事情に鑑み、本実施形態によれば、情報処理装置は、光線追跡方式により、光源成分表現等が可能な光線追跡映像を、低画質で高速に作成する。同時に、情報処理装置は、非光線追跡方式により、光源成分表現等が不可能であるが高画質な映像(付加映像)を、高速に作成する。情報処理装置は、低画質であるが光源成分表現等が可能な光線追跡映像と、光源成分表現等が不可能であるが高画質な付加映像とを合成する。これにより、情報処理装置は、光線追跡映像及び付加映像のそれぞれの利点を活かしそれぞれの欠点を補い合う合成映像を高速に作成する。
【0028】
前記非光線追跡方式は、ラスタライズ方式、Zソート法、Zバッファ法又はスキャンライン方式でもよい。
【0029】
前記レンダラは、前記付加映像として、さらに、前記付加映像のAlbedo成分、法線成分、Depth成分、粗さ成分、UVマップ成分、AOVs(Arbitrary Output Variable)成分及び/又はShadowマップ成分を含む内部成分を作成してもよい。
【0030】
前記光線追跡方式は、レイトレーシング又はパストレーシングでもよい。
【0031】
前記レンダラは、前記モデルデータを16SPP未満で光線追跡方式によりレンダリングして前記光線追跡映像を作成してもよい。
【0032】
本実施形態によれば、情報処理装置は、鑑賞向けの映像としては、光源成分表現等が可能な光線追跡映像と、光源成分表現等が不可能であるが高画質な映像(付加映像)を作成する。光線追跡映像と付加映像とを合成するため、光線追跡映像のSPPを1SPP程度に大幅に抑えても、画質を付加映像で担保できるため問題無い。このため、光線追跡映像のSPPを1SPP程度に大幅に抑えて処理を高速化することができる。
【0033】
本開示の一形態に係る情報処理方法は、
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成し、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する。
【0034】
本開示の一形態に係る情報処理プログラムは、
情報処理装置のプロセッサを、
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成し、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する
よう動作させる。
【図面の簡単な説明】
【0035】
図1】本開示の第1の実施形態のコンセプトを示す。
図2】情報処理装置の構成を示す。
図3】情報処理装置の動作フローを示す。
図4】本開示の第2の実施形態のコンセプトを示す。
図5】情報処理装置の構成を示す。
図6】情報処理装置の動作フローを示す。
図7】本開示の第3の実施形態の情報処理装置の構成を示す。
図8】情報処理装置の動作フローを示す。
図9】本開示の第4の実施形態のコンセプトを示す。
図10】情報処理装置の構成を示す。
図11】情報処理装置の動作フローを示す。
図12】本開示の第5の実施形態の情報処理装置の構成を示す。
図13】情報処理装置の動作フローを示す。
【発明を実施するための形態】
【0036】
以下、図面を参照しながら、本開示の実施形態を説明する。
【0037】
I.第1の実施形態
【0038】
1.情報処理装置の概要
【0039】
光線追跡方式のレンダリングとして、レイトレーシング又はパストレーシングが知られている。光線追跡方式は、写実的な光の反射、透過、拡散、屈折及び陰影等の表現が可能である。具体的には、光線追跡方式は、直接反射光表現、間接反射光表現、透過光表現、内部拡散光表現及び自発光表現等の光源成分表現、雲や霧等の散乱表現、髪や毛皮等のヘアレンダリング表現が可能である。一方、光線追跡方式は、非常に長い処理時間を要する。光線追跡方式は、1ピクセル毎に数千~数万本もの光線シミュレーションを必要とするため、1フレーム当たり数時間掛かることもある。
【0040】
非光線追跡方式のレンダリングとして、例えば、ラスタライズ方式、Zソート法、Zバッファ法又はスキャンライン方式が知られている。非光線追跡方式のレンダリング映像は、光線追跡方式に比べて処理に要する時間が短く高速である。非光線追跡方式のレンダリング時間は、最小で1フレーム当たり数ミリ秒であり、設定によりリアルタイム処理も可能である。一方、非光線追跡方式は、少なくとも被写体固有の形状を表現することは可能であるものの、光源成分表現、散乱表現、ヘアレンダリング表現等が出来ない。
【0041】
光線追跡方式でも、解像度やSPP(光線数)を抑えれば、非光線追跡方式と同程度の速度でレンダリングすることは可能である。しかしながら、低解像度でレンダリングすると極端に低解像度の光線追跡映像が作成され、低SPPでレンダリングすると極端に高ノイズの光線追跡映像が作成され、非実用的である。
【0042】
図1は、本開示の第1の実施形態のコンセプトを示す。
【0043】
以上のような事情に鑑み、本実施形態によれば、情報処理装置100は、光線追跡方式により、光源成分表現等が可能な光線追跡映像121を、低画質で高速に作成する。同時に、情報処理装置100は、非光線追跡方式により、光源成分表現等が不可能であるが高画質な映像(以下、付加映像122と称する)を、高速に作成する。情報処理装置100は、低画質であるが光源成分表現等が可能な光線追跡映像121と、光源成分表現等が不可能であるが高画質な付加映像122とを映像合成部130で合成(Fusion)する。これにより、情報処理装置100は、光線追跡映像121及び付加映像122のそれぞれの利点を活かしそれぞれの欠点を補い合う合成映像141を高速に作成する。これが本実施形態のコンセプトであり、その概要は以下の通りである。
【0044】
情報処理装置100は、モデルデータを光線追跡方式(レイトレーシング又はパストレーシング)によりレンダリングして光線追跡映像121を作成する。このとき、情報処理装置100は、画質を落として高速にレンダリングする。具体的には、情報処理装置100は、低解像度でレンダリングすることで低解像度の光線追跡映像121を高速に作成するか、低SPP(例えば、1SPP)でレンダリングすることで高ノイズの光線追跡映像121を高速に作成する。本実施形態で「映像」は、静止画像又は動画を問わず両方を意味する。
【0045】
同時に、情報処理装置100は、同じモデルデータを光線追跡方式と異なる方法でレンダリングして付加映像122を作成する。光線追跡方式と異なる方法は、典型的には、非光線追跡方式(ラスタライズ方式、Zソート法、Zバッファ法又はスキャンライン方式等)である。以下、光線追跡方式と異なる方法として、非光線追跡方式(特に、ラスタライズ方式)を例に説明する。例えば、情報処理装置100は、ラスタライズ方式で通常の設定値を用いてレンダリングすれば、光源成分表現、散乱表現、ヘアレンダリング表現等は出来ないものの、高解像度且つ低ノイズの映像を高速にレンダリング出来る。あるいは、情報処理装置100は、光線追跡方式と異なる方法として、上記光線追跡方式よりさらに低SPP及び/又はさらに低解像度の光線追跡方式でレンダリングして付加映像122を作成してもよい。情報処理装置100は、付加映像122として、さらに、付加映像122のAlbedo成分、法線成分、Depth成分、粗さ成分、UVマップ成分、AOVs(Arbitrary Output Variables)成分及び/又はShadowマップ成分を含む内部成分を作成してもよい。
【0046】
そして、情報処理装置100は、付加映像122及び光線追跡映像121をDNNやガイデッドフィルタにより合成(Fusion)処理して合成映像141を作成する。これにより、情報処理装置100は、光源成分表現、散乱表現、ヘアレンダリング表現等を実現した高解像度及び低ノイズの合成映像141を、光線追跡方式により高速に作成することができる。
【0047】
2.情報処理装置の構成
【0048】
図2は、情報処理装置の構成を示す。
【0049】
CPUやGPU等のプロセッサが、ROMに記録された情報処理プログラムをRAMにロードして実行することにより、情報処理装置100は、レンダラ110、プレ信号処理部120、映像合成部130及ポスト信号処理部140として動作する。
【0050】
レンダラ110は、光線追跡方式のレンダリングエンジン(レイトレーサ又はパストレーサ)と、非光線追跡方式のレンダリングエンジン(例えば、ラスタライザ)とを含む。
【0051】
映像合成部130は、DNN131(Deep Neural Network)と、学習済みDNN係数132とを含む。DNN131は、光線追跡映像と、非光線追跡方式でレンダリングした付加映像と、を合成(Fusion)処理して合成映像を作成する。DNN131は、内部成分等の付加映像がさらにある場合にはその付加映像も合成する。学習済みDNN係数132は、例えば、低SPP光線追跡映像及び非光線追跡方式でレンダリングした映像の2個の映像を生徒とし、高SPP光線追跡映像を教師として学習して作成される。学習済みDNN係数132は、生徒及び教師の入力映像を元に、低ノイズかつ高解像度の光線追跡方式相当の映像を出力するように学習される。なお、映像合成部130は、DNNに限定されず、ガイデッドフィルタ等のモデルベース処理により合成映像を作成してもよい。
【0052】
情報処理装置100は、表示装置150及びストレージ160を含む。表示装置150は、3Dディスプレイ等のディスプレイである。ストレージ160は、HDDやSSD等の大容量の不揮発性の記録媒体である。
【0053】
3.情報処理装置の動作フロー
【0054】
図3は、情報処理装置の動作フローを示す。
【0055】
情報処理装置100は、1フレーム毎に動作フローをループする。
【0056】
レンダラ110にモデルデータ111及びレンダリングパラメータ112が入力される(ステップS101)。モデルデータ111は、Mesh、点群、ボクセル等、一般的な3Dモデルである。レンダリングパラメータ112は、光線追跡方式のレンダリングの設定値(SPP、解像度等)と、非光線追跡方式のレンダリングの設定値とを含む。
【0057】
レンダラ110は、レンダリングパラメータ112に基づきモデルデータ111を光線追跡方式によりレンダリングして光線追跡映像121を作成する(ステップS102)。ここで、レンダラ110は、ゴールとする画質より、低SPP及び/又は低解像度で高速に、モデルデータ111を光線追跡方式によりレンダリングする。低SPPとは、例えば、1SPP以上16SPP未満である。
【0058】
レンダラ110は、レンダリングパラメータ112に基づきモデルデータ111を非光線追跡方式(例えば、ラスタライズ方式)によりレンダリングして付加映像122を作成する(ステップS103)。
【0059】
プレ信号処理部120は、光線追跡映像121及び付加映像122をプレ信号処理する(ステップS104)。プレ信号処理は、DNN131に入力する際の一般的なプレ信号処理である。プレ信号処理は、例えば、アップコンバート、NR(Noise Reduction)、正規化、色処理、アンチエイリアス等を含む。
【0060】
映像合成部130は、DNN131に、プレ信号処理後の光線追跡映像121及び付加映像122を入力する(ステップS105)。映像合成部130は、DNN131に、学習済みDNN係数132を入力する(ステップS106)。なお、学習済みDNN係数132を入力するステップは、1フレーム目のみに実行すればよく、あるいは、1フレーム目の動作開始前に実行してもよい。DNN131は、プレ信号処理後の光線追跡映像121及び付加映像122を合成して合成映像141を作成する(ステップS107)。
【0061】
ポスト信号処理部140は、合成映像141をポスト信号処理する(ステップS108)。ポスト信号処理は、出力形式(即ち、表示形式及び保存形式)に応じた変換処理と、一般的な信号処理とを含む。ポスト信号処理は、アップコンバート、NR、色処理、トーンマッピング、アンチエイリアス、圧縮等を含む。
【0062】
ポスト信号処理部140は、ポスト信号処理後の合成映像141を表示装置150及びストレージ160に出力する(ステップS109)。表示装置150は、ポスト信号処理後の合成映像141を表示する。ストレージ160は、ポスト信号処理後の合成映像141を保存する。
【0063】
II.第2の実施形態
【0064】
以下、既に説明した構成及び動作と同様の構成及び動作は説明及び図示を省略し、異なる構成及び動作を主に説明する。
【0065】
1.第2の実施形態の概要
【0066】
図4は、本開示の第2の実施形態のコンセプトを示す。
【0067】
第2の実施形態の情報処理装置200は、モデルデータ111の全フレームを光線追跡方式でレンダリングせずに、モデルデータ111をNフレーム毎に光線追跡方式でレンダリングすることで、時間的に間引いて光線追跡映像を作成する。一方、情報処理装置200は、モデルデータ111の全フレームを非光線追跡方式でレンダリングし、全フレームの付加映像を作成する。
【0068】
例えば、情報処理装置200は、フレームt1のモデルデータ111を、光線追跡方式でレンダリングして光線追跡映像Lt1を作成し、非光線追跡方式でレンダリングして付加映像Rt1を作成する。情報処理装置200は、フレームt1の付加映像Rt1と、フレームt1の光線追跡映像Lt1とを合成することにより、フレームt1の合成映像Ft1を作成する。一方、情報処理装置200は、フレームt2のモデルデータ111を、光線追跡方式でレンダリングせず光線追跡映像を作成せず、非光線追跡方式でレンダリングして付加映像Rt2を作成する。情報処理装置200は、フレームt2の付加映像Rt2と、フレームt1の光線追跡映像Lt1をフレームt2向けに補正した光線追跡映像Lt1'とを合成することにより、フレームt2の合成映像Ft2を作成する。
【0069】
第1の実施形態の情報処理装置100は、モデルデータ111の全フレームを光線追跡方式でレンダリングして光線追跡映像を作成する。第1の実施形態において、短時間処理を追及して1SPP等の低SPP又は低解像度で、光線追跡方式でレンダリングすると、光線追跡映像のノイズが非常に強くなり、合成結果にノイズが残るおそれがある。
【0070】
以上のような事情に鑑み、第2の実施形態の情報処理装置200は、モデルデータ111を時間的に間引いて光線追跡映像を作成する。光線追跡方式のレンダリング回数が減るので、その分だけ毎回のレンダリングに時間を掛けることができ、比較的高SPP(例えば、8SPP等)で光線追跡映像を作成することができる。これにより、第2の実施形態では、高速化及びさらなる高画質化の両立を図る。
【0071】
2.情報処理装置の構成
【0072】
図5は、情報処理装置の構成を示す。
【0073】
第2の実施形態の情報処理装置200の、第1の実施形態の情報処理装置100(図2参照)から異なる構成のみ図示する。
【0074】
CPUやGPU等のプロセッサが、ROMに記録された情報処理プログラムをRAMにロードして実行することにより、情報処理装置200は、レンダラ210、プレ信号処理部220、映像合成部230及ポスト信号処理部140(図2参照)に加えて、動きベクトル算出部250としてさらに動作する。
【0075】
3.情報処理装置の動作フロー
【0076】
図6は、情報処理装置の動作フローを示す。
【0077】
情報処理装置200は、1フレーム毎に動作フローをループする。
【0078】
レンダラ210にモデルデータ111及びレンダリングパラメータ112が入力される(ステップS201)。
【0079】
レンダラ210は、レンダリングパラメータ112に基づきモデルデータ111をNフレーム毎に光線追跡方式によりレンダリングすることで、時間的に間引いて光線追跡映像221を作成する(ステップS202)。ここで、レンダラ210は、ゴールとする画質より、低SPP(例えば、8SPP)及び/又は低解像度で高速に、モデルデータ111を光線追跡方式によりレンダリングする。
【0080】
レンダラ210は、レンダリングパラメータ112に基づきモデルデータ111の全フレームを非光線追跡方式(例えば、ラスタライズ方式)によりレンダリングして付加映像222を作成する(ステップS203)。
【0081】
動きベクトル算出部250は、Nフレームの付加映像と、光線追跡映像が作成されなかったフレームN+1(間引きフレームと称する)の付加映像とに基づき、Nフレームから間引きフレームN+1への動きベクトルを算出する(ステップS210)。図4の例では、動きベクトル算出部250は、フレームt1の付加映像Rt1と、間引きフレームt2の付加映像Rt2とに基づき、フレームt1から間引きフレームt2への動きベクトルを算出する。例えば、動きベクトル算出部250は、フレームt1の付加映像Rt1及び間引きフレームt2の付加映像Rt2から、例えばオプティカルフローを算出することで、動きベクトルを算出すればよい。あるいは、動きベクトル算出部250は、フレームt1の付加映像Rt1及び間引きフレームt2の付加映像Rt2から、動きベクトル算出用DNNを用いて動きベクトルを算出すればよい。
【0082】
プレ信号処理部220は、Nフレームの光線追跡映像を動きベクトルに基づき補正することにより、補正後の光線追跡映像を作成する。具体的には、プレ信号処理部220は、Nフレームの光線追跡映像を動きベクトルに基づきWarping処理して形状補正することにより、補正後の光線追跡映像を作成する。図4の例では、プレ信号処理部220は、フレームt1の光線追跡映像Lt1を動きベクトルに基づき補正することにより、補正後の光線追跡映像Lt1'を作成する(ステップS211)。
【0083】
その後のステップS204は第1の実施形態のステップS104以下と同様である。図4の例では、間引きフレームt2について、プレ信号処理部220は、補正後の光線追跡映像Lt1'及び付加映像Rt2をプレ信号処理する(ステップS204)。プレ信号処理は、DNN131に入力する際の一般的なプレ信号処理である。プレ信号処理は、例えば、アップコンバート、NR(Noise Reduction)、正規化、色処理、アンチエイリアス等を含む。映像合成部230は、DNN131に、プレ信号処理後の補正後の光線追跡映像Lt1'及び付加映像Rt2を入力する(ステップS205)。映像合成部230は、DNN131に、学習済みDNN係数132を入力する(ステップS206)。DNN131は、プレ信号処理後の補正後の光線追跡映像Lt1'及び付加映像Rt2を合成して合成映像Ft2を作成する(ステップS207)。ポスト信号処理部140は、合成映像Ft2をポスト信号処理し(ステップS208)、出力する(ステップS209)。
【0084】
以上の様に、第2の実施形態の情報処理装置200は、モデルデータ111を時間的に間引いて光線追跡映像を作成する。非光線追跡方式のレンダリング回数が減るので、その分だけ毎回のレンダリングに時間を掛けることができ、比較的高SPP(例えば、8SPP等)で光線追跡映像を作成することができる。また、間引きフレームに用いられる光線追跡映像として、レンダリング済みの複数の付加映像から算出した動きベクトルに基づき補正された光線追跡映像を使用する。これにより、全フレームの光線追跡映像を作成しなくても、時間的に滑らかな合成映像を作成することが可能となる。これにより、第2の実施形態では、高速化及びさらなる高画質化を両立できる。
【0085】
III.第3の実施形態
【0086】
1.第3の実施形態の概要
【0087】
第3の実施形態の実施形態のコンセプトは第2の実施形態のコンセプトと同様である。ただし、補正後の光線追跡映像を作成する処理が異なる。第2の実施形態では、プレ信号処理部120が、Nフレームの光線追跡映像を動きベクトルに基づき補正することにより、補正後の光線追跡映像を作成する。これに対して、第3の実施形態では、映像合成部130が、DNN131を用いて合成映像を作成する際に、DNN131を用いてNフレームの光線追跡映像を動きベクトルに基づき補正することにより、補正後の光線追跡映像を作成する。
【0088】
2.情報処理装置の構成
【0089】
図7は、本開示の第3の実施形態の情報処理装置の構成を示す。
【0090】
第3の実施形態の情報処理装置300の各ブロックは、第2の実施形態の情報処理装置200の各ブロックと同様であるが、動きベクトル算出部350の出力先が異なる。
【0091】
3.情報処理装置の動作フロー
【0092】
図8は、情報処理装置の動作フローを示す。
【0093】
情報処理装置300は、1フレーム毎に動作フローをループする。
【0094】
レンダラ310にモデルデータ111及びレンダリングパラメータ112が入力される(ステップS301)。
【0095】
レンダラ310は、レンダリングパラメータ112に基づきモデルデータ111をNフレーム毎に光線追跡方式によりレンダリングすることで、時間的に間引いて光線追跡映像321を作成する(ステップS302)。ここで、レンダラ310は、ゴールとする画質より、低SPP(例えば、8SPP)及び/又は低解像度で高速に、モデルデータ111を光線追跡方式によりレンダリングする。
【0096】
レンダラ310は、レンダリングパラメータ112に基づきモデルデータ111の全フレームを非光線追跡方式(例えば、ラスタライズ方式)によりレンダリングして付加映像322を作成する(ステップS303)。
【0097】
動きベクトル算出部350は、Nフレームの付加映像と、光線追跡映像が作成されなかったフレームN+1(間引きフレームと称する)の付加映像とに基づき、Nフレームから間引きフレームN+1への動きベクトルを算出する(ステップS310)。図4の例では、動きベクトル算出部350は、フレームt1の付加映像Rt1と、間引きフレームt2の付加映像Rt2とに基づき、フレームt1から間引きフレームt2への動きベクトルを算出する。ここまで第2の実施形態の処理と同様である。
【0098】
プレ信号処理部320は、光線追跡映像321及び付加映像322をプレ信号処理する(ステップS304)。図4の例では、プレ信号処理部320は、フレームt1について、光線追跡映像Lt1及び付加映像Rt1をプレ信号処理し、間引きフレームt2について、付加映像Rt2をプレ信号処理する。プレ信号処理は、DNN131に入力する際の一般的なプレ信号処理である。プレ信号処理は、例えば、アップコンバート、NR(Noise Reduction)、正規化、色処理、アンチエイリアス等を含む。
【0099】
間引きフレームt2について、映像合成部330は、DNN131に、プレ信号処理後の光線追跡映像Lt1及び付加映像Rt2と、動きベクトルとを入力する(ステップS305)。
【0100】
映像合成部330は、DNN131に、学習済みDNN係数132を入力する(ステップS306)。学習済みDNN係数132は、動きベクトルに基づくWarping処理も学習済みである。
【0101】
DNN131は、プレ信号処理後の光線追跡映像Lt1及び付加映像Rt2と、動きベクトルとを合成して合成映像Ft2を作成する(ステップS307)。具体的には、DNN131は、光線追跡映像Lt1を動きベクトルに基づきWarping処理して形状補正して補正後の光線追跡映像Lt1'を作成すると同時に、補正後の光線追跡映像Lt1'及び付加映像Rt2を合成してFt2を作成する。
【0102】
ポスト信号処理部140は、合成映像Ft2をポスト信号処理し(ステップS308)、出力する(ステップS309)。
【0103】
第3の実施形態も、第2の実施形態と同様の効果が得られる。
【0104】
第3の実施形態の変形例として、情報処理装置300は動きベクトル算出部350を有さず、代わりに、映像合成部330のDNN131が動きベクトルを算出してもよい。この場合、学習済みDNN係数132は、動きベクトルの算出処理も学習済みである。間引きフレームt2について、DNN131に、フレームt1の光線追跡映像Lt1及び付加映像Rt1と、間引きフレームt2の付加映像Rt2とを入力する。DNN131は、フレームt1の付加映像Rt1と、間引きフレームt2の付加映像Rt2とに基づき動きベクトルを算出し、動きベクトルに基づきフレームt1の光線追跡映像Lt1を補正して光線追跡映像Lt1'を作成し、補正後の光線追跡映像Lt1'及び付加映像Rt2を合成してFt2を作成する。
【0105】
IV.第4の実施形態
【0106】
1.第4の実施形態の概要
【0107】
図9は、本開示の第4の実施形態のコンセプトを示す。
【0108】
第4の実施形態の情報処理装置400は、モデルデータ411の全体領域を光線追跡方式でレンダリングせずに、モデルデータ411の一部の領域を光線追跡方式でレンダリングすることで、モデルデータの光線追跡方式の固有の表現領域にレンダリング対象を限定して(言い換えれば、レンダリング対象領域を空間的に間引いて)光線追跡映像を作成する。一方、情報処理装置400は、モデルデータ411の全体領域を非光線追跡方式でレンダリングし、全体領域の付加映像を作成する。
【0109】
上述の様に、光線追跡方式は、直接反射光表現、間接反射光表現、透過光表現、内部拡散光表現及び自発光表現等の光源成分表現、雲や霧等の散乱表現、髪や毛皮等のヘアレンダリング表現が可能である。一方、非光線追跡方式は、光源成分表現、散乱表現、ヘアレンダリング表現等が出来ない。
【0110】
そこで、第4の実施形態では、写実的な表現を得る必要のある領域、即ち、光源成分表現等の光線追跡方式の固有の表現領域(以下、表現領域と称する)のみを、光線追跡方式でレンダリングする。言い換えれば、第4の実施形態では、非光線追跡方式では表現できない領域のみを、光線追跡方式でレンダリングする。一方、表現領域以外の領域(即ち、光源成分、ヘア等が存在しない背景等の領域)は、非光線追跡方式で十分高画質にレンダリング可能である。このため、表現領域以外の領域は、非光線追跡方式でレンダリングするのみである。第4の実施形態では、全体領域の付加映像に対して、表現領域のみの光線追跡映像を合成することで、合成映像を作成する。
【0111】
第4の実施形態の情報処理装置400は、モデルデータ411の光線追跡方式の固有の表現領域にレンダリング対象を限定して(言い換えれば、レンダリング対象領域を空間的に間引いて)、光線追跡方式の固有の表現領域のみの光線追跡映像を作成する。光線追跡方式でレンダリングする領域が減るので、その分だけ表現領域のレンダリングに時間を掛けることができ、高SPP(例えば、128SPP等)で表現領域の光線追跡映像を作成することができる。これにより、第4の実施形態では、高速化及びさらなる高画質化の両立を図る。なお、時間的な間引き手法(第2及び第3の実施形態)と、空間的な間引き手法(第4及び第5の実施形態)は両立可能である。
【0112】
2.情報処理装置の構成
【0113】
図10は、情報処理装置の構成を示す。
【0114】
第4の実施形態の情報処理装置400の、第1の実施形態の情報処理装置100(図2参照)から異なる構成のみ図示する。
【0115】
CPUやGPU等のプロセッサが、ROMに記録された情報処理プログラムをRAMにロードして実行することにより、情報処理装置400は、レンダラ410、プレ信号処理部420、映像合成部430及ポスト信号処理部140(図2参照)に加えて、表現領域設定部460としてさらに動作する。
【0116】
3.情報処理装置の動作フロー
【0117】
図11は、情報処理装置の動作フローを示す。
【0118】
情報処理装置400は、1フレーム毎に動作フローをループする。
【0119】
レンダラ410にモデルデータ411及びレンダリングパラメータ412が入力される(ステップS401)。
【0120】
レンダラ410は、モデルデータ411からマスク映像を作成する(ステップS410)。マスク映像は、1フレームの全体領域のうち光線追跡方式の固有の表現領域をマスクした映像である。
【0121】
一例として、レンダラ410は、モデルデータ411のマテリアル設定に基づき、表現領域をマスクするマスク映像を作成する。例えば、レンダラ410は、光成分のマテリアル設定(反射率、表面の双方向反射率分布関数設定(BRDF:Bidirectional Reflectance Distribution Function)等)に基づき、鏡面反射領域、屈折領域及び透過領域をマスクし、素材のマテリアル設定に基づき、ヘア領域、ボリューム領域(煙や水等)をマスクするマスク映像を作成する。
【0122】
別の例として、レンダラ410は、非光線追跡方式(ラスタライズ等)、又は、低SPP及び/若しくは低解像度の光線追跡方式で、モデルデータ411を高速にプリレンダリングしてプリレンダリング映像を作成し、プリレンダリング映像の内部成分に基づき表現領域をマスクするマスク映像を作成する。例えば、レンダラ410は、1SPPでモデルデータ411を高速にプリレンダリングしてプリレンダリング映像を作成する。レンダラ410は、プリレンダリング映像のAOVs成分に基づき、特定のAOVs成分を有する表現領域(鏡面反射、ヘア領域、ボリューム領域等)をマスクするマスク映像を作成する。AOVs成分は、光線追跡方式の映像を構成する内部成分であり、拡散、直接、ボリューム等の被写体成分と、さらにそれぞれについて直接、間接、物体色の受光成分に分けられる。なお、1SPPのAOVs成分はノイズを含むので、デノイズ後、膨張処理や2値化処理を適用してもよい。
【0123】
表現領域設定部460は、レンダラ410が作成したマスク映像に特定される表現領域を設定する。具体的には、表現領域設定部460は、レンダラ410が作成したマスク映像に特定される表現領域を、レンダリング座標パラメータに変換する。さらに、表現領域設定部460は、表現領域を光線追跡方式によりレンダリングするときのレンダリングパラメータ(即ち、表現領域のSPPや解像度)を設定する(ステップS411)。
【0124】
例えば、表現領域設定部460は、光線追跡映像の全体領域に対する表現領域の割合に基づき、レンダリングパラメータを設定する。即ち、表現領域設定部460は、表現領域の大きさに基づき、レンダリングパラメータを設定する。具体的には、表現領域設定部460は、「表現領域のSPP=ゴールとする合成画像のSPP×(全体領域の画素数÷表現領域の画素数)」で、表現領域の割合に基づき、レンダリングパラメータ(即ち、表現領域のSPP)を設定すればよい。これにより、表現領域の割合に基づき、適切な速度の範囲で最も高画質に、光線追跡映像をレンダリングすることができる。なお、動画の場合、全フレームの表現領域を事前に算出してから、レンダリング処理を実行してもよい。
【0125】
表現領域設定部460は、設定したレンダリング座標パラメータ及びレンダリングパラメータ(SPP、解像度)により、レンダリングパラメータ412を更新する(ステップS412)。
【0126】
レンダラ410は、更新後のレンダリングパラメータ412に基づきモデルデータ411の表現領域のみを光線追跡方式によりレンダリングして光線追跡映像421を作成する(ステップS402)。
【0127】
レンダラ410は、レンダリングパラメータ412に基づきモデルデータ411の全体領域を非光線追跡方式(例えば、ラスタライズ方式)によりレンダリングして付加映像422を作成する(ステップS403)。
【0128】
プレ信号処理部420は、表現領域の光線追跡映像421及び全体領域の付加映像422をプレ信号処理する(ステップS404)。
【0129】
映像合成部430は、DNN131に、プレ信号処理後の表現領域の光線追跡映像421及び全体領域の付加映像422を入力する(ステップS405)。映像合成部430は、DNN131に、学習済みDNN係数132を入力する(ステップS406)。DNN131は、プレ信号処理後の表現領域の光線追跡映像421及び全体領域の付加映像422を合成して合成映像441を作成する(ステップS407)。
【0130】
ポスト信号処理部140は、合成映像441をポスト信号処理し(ステップS408)、出力する(ステップS409)。
【0131】
以上の様に、第4の実施形態の情報処理装置400は、モデルデータ111の光線追跡方式の固有の表現領域にレンダリング対象を限定して(言い換えれば、レンダリング対象領域を空間的に間引いて)光線追跡方式の固有の表現領域のみの光線追跡映像を作成する。光線追跡方式でレンダリングする領域が減るので、その分だけ表現領域のレンダリングに時間を掛けることができ、高SPP(例えば、128SPP等)で表現領域の光線追跡映像を作成することができる。これにより、第4の実施形態では、高速化及びさらなる高画質化を両立できる。
【0132】
V.第5の実施形態
【0133】
1.第5の実施形態の概要
【0134】
第5の実施形態の実施形態のコンセプトは第4の実施形態のコンセプトと同様である。ただし、以下の点が異なる。第4の実施形態では、レンダラ410が、表現領域をマスクするマスク映像を作成する。この方法では、レンダラ410のシステムの規定によりレンダラ410が表現領域をマスクするマスク映像を作成することになる。一方、外部APIとして処理を行う場合、レンダラ410の内部を操作できない場合がある。そこで、第5の実施形態では、レンダラの外部で表現領域を特定する。
【0135】
2.情報処理装置の構成
【0136】
図12は、本開示の第5の実施形態の情報処理装置の構成を示す。
【0137】
第5の実施形態の情報処理装置500の、第1の実施形態の情報処理装置100(図2参照)から異なる構成のみ図示する。
【0138】
CPUやGPU等のプロセッサが、ROMに記録された情報処理プログラムをRAMにロードして実行することにより、情報処理装置500は、レンダラ510、プレ信号処理部520、映像合成部530及ポスト信号処理部140(図2参照)に加えて、識別器570及び表現領域設定部560としてさらに動作する。
【0139】
3.情報処理装置の動作フロー
【0140】
図13は、情報処理装置の動作フローを示す。
【0141】
情報処理装置400は、1フレーム毎に動作フローをループする。
【0142】
レンダラ510にモデルデータ511及びレンダリングパラメータ512が入力される(ステップS501)。
【0143】
レンダラ510は、モデルデータ511をプリレンダリングしてプリレンダリング映像を作成する(ステップS510)。具体的には、レンダラ510は、非光線追跡方式(ラスタライズ等)、又は、低SPP及び/若しくは低解像度の光線追跡方式で、モデルデータ511を高速にプリレンダリングしてプリレンダリング映像を作成する。
【0144】
識別器570は、レンダラ510が作成したプリレンダリング映像から、表現領域を識別する(ステップS513)。例えば、識別器570は、セマンティックセグメンテーションを用いて、プリレンダリング映像(例えば、ラスタライズ映像)からマテリアルラベル(鏡面反射、透過、ヘア、ボリューム)の表現領域を予測する。
【0145】
表現領域設定部560は、識別器570が識別した表現領域を設定する。具体的には、表現領域設定部560は、識別器570が識別した表現領域を、レンダリング座標パラメータに変換する。さらに、表現領域設定部560は、表現領域を光線追跡方式によりレンダリングするときのレンダリングパラメータ(即ち、表現領域のSPPや解像度)を設定する(ステップS511)。
【0146】
表現領域設定部560は、設定したレンダリング座標パラメータ及びレンダリングパラメータ(SPP、解像度)により、レンダリングパラメータ512を更新する(ステップS512)。
【0147】
ステップS502以下の処理は第4の実施形態と同様である。
【0148】
第5の実施形態も、第4の実施形態と同様の効果が得られる。
【0149】
VI.結語
【0150】
非特許文献1は、低SPP(例えば、16SPP)設定のレイトレーシング方式で高速にレンダリングした光線追跡映像、Albedo成分及び法線マップを、DNNを用いて合成する。要するに、非特許文献1は、鑑賞向けの映像としては光線追跡映像を作成するのみであり、この光線追跡映像をAlbedo成分及び法線マップに基づき補正する。このため、非特許文献1は、極端に低SPP(例えば、1SPP)の光線追跡映像を作成すると、ゴールとなる光線追跡映像も十分な高画質とはならない可能性がある。このため、非特許文献1は、低SPPとはいえ16SPPが想定されている。また、非特許文献1は、鑑賞向けの映像としては光線追跡映像を作成するのみであるから、光線追跡映像を時間的に及び空間的に間引いてレンダリングすることは出来ない。
【0151】
これに対して、本開示の各実施形態によれば、情報処理装置は、鑑賞向けの映像としては、光源成分表現等が可能な光線追跡映像と、光源成分表現等が不可能であるが高画質な映像(付加映像)を作成する。光線追跡映像と付加映像とを合成するため、光線追跡映像のSPPを1SPP程度に大幅に抑えても、画質を付加映像で担保できるため問題無い。このため、光線追跡映像のSPPを1SPP程度に大幅に抑えて処理を高速化することができる。また、情報処理装置は、光線追跡映像及び付加映像のそれぞれの利点を活かしそれぞれの欠点を補い合う合成映像を高速に作成することができる。また、全フレーム及び全体領域の光線追跡映像を作成するので、光線追跡映像を時間的及び空間的に間引いてレンダリングすることが可能である。光線追跡方式のレンダリング回数又は領域が減るので、その分だけレンダリングに時間を掛けることができ、比較的高SPPで、時間的及び空間的に必要な部分の光線追跡映像を作成することができる。これにより、各実施形態では、高速化及びさらなる高画質化の両立を図ることができる。
【0152】
本開示は、以下の各構成を有してもよい。
【0153】
(1)
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成する
レンダラと、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する映像合成部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
前記レンダラは、前記モデルデータをNフレーム毎に前記光線追跡方式によりレンダリングすることで、時間的に間引いて前記光線追跡映像を作成し、
前記情報処理装置は、前記Nフレームの付加映像と、光線追跡映像が作成されなかったフレームである間引きフレームの付加映像とに基づき、前記Nフレームから前記間引きフレームへの動きベクトルを算出する動きベクトル算出部をさらに具備し、
前記映像合成部は、前記間引きフレームの前記付加映像と、前記Nフレームの前記光線追跡映像を前記動きベクトルに基づき補正することにより作成された補正後の光線追跡映像とを合成して、前記間引きフレームの合成映像を作成する
情報処理装置。
(3)
上記(2)に記載の情報処理装置であって、
前記補正後の光線追跡映像を作成するプレ信号処理部
をさらに具備する情報処理装置。
(4)
上記(2)に記載の情報処理装置であって、
前記映像合成部は、前記補正後の光線追跡映像を作成する
情報処理装置。
(5)
上記(1)乃至(4)の何れかに記載の情報処理装置であって、
前記モデルデータの前記光線追跡方式の固有の表現領域を設定する表現領域設定部をさらに具備し、
前記レンダラは、前記モデルデータの前記表現領域を前記光線追跡方式によりレンダリングして、前記光線追跡映像を作成し、
前記映像合成部は、前記付加映像と、前記表現領域の前記光線追跡映像とを合成して合成映像を作成する
情報処理装置。
(6)
上記(5)に記載の情報処理装置であって、
前記レンダラは、前記モデルデータのマテリアル設定に基づき、前記表現領域をマスクするマスク映像を作成し、
前記表現領域設定部は、前記マスク映像に特定される前記表現領域を設定する
情報処理装置。
(7)
上記(5)に記載の情報処理装置であって、
前記レンダラは、
前記光線追跡方式より低SPP(Samples Per Pixel)及び/若しくは低解像度の光線追跡方式で、前記モデルデータをプリレンダリングしてプリレンダリング映像を作成し、
前記プリレンダリング映像の内部成分に基づき前記表現領域をマスクするマスク映像を作成し、
前記表現領域設定部は、前記マスク映像に特定される前記表現領域を設定する
情報処理装置。
(8)
上記(5)に記載の情報処理装置であって、
前記レンダラは、前記光線追跡方式より低SPP(Samples Per Pixel)及び/若しくは低解像度の光線追跡方式で、前記モデルデータをプリレンダリングしてプリレンダリング映像を作成し、
前記情報処理装置は、前記レンダラが作成した前記プリレンダリング映像から、前記表現領域を識別する識別器をさらに具備し、
前記表現領域設定部は、前記プリレンダリング映像から予測された前記表現領域を設定する
情報処理装置。
(9)
上記(5)乃至(8)の何れかに記載の情報処理装置であって、
前記表現領域設定部は、前記表現領域を前記光線追跡方式によりレンダリングするときのレンダリングパラメータを設定し、
前記レンダラは、前記レンダリングパラメータに基づき、前記モデルデータの前記表現領域を前記光線追跡方式によりレンダリングして、前記光線追跡映像を作成する
情報処理装置。
(10)
上記(9)に記載の情報処理装置であって、
前記表現領域設定部は、前記光線追跡映像の全体領域に対する前記表現領域の割合に基づき、前記レンダリングパラメータを設定する
情報処理装置。
(11)
上記(1)乃至(10)の何れかに記載の情報処理装置であって、
前記レンダラは、前記光線追跡方式と異なる方法として、前記モデルデータを非光線追跡方式又は記光線追跡方式より低SPP及び/若しくは低解像度の光線追跡方式で、前記モデルデータをレンダリングして前記付加映像を作成する
情報処理装置。
(12)
上記(11)に記載の情報処理装置であって、
前記非光線追跡方式は、ラスタライズ方式、Zソート法、Zバッファ法又はスキャンライン方式である
情報処理装置。
(13)
上記(1)乃至(12)の何れかに記載の情報処理装置であって、
前記レンダラは、前記付加映像として、さらに、前記付加映像のAlbedo成分、法線成分、Depth成分、粗さ成分、UVマップ成分、AOVs(Arbitrary Output Variable)成分及び/又はShadowマップ成分を含む内部成分を作成する
情報処理装置。
(14)
上記(1)乃至(13)の何れかに記載の情報処理装置であって、
前記光線追跡方式は、レイトレーシング又はパストレーシングである
情報処理装置。
(15)
上記(1)乃至(14)の何れかに記載の情報処理装置であって、
前記レンダラは、前記モデルデータを16SPP未満で光線追跡方式によりレンダリングして前記光線追跡映像を作成する
情報処理装置。
(16)
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成し、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する
情報処理方法。
(17)
情報処理装置のプロセッサを、
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成し、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する
よう動作させる情報処理プログラム。
(18)
情報処理装置のプロセッサを、
モデルデータを光線追跡方式によりレンダリングして光線追跡映像を作成し、
前記モデルデータを前記光線追跡方式と異なる方法でレンダリングして付加映像を作成し、
前記付加映像と、前記光線追跡映像とを合成して合成映像を作成する
よう動作させる情報処理プログラム
を記録する非一過性のコンピュータ読み取り可能な記録媒体。
【0154】
本技術の各実施形態及び各変形例について上に説明したが、本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【符号の説明】
【0155】
100、200、300、400、500 情報処理装置
110、210、310、410、510 レンダラ
111、411、511 モデルデータ
112、412、512 レンダリングパラメータ
120、220、320、420、520 プレ信号処理部
121、221、321、421 光線追跡映像
122、222、322、422 付加映像
130、230、330、430、530 映像合成部
131 DNN
132 学習済みDNN係数
140 ポスト信号処理部
141、441 合成映像
150 表示装置
160 ストレージ
250、350 動きベクトル算出部
460、560 表現領域設定部
570 識別器
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13