(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2022-09-26
(54)【発明の名称】2-D画像のリアルタイム体積視覚化
(51)【国際特許分類】
G06T 19/00 20110101AFI20220915BHJP
G06T 15/20 20110101ALI20220915BHJP
H04N 7/18 20060101ALN20220915BHJP
【FI】
G06T19/00 A
G06T15/20 500
H04N7/18 U
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2022505465
(86)(22)【出願日】2020-12-10
(85)【翻訳文提出日】2022-01-26
(86)【国際出願番号】 US2020064272
(87)【国際公開番号】W WO2021119285
(87)【国際公開日】2021-06-17
(32)【優先日】2019-12-13
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2020-05-26
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(71)【出願人】
【識別番号】596102126
【氏名又は名称】ソニー ピクチャーズ エンターテインメント インコーポレイテッド
(74)【代理人】
【識別番号】100092093
【氏名又は名称】辻居 幸一
(74)【代理人】
【識別番号】100109070
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100067013
【氏名又は名称】大塚 文昭
(74)【代理人】
【識別番号】100109335
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100120525
【氏名又は名称】近藤 直樹
(72)【発明者】
【氏名】アンダーバーグ トビアス
【テーマコード(参考)】
5B050
5B080
5C054
【Fターム(参考)】
5B050BA09
5B050DA07
5B050EA07
5B050EA27
5B080BA04
5B080GA22
5C054CA04
5C054CA05
5C054CC02
5C054FC15
5C054FD02
5C054HA05
(57)【要約】
複数のカメラを使用してビデオデータを取り込むステップと、取り込まれたビデオデータを第1のシェーダに送信するステップと、第1のシェーダにおいて、取り込まれたビデオデータを使用して深度情報を計算するステップと、深度情報を使用して3次元(3-D)点群を生成するステップと、3-D点群を使用して視覚化画像をレンダリングするステップとを含む、ビデオを取り込んで視覚化する方法。
【選択図】
図1A
【特許請求の範囲】
【請求項1】
ビデオを取り込んで視覚化する方法であって、
複数のカメラを使用してビデオデータを取り込むステップと、
前記取り込まれたビデオデータを第1のシェーダに送信するステップと、
前記第1のシェーダにおいて、前記取り込まれたビデオデータを使用して深度情報を計算するステップと、
前記深度情報を使用して3次元(3-D)点群を生成するステップと、
前記3-D点群を使用して視覚化画像をレンダリングするステップと、
を含むことを特徴とする方法。
【請求項2】
前記視覚化画像をレンダリングするステップは、前記視覚化画像を3-D環境において提示するステップを含む、
請求項1に記載の方法。
【請求項3】
前記深度情報を計算するステップは、前記複数のカメラのうちの2つのカメラ間の距離を使用するステップを含む、
請求項1に記載の方法。
【請求項4】
レンズ歪みを考慮するようにカメラレンズを計算するステップをさらに含む、
請求項1に記載の方法。
【請求項5】
前記第1のシェーダはコンピュートシェーダである、
請求項1に記載の方法。
【請求項6】
前記3-D点群に色情報を適用するステップをさらに含む、
請求項1に記載の方法。
【請求項7】
前記複数のカメラは、少なくとも1つのIRカメラと少なくとも1つのカラーカメラとを含む、
請求項1に記載の方法。
【請求項8】
前記取り込まれたビデオデータは複数のIR画像を含む、
請求項1に記載の方法。
【請求項9】
前記深度情報及び前記少なくとも1つのカラー画像を第2のシェーダに入力するステップをさらに含む、
請求項8に記載の方法。
【請求項10】
前記第2のシェーダが、前記少なくとも1つのカラー画像からの色情報を前記3-D点群内の関連する点に非同期的に適用することをさらに含む、
請求項9に記載の方法。
【請求項11】
ビデオを取り込んで視覚化するためのシステムであって、
ビデオデータを取り込む複数の2-Dカメラと、
前記ビデオデータを受け取り、該受け取ったビデオデータを使用して深度情報を計算し、該深度情報を使用して2-D深度バッファを生成する第1のコンピュートシェーダと、
前記2-D深度バッファを使用して、3-D点群の視覚化画像をレンダリングするレンダラーと、
を備えることを特徴とするシステム。
【請求項12】
前記視覚化画像を3-D環境において提示するディスプレイをさらに備える、
請求項11に記載のシステム。
【請求項13】
前記3-D点群に色を適用するカラーシェーダをさらに備える、
請求項11に記載のシステム。
【請求項14】
前記複数の2-Dカメラは、少なくとも1つのIRカメラと少なくとも1つのカラーカメラとを含む、
請求項11に記載のシステム。
【請求項15】
前記取り込まれたビデオデータは複数のIR画像を含む、
請求項11に記載のシステム。
【請求項16】
前記生成された2-D深度バッファ及び前記少なくとも1つのカラー画像を受け取り、前記2-D深度バッファから前記3-D点群を生成し、前記少なくとも1つのカラー画像からの色を前記3-D点群内の関連する点に非同期的に適用する第2のコンピュートシェーダをさらに備える、
請求項15に記載のシステム。
【請求項17】
ビデオを取り込んで視覚化するためのコンピュータプログラムを記憶した非一時的コンピュータ可読記憶媒体であって、前記コンピュータプログラムは、
複数のカメラを使用してビデオデータを取り込み、
前記取り込まれたビデオデータを第1のシェーダに送信し、
前記第1のシェーダにおいて、前記取り込まれたビデオデータを使用して深度情報を計算し、
前記深度情報を使用して3-D点群を生成し、
前記3-D点群を使用して視覚化画像をレンダリングする、
ことをコンピュータに行わせる実行可能命令を含む、ことを特徴とする非一時的コンピュータ可読記憶媒体。
【請求項18】
前記視覚化画像をレンダリングすることを前記コンピュータに行わせる前記実行可能命令は、前記視覚化画像を3D環境において提示することを前記コンピュータに行わせる実行可能命令を含む、
請求項17に記載の非一時的コンピュータ可読記憶媒体。
【請求項19】
前記深度情報を計算することを前記コンピュータに行わせる前記実行可能命令は、前記複数のカメラのうちの2つのカメラ間の距離を使用することを前記コンピュータに行わせる実行可能命令を含む、
請求項17に記載の非一時的コンピュータ可読記憶媒体。
【請求項20】
前記3-D点群に色情報を適用することを前記コンピュータに行わせる実行可能命令をさらに含む、
請求項17に記載の非一時的コンピュータ可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
〔関連出願との相互参照〕
本出願は、2019年12月13日に出願された「2-D画像のリアルタイム体積視覚化(Real-Time Volumetric Visualization of Multispectral 2-D Images)」という名称の同時係属中である米国仮特許出願第62/947,732号の米国特許法第119条に基づく優先権の利益を主張するものであり、上記出願の開示は引用により本明細書に組み入れられる。
【0002】
本開示は、ビデオデータの処理に関し、具体的には、被写体及び環境のビデオデータを取り込み、データが取り込まれている間に取り込まれたビデオデータの視覚化を提示することに関する。
【背景技術】
【0003】
ビデオシステムは、マルチスペクトルイメージング(例えば、2-D赤外線カメラとカラーカメラとの組み合わせ)を使用して、取り込まれた2-Dデータから物体の3-D体積データセットを再構成することができる。従来、このような再構成プロセスは「オフライン」で行われ、システムは、再構成プロセスが終了するまで最終結果を見るため又は確認するために画像又は視覚化を提示せず、これは非常に時間の掛かるタスクとなり得る。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本開示は、ビデオデータを取り込み、データが取り込まれている間に取り込まれたデータの視覚化を提示することを可能にする。
【課題を解決するための手段】
【0005】
1つの実装では、ビデオを取り込んで視覚化する方法を開示する。この方法は、複数のカメラを使用してビデオデータを取り込むステップと、取り込まれたビデオデータを第1のシェーダに送信するステップと、第1のシェーダにおいて、取り込まれたビデオデータを使用して深度情報を計算するステップと、深度情報を使用して3次元(3-D)点群を生成するステップと、3-D点群を使用して視覚化画像をレンダリングするステップとを含む。
【0006】
1つの実装では、視覚化画像をレンダリングするステップが、視覚化画像を3-D環境において提示するステップを含む。1つの実装では、深度情報を計算するステップが、複数のカメラのうちの2つのカメラ間の距離を使用するステップを含む。1つの実装では、方法が、レンズ歪みを考慮するようにカメラレンズを計算するステップをさらに含む。1つの実装では、第1のシェーダがコンピュートシェーダである。1つの実装では、方法が、3-D点群に色情報を適用するステップをさらに含む。1つの実装では、複数のカメラが、少なくとも1つのIRカメラと少なくとも1つのカラーカメラとを含む。1つの実装では、取り込まれたビデオデータが複数のIR画像を含む。1つの実装では、方法が、深度情報及び少なくとも1つのカラー画像を第2のシェーダに入力するステップをさらに含む。1つの実装では、方法が、第2のシェーダが少なくとも1つのカラー画像からの色情報を3-D点群内の関連する点に非同期的に適用することをさらに含む。
【0007】
別の実装では、ビデオを取り込んで視覚化するためのシステムを開示する。システムは、ビデオデータを取り込む複数の2-Dカメラと、ビデオデータを受け取り、受け取ったビデオデータを使用して深度情報を計算し、深度情報を使用して2-D深度バッファを生成する第1のコンピュートシェーダと、2-D深度バッファを使用して、3-D点群の視覚化画像をレンダリングするレンダラーとを含む。
【0008】
1つの実装では、システムが、視覚化画像を3-D環境において提示するディスプレイをさらに含む。1つの実装では、システムが、3-D点群に色を適用するカラーシェーダをさらに含む。1つの実装では、複数の2-Dカメラが、少なくとも1つのIRカメラと少なくとも1つのカラーカメラとを含む。1つの実装では、取り込まれたビデオデータが複数のIR画像を含む。1つの実装では、システムが、生成された2-D深度バッファ及び少なくとも1つのカラー画像を受け取り、2-D深度バッファから3-D点群を生成し、少なくとも1つのカラー画像からの色を3-D点群内の関連する点に非同期的に適用する第2のコンピュートシェーダをさらに含む。
【0009】
別の実施形態では、ビデオを取り込んで視覚化するためのコンピュータプログラムを記憶した非一時的コンピュータ可読記憶媒体を開示する。コンピュータプログラムは、複数のカメラを使用してビデオデータを取り込み、取り込まれたビデオデータを第1のシェーダに送信し、第1のシェーダにおいて、取り込まれたビデオデータを使用して深度情報を計算し、深度情報を使用して3-D点群を生成し、3-D点群を使用して視覚化画像をレンダリングする、ことをコンピュータに行わせる実行可能命令を含む。
【0010】
1つの実装では、視覚化画像をレンダリングすることをコンピュータに行わせる実行可能命令が、視覚化画像を3D環境において提示することをコンピュータに行わせる実行可能命令を含む。1つの実装では、深度情報を計算することをコンピュータに行わせる実行可能命令が、複数のカメラのうちの2つのカメラ間の距離を使用することをコンピュータに行わせる実行可能命令を含む。1つの実装では、プログラムが、3-D点群に色情報を適用することをコンピュータに行わせる実行可能命令をさらに含む。
【0011】
本開示の態様を一例として示す本明細書からは、他の特徴及び利点も明らかになるはずである。
【0012】
同じ部分を同じ参照数字によって示す添付図面を検討することにより、本開示の詳細をその構造及び動作の両方に関して部分的に入手することができる。
【図面の簡単な説明】
【0013】
【
図1A】本開示の1つの実装によるビデオ取り込み及び視覚化のための方法のフロー図である。
【
図1B】複数の2-Dカメラから深度情報を計算するプロセスを示すグラフである。
【
図1C】2つのIRカメラからの2-D画像を組み合わせて3-D画像を生成するプロセスを示す図である。
【
図1D】3-D画像とカラー画像とを組み合わせて3-Dカラー画像を生成する処理を示す図である。
【
図2】本開示の1つの実装によるビデオ取り込み及び視覚化のためのシステム200のブロック図である。
【
図3A】本開示の1つの実装によるコンピュータシステム及びユーザの表現である。
【
図3B】本開示の1つの実装による、ビデオ取り込み及び視覚化アプリケーションをホストするコンピュータシステムを示す機能ブロック図である。
【発明を実施するための形態】
【0014】
上述したように、マルチスペクトル画像装置を使用して、取り込まれた2-Dデータから物体の3-Dデータを再構成するオフライン再構成プロセスは、非常に時間の掛かるタスクとなり得る。さらに、このオフラインプロセスでは、再構成プロセスが終了するまで最終結果を見るため又は確認するために画像又は視覚化が提示されない。
【0015】
本開示のいくつかの実装は、結果として得られた取り込まれようとしているデータをより良く理解できるように、再構成結果又は結果のバージョンをリアルタイム又は近リアルタイムで提示する技術を実装するシステム及び方法を提供する。この技術は、結果として得られたデータができる限り良好なものであることを確実にするために取り込み前に最終調整を行えるようにするものである。
【0016】
以下の説明を読んだ後には、様々な実装及び用途における本開示の実装方法が明らかになるであろう。本明細書では本開示の様々な実装について説明するが、これらの実装はほんの一例として提示するものであり、限定ではないと理解されたい。従って、様々な実装の詳細な説明は、本開示の範囲又は外延を限定するものとして解釈すべきではない。
【0017】
1つの実装では、ビデオシステムが、グラフィカルプロセッシングユニット(GPU)の「コンピュートシェーダ」を使用して、画像ストリームを設定間隔でサンプリングする。これにより、システムは、取り込まれた2-D画像の3次元(3-D)体積点群を点群に色が適用された状態で構成することができる。システムは、これらの点群を3D環境で提示する。1つの実装では、3D環境が仮想カメラを使用して、視覚化されたデータセットをナビゲートする。1つの実装では、ビデオシステムが、ビデオ制作環境又はスタジオ環境で使用され、画像取り込みのための1又は2以上のカメラと、カメラデータを処理するための1又は2以上のコンピュータとを含む。
【0018】
他の実装では、システムが、(1)構成データの検証を容易にするために仮想カメラで3Dシーンを提示し、(2)(例えば、IRカメラ及びカラーカメラを含む複数のカメラを使用して)複数の2-D画像から深度マップを生成し、(3)生成された深度マップから3-D点群を構成し、(4)3-D点群にカラーカメラからの色を適用するように構成される。
【0019】
図1Aは、本開示の1つの実装によるビデオ取り込み及び視覚化のための方法100のフロー図である。
図1Aの例示的な実装では、ステップ110において、複数のカメラ(例えば、2-Dカメラ)を使用してビデオデータを取り込み、ステップ120において、取り込まれたビデオデータをシェーダに送信する。次に、ステップ130において、シェーダが取り込まれたビデオデータを使用して深度情報を計算する。
【0020】
1つの実装では、
図1Bに示すように、方法100が、
図1Bに示すベースラインと呼ばれるライン上で互いの光学的中心から一定距離(y)にある2-Dカメラ(例えば、2つのIRカメラA及びC)を校正することによって、2-D画像から(例えば、2又は3以上の画像から、又はたった1つの画像から)深度情報を計算する。他の実装では、2つのカラーカメラを使用することができる。1つの実装では、レンズ歪みを考慮するようにカメラレンズも計算される。方法100は、深度を計算するための空間内の点も決定する。この点は、2つのカメラにとって2-Dで「見える」ものである(例えば、カメラAにとっては点x、カメラbにとっては点x’)。各カメラは、校正された焦点距離(f)も有する。
【0021】
1つの実装では、方法100が、最初に
のように深度(d)を計算し、ここで、tは2つのカメラA及びC間の距離を表し、fは焦点距離を表し、Zはベースラインから物体170の焦点(q)までの距離を表す。従って、深度は、点x及びx’間の距離として計算され、tとfの積に正比例し、距離Zに反比例する。
【0022】
1つの実装では、上述の方法100が高速計算のために非同期コンピュートシェーダ(asynchronous compute shader)において使用される。従って、
図1Cに示すこの実装では、方法100が、(例えば、一方がIRカメラAからのものであり、もう一方がIRカメラCからのものである)2つの画像180、184を入力として非同期コンピュートシェーダ(すなわち、第1のコンピュートシェーダ)に提供する。すると、第1のコンピュートシェーダは深度バッファを計算し、この結果を2-Dの深度バッファとして出力する。ステップ130において深度情報が2-D深度バッファの形で計算されると、ステップ140において、この深度情報を使用して3-D点群186を生成する。
【0023】
1つの実装では、3-D点群の生成が、深度バッファを使用して点群(3-D点群)の3つの軸(x、y、z)を計算することを含む。z位置は、z=(t*f)/(d*p)として計算され、
ここで、
d=深度であり、
t=2つのカメラA及びC間の距離であり、
f=焦点距離であり、
p=z成分を計算するための点である。
【0024】
x位置及びy位置の計算は、カメラの焦点距離(水平視野(H)及び垂直視野(V))、解像度(解像度幅(Rx)及び解像度高さ(Ry))、並びに計算されたzに依存する。従って、x位置及びy位置は以下のように計算され、
x=z/tan(x2)、ここで、
x2=x1+px*(H/Rx)、
x1=(π-H)/2であり、
y=z*tan(y2)*-1、ここで、
y2=y1+py*(V/Ry)、
y1=2*π-(V/2)である。
【0025】
次に、ステップ150において、3-D点群を使用して視覚化画像をレンダリングし、ステップ160においてこれを3-D環境で提示する。1つの実装では、
図1Dに示すように、カラーカメラBによって取り込まれたカラー画像182を使用して3-D点群186に色を適用してカラー3-D画像190を生成する。3-D環境で視覚化画像を提示することにより、ユーザは、仮想カメラを使用して、結果として得られた体積データをナビゲートしてシーン及びデータをより厳密に検査することができる。
【0026】
別の実装では、以下の変形形態が可能である。例えば、計算された深度バッファは、さらなる視覚化及び検証のためにグレースケール画像などの2-Dビューで提示される。別の例では、オフライン高出力クラウド処理を使用して「近リアルタイム」で深度構成を実行する。このような例では、カメラから画像が取り込まれ、データが処理のためにクラウドシステムに送信され、結果として得られた点群がレンダリングのためにクラウドシステムによってホストマシンに返送される。
【0027】
図2は、本開示の1つの実装によるビデオ取り込み及び視覚化のためのシステム200のブロック図である。
図2の例示的な実装では、システム200が、IRカメラ210、212及びカラーカメラ214を含む複数の2-Dカメラ210、212、214と、第1のシェーダ220と、第2のシェーダ222と、レンダラー240とを含む。
【0028】
1つの実装では、複数の2-D IRカメラ210、212がビデオデータ(すなわち、2-D画像)を取り込んで第1のシェーダ220に送信する。すると、第1のシェーダ220は、受け取ったビデオデータを使用して深度情報を計算する。従って、この実装では、第1のシェーダ220が、(例えば、一方がIRカメラ210からのものであり、もう一方がIRカメラ212からのものである)2つの画像を入力として受け取る。
【0029】
1つの実装では、第1のシェーダ220が、2-D IRカメラ210、212を(
図1Bに示すベースライン上で)互いの光学的中心から一定の距離(y)で校正することによって、2-D画像から(例えば、2又は3以上の画像から、又はたった1つの画像から)深度情報を計算する。他の実装では、2つのカラーカメラを使用することができる。1つの実装では、レンズ歪みを考慮するようにカメラレンズも計算される。第1のシェーダ220は、深度を計算するための空間内の点も決定する。この点は、2つのカメラ210、212にとって2-Dで「見える」ものである。各カメラは、校正された焦点距離(f)も有する。1つの実装では、第1のシェーダ220が、高速計算のために非同期コンピュートシェーダとして構成される。
【0030】
1つの実装では、第1のシェーダ220が、最初に
のように深度(d)を計算し、ここで、tは2つのカメラ210及び212間の距離を表し、fは焦点距離を表し、Zはベースラインから物体170の焦点(q)までの距離を表す。その後、第1のシェーダ220は深度バッファを計算し、この結果を2-D深度バッファとして出力して第2のシェーダに送信する。
【0031】
1つの実装では、第1のシェーダ220によって出力された2-D深度バッファとカラーカメラ214からのカラー画像とが第2のシェーダ222に入力される。第2のシェーダ222は、カラー画像内の色を、深度バッファから計算された関連する点に非同期的に適用する。第2のシェーダ222の出力は、カラーデータを含む3-D点群である視覚化画像である。
【0032】
1つの実装では、次にレンダラー240が、視覚化画像を3D環境でディスプレイ250上にレンダリングする。3-D環境で視覚化画像をレンダリングすることにより、ユーザは、仮想カメラを使用して、結果として得られた体積データをナビゲートしてシーン及びデータをより厳密に検査することができる。従って、1つの実装では、ディスプレイ250が、視覚化画像を処理して仮想カメラの実行に必要なプロセスを実行するプロセッサを含むコンピュータ装置に結合される。
【0033】
別の実装では、カメラが画像を取り込んで処理のためにクラウドシステムに送信し、結果として得られた点群がクラウドシステムによってレンダリングのためにシステム200に返送される。
【0034】
図3Aは、本開示の1つの実装によるコンピュータシステム300及びユーザ302の表現である。ユーザ302は、コンピュータシステム300を使用して、
図1及び
図2の方法100及びシステム200に関して図示し説明したようなビデオ取り込み及び視覚化のためのビデオ取り込み及び視覚化アプリケーション390を実行する。
【0035】
コンピュータシステム300は、
図3Bのビデオ取り込み及び視覚化アプリケーション390を記憶して実行する。また、コンピュータシステム300は、ソフトウェアプログラム304と通信することもできる。ソフトウェアプログラム304は、ビデオ取り込み及び視覚化アプリケーション390のためのソフトウェアコードを含むことができる。以下でさらに説明するように、ソフトウェアプログラム304は、CD、DVD又はストレージドライブなどの外部媒体にロードすることができる。
【0036】
さらに、コンピュータシステム300は、ネットワーク380に接続することもできる。ネットワーク380は、例えばクライアント-サーバアーキテクチャ、ピアツーピアネットワークアーキテクチャ又は他のタイプのアーキテクチャなどの様々な異なるアーキテクチャで接続することができる。例えば、ネットワーク380は、ビデオ取り込み及び視覚化アプリケーション390内で使用されるエンジンとデータとを協調させるサーバ385と通信することができる。また、ネットワークは、異なるタイプのネットワークとすることもできる。例えば、ネットワーク380は、インターネット、ローカルエリアネットワーク又はローカルエリアネットワークのいずれかの変形形態、ワイドエリアネットワーク、メトロポリタンエリアネットワーク、イントラネット又はエクストラネット、或いは無線ネットワークとすることができる。
【0037】
図3Bは、本開示の実装による、ビデオ取り込み及び視覚化アプリケーション390をホストするコンピュータシステム300を示す機能ブロック図である。コントローラ310はプログラマブルプロセッサであり、コンピュータシステム300及びそのコンポーネントの動作を制御する。コントローラ310は、メモリ320又は埋め込みコントローラメモリ(図示せず)から(例えば、コンピュータプログラムの形態の)命令をロードし、これらの命令を実行して、例えばデータ処理を行って深度を確立し、データをレンダリングして視覚化を提示するようにシステムを制御する。コントローラ310は、その実行において、ビデオ取り込み及び視覚化アプリケーション390に、タスク待ち行列を使用して装置群の作成と装置設定データの送信とを同時に可能にするようなソフトウェアシステムを提供する。或いは、このサービスは、コントローラ310又はコンピュータシステム300内の別のハードウェアコンポーネントとして実装することもできる。
【0038】
メモリ320は、コンピュータシステム300の他のコンポーネントによって使用されるデータを一時的に記憶する。1つの実装では、メモリ320がRAMとして実装される。1つの実装では、メモリ320が、フラッシュメモリ及び/又はROMなどの長期又は固定メモリも含む。
【0039】
ストレージ330は、コンピュータシステム300の他のコンポーネントによって使用されるデータを一時的に又は長期にわたって記憶する。例えば、ストレージ330は、ビデオ取り込み及び視覚化アプリケーション390によって使用されるデータを記憶する。1つの実装では、ストレージ330がハードディスクドライブである。
【0040】
媒体装置340は、取り外し可能媒体を受け取り、挿入された媒体に対してデータの読み取り及び/又は書き込みを行う。1つの実装では、例えば、媒体装置340が光ディスクドライブである。
【0041】
ユーザインターフェイス350は、コンピュータシステム300のユーザからのユーザ入力を受け入れてユーザ302に情報を提示するコンポーネントを含む。1つの実装では、ユーザインターフェイス350が、キーボード、マウス、オーディオスピーカ及びディスプレイを含む。コントローラ310は、ユーザ302からの入力を使用してコンピュータシステム300の動作を調整する。
【0042】
I/Oインターフェイス360は、外部記憶装置又は補助装置(例えば、プリンタ又はPDA)などの対応するI/O装置に接続するための1又は2以上のI/Oポートを含む。1つの実装では、I/Oインターフェイス360のポートが、USBポート、PCMCIAポート、シリアルポート及び/又はパラレルポートなどのポートを含む。別の実装では、I/Oインターフェイス360が、外部装置と無線で通信するための無線インターフェイスを含む。
【0043】
ネットワークインターフェイス370は、イーサネット接続をサポートするRJ-45又は(限定するわけではないが802.11を含む)「Wi-Fi」インターフェイスなどの有線及び/又は無線ネットワーク接続を含む。
【0044】
コンピュータシステム300は、コンピュータシステムに特有のさらなるハードウェア及びソフトウェア(例えば、電源、冷却、オペレーティングシステム)を含むが、これらのコンポーネントは、単純にするために
図3Bには具体的に示していない。他の実装では、コンピュータシステムの異なる構成(例えば、異なるバス又はストレージ構成、又はマルチプロセッサ構成)を使用することもできる。
【0045】
本明細書に開示した実装の説明は、本発明をいずれかの当業者が実施又は利用できるように行ったものである。当業者には、これらの実装の数多くの修正が容易に明らかになると思われ、また本明細書で定める原理は、本発明の趣旨又は範囲から逸脱することなく他の実装にも適用することができる。例えば、システム及び方法の実装は、映画又はテレビのためのビデオ制作に加えて、バーチャルプロダクション(例えば、仮想現実環境)又は医療画像などの他の用途に適用して適合させることもできる。従って、本開示は、本明細書に示す実装に限定されることを意図するものではなく、本明細書に開示する原理及び新規の特徴と一致する最も広い範囲を許容すべきものである。
【0046】
本開示の特定の実装では、必ずしも上述した各実施例の全ての特徴が必要なわけではない。さらに、本明細書に示す説明及び図面は、本発明によって幅広く検討される主題を表すものであると理解されたい。さらに、本開示の範囲は、当業者に明らかになると考えられる他の実装を完全に含み、従って添付の特許請求の範囲以外のものによって限定されるものではないと理解されたい。
【符号の説明】
【0047】
100 方法
110 2又は3以上のカメラを使用してビデオデータを取り込む
120 取り込まれたビデオデータをシェーダに送信
130 シェーダにおいて、取り込まれたビデオデータを使用して深度情報を計算
140 深度情報を使用して3-D点群を生成
150 3-D点群を使用して視覚化画像をレンダリング
160 視覚化画像を3-D環境で提示
【国際調査報告】