IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本放送協会の特許一覧

<>
  • 特許-立体画像生成装置及びそのプログラム 図1
  • 特許-立体画像生成装置及びそのプログラム 図2
  • 特許-立体画像生成装置及びそのプログラム 図3
  • 特許-立体画像生成装置及びそのプログラム 図4
  • 特許-立体画像生成装置及びそのプログラム 図5
  • 特許-立体画像生成装置及びそのプログラム 図6
  • 特許-立体画像生成装置及びそのプログラム 図7
  • 特許-立体画像生成装置及びそのプログラム 図8
  • 特許-立体画像生成装置及びそのプログラム 図9
  • 特許-立体画像生成装置及びそのプログラム 図10
  • 特許-立体画像生成装置及びそのプログラム 図11
  • 特許-立体画像生成装置及びそのプログラム 図12
  • 特許-立体画像生成装置及びそのプログラム 図13
  • 特許-立体画像生成装置及びそのプログラム 図14
  • 特許-立体画像生成装置及びそのプログラム 図15
  • 特許-立体画像生成装置及びそのプログラム 図16
  • 特許-立体画像生成装置及びそのプログラム 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-06-24
(45)【発行日】2025-07-02
(54)【発明の名称】立体画像生成装置及びそのプログラム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20250625BHJP
【FI】
G06T19/00 F
【請求項の数】 5
(21)【出願番号】P 2021155217
(22)【出願日】2021-09-24
(65)【公開番号】P2023046561
(43)【公開日】2023-04-05
【審査請求日】2024-08-05
(73)【特許権者】
【識別番号】000004352
【氏名又は名称】日本放送協会
(74)【代理人】
【識別番号】110001807
【氏名又は名称】弁理士法人磯野国際特許商標事務所
(72)【発明者】
【氏名】加納 正規
(72)【発明者】
【氏名】岡市 直人
(72)【発明者】
【氏名】河北 真宏
(72)【発明者】
【氏名】洗井 淳
【審査官】豊田 好一
(56)【参考文献】
【文献】特開2020-170979(JP,A)
【文献】特開2021-5399(JP,A)
【文献】特開2018-84954(JP,A)
【文献】特開2018-189580(JP,A)
【文献】特開2021-124395(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
ユーザの操作が反映されるインタラクティブコンテンツとして、空間像再生方式の立体画像を生成する立体画像生成装置であって、
前記ユーザによる操作信号が入力され、所定の変換規則に基づいて、入力された前記操作信号を、3次元CGシーンを仮想的に表示する空間像再生型の仮想ディスプレイの位置、姿勢及びサイズに変換する操作信号変換部と、
前記仮想ディスプレイの位置、姿勢及びサイズに応じて、仮想カメラを配列した仮想カメラアレイのカメラパラメータを剛体変換行列により算出し、前記3次元CGシーンを表示している前記仮想ディスプレイを前記仮想カメラアレイで撮影することで多視点画像を生成する多視点画像生成部と、
前記多視点画像生成部が生成した多視点画像を前記立体画像に変換する立体画像変換部と、
を備えることを特徴とする立体画像生成装置。
【請求項2】
予め設定した奥行き圧縮関数を用いて、前記3次元CGシーンの奥行きを圧縮する奥行き圧縮部、をさらに備え、
前記多視点画像生成部は、奥行き圧縮後の前記3次元CGシーンを表示している前記仮想ディスプレイを前記仮想カメラアレイで撮影することを特徴とする請求項1に記載の立体画像生成装置。
【請求項3】
前記ユーザ毎の視点位置を検出する視点位置検出部、をさらに備え、
前記多視点画像生成部は、前記視点位置に応じて前記剛体変換行列を変化させ、前記ユーザ毎の剛体変換行列を用いて、前記ユーザ毎に前記多視点画像を生成し、
前記立体画像変換部は、前記ユーザ毎に前記多視点画像を前記立体画像に変換することを特徴とする請求項1又は請求項2に記載の立体画像生成装置。
【請求項4】
前記視点位置検出部は、検出した前記視点位置の数に基づいて前記ユーザが複数であるか否かを判定し、
前記多視点画像生成部は、前記ユーザが複数と判定された場合、前記ユーザ毎に前記多視点画像を生成し、
前記立体画像変換部は、前記ユーザが複数と判定された場合、前記ユーザ毎に前記多視点画像を前記立体画像に変換することを特徴とする請求項3に記載の立体画像生成装置。
【請求項5】
コンピュータを、請求項1から請求項4の何れか一項に記載の立体画像生成装置として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、インタラクティブコンテンツとしての立体画像を生成する立体画像生成装置及びそのプログラムに関する。
【背景技術】
【0002】
映像を用いたインタラクティブコンテンツは、エンターテイメント、教育など様々な分野で活用されている。現在、一般に浸透しているインタラクティブコンテンツの代表例は、テレビゲームである。テレビゲームは、一人でも複数人でも人数を問わず気軽に楽しめるため、非常が人気の高い。近年、インターネットの普及により、遠隔地の人とでもそれぞれの自宅にいながら、一緒にテレビゲームを楽しめるようになった。テレビゲーム以外でも、映像を用いたインタラクティブコンテンツは、日常生活の様々な場面で使用されている。
【0003】
なお、インタラクティブコンテンツとは、ユーザの操作が反映されるコンテンツ、つまり、ユーザと制作者との間で双方向性のあるコンテンツのことである。例えば、インタラクティブコンテンツとしては、テレビゲームの他、デジタル案内板や双方向テレビがあげられる。
【0004】
最近、注目を集めている映像メディアとして、3次元映像がある。3次元映像は、両眼視差や運動視差を有するため、一般的な2次元映像とは異なり、臨場感や存在感をより強く感じることができる。特にテレビゲームのようなインタラクティブコンテンツにおいては、臨場感や存在感は非常に重要な要素である。以上のような背景から、3次元映像を使ったインタラクティブコンテンツを体験できる装置が望まれている。
【0005】
3次元映像を表示する立体方式は色々と提案されている。ここで、テレビゲームのようなインタラクティブコンテンツは、長時間連続して視聴し続けることが多いため、目の疲労が少ない立体方式を適用することが好ましい。そこで、自然な3次元映像を表示可能な空間像再生方式が提案されている(非特許文献1,2)。この空間像再生方式は、実物が発する光線とほぼ同じ光線が再現可能であるため、眼球の輻輳と調整の不一致による目の疲労が発生しにくいと言われている(非特許文献3)。
【先行技術文献】
【非特許文献】
【0006】
【文献】G. Lippmann,“Epreuves, reversibles donnant la sensation du relief"”, J. Phys., 7, 1, pp.821-825(1908)
【文献】F. Okano, et al. “Real-time pickup method for a three-dimensional image based on integral photography”, Applied optics, Vol. 36, No. 7, pp. 1598-1603 (1997)
【文献】H. Hiura, et al. “Measurement of static convergence and accommodation responses to images of integral photography and binocular stereoscopy”, Optics express, Vol. 25, No. 4, pp. 3454-3468 (2017)
【発明の概要】
【発明が解決しようとする課題】
【0007】
前記したインタラクティブコンテンツでは、映像演出のために、仮想空間内で3次元映像を撮影する仮想カメラのカメラワークを実現する必要がある。しかし、インタラクティブコンテンツにおいて、仮想カメラのカメラワークを簡易に実現する従来技術は提案されていない。
【0008】
そこで、本発明は、仮想カメラのカメラワークを簡易に実現できる立体画像生成装置及びそのプログラムを提供することを課題とする。
【課題を解決するための手段】
【0009】
前記課題を解決するため、本発明に係る立体画像生成装置は、ユーザの操作が反映されるインタラクティブコンテンツとして、空間像再生方式の立体画像を生成する立体画像生成装置であって、操作信号変換部と、多視点画像生成部と、立体画像変換部と、を備える構成とした。
【0010】
かかる構成によれば、操作信号変換部は、ユーザによる操作信号が入力され、所定の変換規則に基づいて、入力された操作信号を、3次元CGシーンを仮想的に表示する空間像再生型の仮想ディスプレイの位置、姿勢及びサイズに変換する。
【0011】
多視点画像生成部は、仮想ディスプレイの位置、姿勢及びサイズに応じて、仮想カメラを配列した仮想カメラアレイのカメラパラメータを剛体変換行列により算出し、3次元CGシーンを表示している仮想ディスプレイを仮想カメラアレイで撮影することで多視点画像を生成する。
立体画像変換部は、多視点画像生成部が生成した多視点画像を立体画像に変換する。
【0012】
仮想カメラのカメラワークは、仮想ディスプレイの位置、姿勢及びサイズの変更と等価であると考えられる。そこで、立体画像生成装置は、ユーザの操作を仮想ディスプレイの位置、姿勢及びサイズに反映し、この仮想ディスプレイを仮想カメラアレイで撮影する。このようにして、立体画像生成装置は、ユーザの操作を仮想カメラのカメラワークに簡易に反映させることができる。
【0013】
なお、本発明は、コンピュータを前記した立体画像生成装置として機能させるためのプログラムで実現することもできる。
【発明の効果】
【0014】
本発明によれば、仮想カメラのカメラワークを簡易に実現できる立体画像生成装置及びそのプログラムを提供することができる。
【図面の簡単な説明】
【0015】
図1】インタラクティブコンテンツ体験システムにおいて、第1のシステム構成を示す概略図である。
図2】複数のユーザに対する立体画像の表示を説明する説明図である。
図3】インタラクティブコンテンツ体験システムにおいて、第2のシステム構成を示す概略図である。
図4】インタラクティブコンテンツ体験システムにおいて、第3のシステム構成を示す概略図である。
図5】インタラクティブコンテンツ体験システムにおいて、第4のシステム構成を示す概略図である。
図6】第1実施形態に係る立体画像生成装置の構成を示すブロック図である。
図7】第1実施形態における仮想カメラアレイを説明する説明図である。
図8】(a)~(c)は、第1実施形態における仮想カメラのカメラワークを説明する説明図である。
図9】第1実施形態における座標系の変換を説明する説明図である。
図10】第1実施形態における仮想ディスプレイのサイズ変更を説明する説明図である。
図11】第1実施形態における仮想ディスプレイのサイズ変更を説明する説明図である。
図12】第1実施形態における要素画像の生成を説明する説明図である。
図13】第1実施形態に係る立体画像生成装置の動作を示すフローチャートである。
図14】第2実施形態に係る立体画像生成装置の構成を示すブロック図である。
図15】第3実施形態に係る立体画像生成装置の構成を示すブロック図である。
図16】第3実施形態における視点位置に応じた多視点画像の生成を説明する説明図である。
図17】第4実施形態に係る立体画像生成装置の構成を示すブロック図である。
【発明を実施するための形態】
【0016】
以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する各実施形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、同一の手段には同一の符号を付し、説明を省略する場合がある。
【0017】
[コンテンツ体験システムのシステム構成]
各実施形態を詳述する前に、インタラクティブコンテンツ体験システムの全体構成について説明する。以後、「インタラクティブコンテンツ体験システム」を単に「コンテンツ体験システム」と略記する。以下で説明するように、コンテンツ体験システムは、ユーザの人数や視点追従機能の有無に応じて、様々なシステム構成を有する。
【0018】
<第1構成:単独ユーザ、視点追従機能無し>
図1を参照し、ユーザUが一人で視点追従機能が無い場合のシステム構成を説明する。
コンテンツ体験システム1は、ゲームなどのインタラクティブコンテンツをユーザUが体験するシステムである。図1のコンテンツ体験システム1は、以下で説明する各システム構成のうち、最も基本的なシステム構成である。図1に示すように、コンテンツ体験システム1は、コントローラ2と、立体画像生成装置3と、立体ディスプレイ4とを備える。ここで、コントローラ2、立体画像生成装置3及び立体ディスプレイ4は、有線ケーブル又は無線通信で互いに接続されている。
【0019】
コントローラ2は、ユーザUがインタラクティブコンテンツに対する操作を行うものである。インタラクティブコンテンツがテレビゲームの場合、ユーザUは、コントローラ2を用いて、プレイヤーキャラクタを操作する。例えば、コントローラ2は、スティックやボタンを備えたゲームパッドである。また、コントローラ2は、ユーザによる操作信号を立体画像生成装置3に出力する。
【0020】
立体画像生成装置3は、ユーザUの操作が反映されるインタラクティブコンテンツ(例えば、テレビゲーム)として、空間像再生方式の立体画像を生成するものである。本実施形態では、立体画像生成装置3は、インテグラル方式の立体画像(要素画像群)を生成することとする(非特許文献1,2、参考文献1)。そして、立体画像生成装置3は、生成した立体画像を立体ディスプレイ4に出力する。
【0021】
参考文献1:三科、「インテグラル方式の概要」、日本放送協会、NHK技研 R&D/No.144,2014年3月
【0022】
立体ディスプレイ4は、立体画像生成装置3から入力された立体画像を表示する空間像再生型のディスプレイである。本実施形態では、立体ディスプレイ4は、一般的なインテグラル方式のディスプレイと同様、図示を省略したレンズアレイ及び表示素子を備える。例えば、レンズアレイは、要素画像に対応した要素レンズが2次元方向に配列されたものである。例えば、表示素子としては、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイなどの一般的なフラットパネルディスプレイがあげられる。
【0023】
<第2構成:複数ユーザ、視点追従機能無し>
図2及び図3を参照し、ユーザUが複数で視点追従機能が無い場合のシステム構成を説明する。
空間像再生型のディスプレイは、その正面に形成される視域であるメインローブだけでなく、メインローブの両側に形成されるサイドローブでも、立体視が可能である。図2に示すように、コンテンツ体験システム1では、2名のユーザU(U,U)に対し、サイドローブを用いて、共通の3次元CGシーンMを表示できるので、例えば、対戦型格闘ゲームに適する。ユーザUが複数の場合、図3に示すように、コンテンツ体験システム1は、ユーザU毎にコントローラ2(2,…,2)を備える一方、全ユーザUに共通の立体ディスプレイ4を1台のみ備える。なお、Nは、ユーザUの人数を示す1以上の整数である。他の点、第2構成のコンテンツ体験システム1は、第1構成と同様のため、これ以上の説明を省略する。
【0024】
<第3構成:単独ユーザ、視点追従機能有り>
図4を参照し、ユーザUが一人で視点追従機能が有る場合のシステム構成を説明する。
図4に示すように、コンテンツ体験システム1Bは、コントローラ2と、立体画像生成装置3Bと、立体ディスプレイ4と、カメラ5とを備える。なお、立体画像生成装置3B及びカメラ5以外は、第1構成と同様のため、説明を省略する。
【0025】
立体画像生成装置3Bは、図1の立体画像生成装置3と同様、空間像再生方式の立体画像を生成する。このとき、立体画像生成装置3Bは、視点追従機能により、ユーザUの視点位置(両眼位置)を検出し、ユーザUの視域のみ立体画像を表示する。この視点追従機能により、立体画像生成装置3Bでは、立体ディスプレイ4が長い焦点距離のレンズアレイを使用可能となり、光線密度により決まる奥行き範囲を拡大できる。さらに、立体画像生成装置3Bは、視域をユーザUに動的に追従させて視域も拡大できる。
【0026】
カメラ5は、視点位置検出用のカメラである。例えば、カメラ5は、ユーザUの顔領域画像を撮影する一般的なWebカメラである。そして、カメラ5は、撮影した顔領域画像を立体画像生成装置3Bに出力する。
【0027】
<第4構成:複数ユーザ、視点追従機能有り>
図5を参照し、ユーザUが複数で視点追従機能が有る場合のシステム構成を説明する。 図5に示すように、コンテンツ体験システム1Bは、ユーザU毎に、コントローラ2(2,…,2)と、立体ディスプレイ4(4,…,4)と、カメラ5(5,…,5)とを備える。図5の立体画像生成装置3Bは、ユーザU毎に立体画像を生成する。他の点、第4構成のコンテンツ体験システム1Bは、第3構成と同様のため、説明を省略した。
【0028】
以上のように、コンテンツ体験システム1,1Bは、簡易な構成変更のみでユーザUの人数や視点追従機能の有無に対応できるので、汎用性を向上させることができる。つまり、コンテンツ体験システム1,1Bは、ユーザUの人数や所望の映像品質により柔軟にシステム構成を変更できる。
【0029】
さらに、空間像再生型の立体ディスプレイ4は、物体が発する光線とほぼ同じ光線が再現可能であり、眼球の輻輳と調整の不一致による目の疲労が発生しにくいと言われている(非特許文献3)。このように、コンテンツ体験システム1,1Bは、自然な立体画像を表示可能な空間像再生型の立体ディスプレイ4を採用することで、ゲームのような長時間視聴が多いインタラクティブコンテンツであっても目の疲労を少なくできる。
【0030】
ここで、従来の2次元映像によるテレビゲームでは、プレイヤーキャラクタが平面の画面上に表示されるだけで、視覚的には、プレイヤーキャラクタの身体の厚みを感じることも、画面から飛び出ることも、奥に移動していくこともあり得ない。つまり、従来の2次元映像によるテレビゲームでは、臨場感や存在感を強く感じることは難しい。その一方、コンテンツ体験システム1,1Bは、2次元映像のテレビゲームに比べて立体感が得られるので、臨場感やキャラクターの存在感が向上することに加え、両眼視差や運動視差を利用した新しい演出も可能である。
【0031】
(第1実施形態)
[立体画像生成装置の構成]
図6を参照し、立体画像生成装置3の構成について説明する。
図6に示すように、立体画像生成装置3は、記憶部30と、操作信号変換部31と、多視点画像生成部32と、立体画像変換部33とを備える。なお、図6の立体画像生成装置3は、ユーザUが一人で視点追従機能が無い場合のシステム構成(図1の第1構成)に対応する。
【0032】
記憶部30は、インタラクティブコンテンツの3次元CGシーンMを記憶するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記憶装置である。ここで、コンテンツ体験システム1の使用者が、所望の3次元CGシーンMを記憶部30に予め記憶させておくこととする。例えば、3次元CGシーンMは、対戦型格闘ゲームの場合、二人以上のプレイヤーキャラクタモデルや背景モデルで構成されている。以後の説明では、仮想カメラのカメラワークに関する処理を主に説明し、インタラクティブコンテンツの一般的な制作方法の説明は省略する。
【0033】
操作信号変換部31は、ユーザUによる操作信号が入力され、所定の変換規則に基づいて、入力された操作信号を、3次元CGシーンMを仮想的に表示する空間像再生型の仮想ディスプレイの位置、姿勢及びサイズに変換するものである。本実施形態では、操作信号変換部31は、各ユーザUが操作するコントローラ2から操作信号が入力され、この操作信号を仮想ディスプレイの位置、姿勢及びサイズに変換する。そして、操作信号変換部31は、変換された想ディスプレイの位置、姿勢及びサイズを多視点画像生成部32に出力する。
【0034】
<3次元CGシーンにおける仮想ディスプレイ及び仮想カメラ>
以下、3次元CGシーンMにおける仮想ディスプレイ90及び仮想カメラアレイ91を説明する。
【0035】
図7に示すように、立体画像として表示したい3次元CGシーンMに空間像再生型の仮想ディスプレイ90を配置する。そして、この仮想ディスプレイ90を仮想カメラアレイ91で撮影することで、立体画像(要素画像E)を生成できる。例えば、仮想ディスプレイ90は、インテグラル方式と同様、ディスプレイ及びレンズアレイを備える仮想的なディスプレイである。また、仮想カメラアレイ91は、2次元方向に複数の仮想カメラ92が配置されたものである。ここでは、仮想カメラアレイ91は、仮想ディスプレイ90のディスプレイ面(仮想ディスプレイ面)から奥行き方向に予め設定した視距離D分だけ離れた位置に等間隔で配置される。なお、視距離Dは、ユーザUから仮想ディスプレイ90までの距離である。
【0036】
図7では、仮想カメラアレイ91は、水平方向に配列された5台の仮想カメラ92~92で構成されている。全ての仮想カメラ92~92が仮想ディスプレイ90に正対して配置され、その画角が仮想ディスプレイ90の領域に一致して撮影できるように内部パラメータが予め設定されていることとする。
【0037】
ここで、ユーザUの両目の中点(視点位置P)が、仮想カメラアレイ91の中心に一致する。また、奥行き方向において、仮想カメラアレイ91の中心が、仮想ディスプレイ90の中心に一致する。なお、図7では、水平方向をx軸、垂直方向をy軸、奥行き方向をz軸とする。
【0038】
一般的な2次元映像を撮影するときのカメラワークは、ドリー(位置変更)、パン・チルト・ロール(姿勢変更)、及び、ズームイン・ズームアウト(焦点距離変更)で構成される。これらの操作を3次元の仮想空間で行う場合、カメラワークは、仮想ディスプレイ90の操作と等しくなる。図8(a)に示すように、仮想カメラ92のドリーは、仮想ディスプレイ90の位置変更に対応する。この図8では、3次元CGシーンMとして、人物及び犬を図示した。また、カメラワーク前の仮想カメラ92の画角αを破線で図示し、カメラワーク後の仮想カメラ92の画角βを実線で図示した。つまり、仮想カメラ92の画角α,βが、カメラワーク前後における仮想ディスプレイ90の位置、姿勢及びサイズの変化を表す。図8(b)に示すように、仮想カメラ92のパン、チルト又はロールは、仮想ディスプレイ90の姿勢変更に対応する。図8(c)に示すように、仮想カメラ92のズームイン又はズームアウトは、仮想ディスプレイ90のサイズの縮小又は拡大に対応する。
【0039】
以上のように、仮想カメラ92のカメラワークは、仮想ディスプレイ90の操作と等価と考えられる。そこで、操作信号変換部31は、ユーザUによる操作をインタラクティブコンテンツに反映させるため、コントローラ2からの操作信号を仮想ディスプレイ90の操作(位置、姿勢及びサイズ)に変換する。
【0040】
ユーザUの操作信号を仮想ディスプレイ90の操作に変換する変換規則は、任意に設定できる。例えば、変換規則は、一人称視点又は三人称視点の場合、ユーザUの操作をそのまま仮想ディスプレイ90の操作として扱う規則とする。また、変換規則は、ゲームステージ内で固定視点の場合、ユーザUがプレイヤーキャラクタをゲームステージの所定位置まで移動させたとき、その位置に応じた視点に切り替える規則としてもよい。
【0041】
図6に戻り、立体画像生成装置3の説明を続ける。
多視点画像生成部32は、仮想ディスプレイ90の位置、姿勢及びサイズに応じて、仮想カメラ92を配列した仮想カメラアレイ91のカメラパラメータを剛体変換行列により算出するものである。そして、多視点画像生成部32は、3次元CGシーンMを表示している仮想ディスプレイ90を仮想カメラアレイ91で撮影することで多視点画像を生成する。
【0042】
<カメラワークが反映された多視点画像の生成>
図9を参照し、カメラワークが反映された多視点画像の生成について説明する。
仮想カメラ92のカメラパラメータは、その位置、姿勢及び内部パラメータからなる。また、仮想ディスプレイ90の位置、姿勢及びサイズに応じて、仮想カメラ92のカメラパラメータが変化する。以下、多視点画像Vの生成にあたり、仮想ディスプレイ90の位置及び姿勢と、仮想ディスプレイ90のサイズとを分けて検討する。
【0043】
図9には、仮想空間内の各座標系を図示した。世界座標系Σは、仮想空間内で基準となる3次元座標系であり、所望の位置を原点とする。また、仮想ディスプレイ座標系Σは、仮想ディスプレイ90を基準とする3次元座標系のことであり、例えば、仮想ディスプレイ面の中心を原点とする。また、カメラ座標系Σは、仮想カメラアレイ91を構成する1台の仮想カメラ92を基準とする座標系のことであり、例えば、仮想カメラ92の光学主点を原点とする。
【0044】
一般的に座標系は、剛体変換行列により変換可能である。ここで、座標系Σから座標系Σへの変換は、剛体変換行列で表される。この場合、座標系Σにおける3次元点の座標Xは、以下の式(1)により、座標系Σにおける3次元座標Xに変換できる。なお、3次元座標Xでは、左上の添え字が座標系を表し、上付きチルダが同次座標を表す。
【0045】
【数1】
【0046】
また、3次元座標X=[X,Y,Z]の同次座標を以下の式(2)で表す。なお、添え字Tはベクトルの転置を表す。
【0047】
【数2】
【0048】
図9において、剛体変換行列は、世界座標系Σから仮想ディスプレイ座標系Σへの座標変換を表す。また、剛体変換行列は、仮想ディスプレイ座標系Σからカメラ座標系Σへの座標変換を表す。
【0049】
まず、仮想ディスプレイ90の位置及び姿勢について考える。仮想ディスプレイ座標系Σにおけるカメラの位置Pは、以下の式(3)に示すように、世界座標系Σにおけるカメラの位置Pに変換できる。
【0050】
【数3】
【0051】
ここで、カメラワークを行わなければ、剛体変換行列は、変化せずに固定値となる。しかし、前記したように、カメラワークを行うので、仮想ディスプレイ90の位置及び姿勢に応じて剛体変換行列が変化する。例えば、剛体変換行列が回転行列及び並進ベクトルで表されるので、仮想ディスプレイ90の位置に合わせて剛体変換行列の並進ベクトルを変化させ、仮想ディスプレイ90の姿勢に合わせて剛体変換行列の回転行列を変化させればよい。
【0052】
次に、仮想ディスプレイ90のサイズについて考える。仮想ディスプレイ90のサイズを変化させることは、その仮想ディスプレイ90のレンズピッチや焦点距離を変化させることと等価である。また、それに伴って視距離も比例して変化する。従って、仮想ディスプレイ座標系Σにおける仮想カメラ92の位置が変化する。
【0053】
図10及び図11に示すように、仮想ディスプレイ90のサイズが変化した場合、仮想カメラ92の位置が変化する。図10に示すように、仮想ディスプレイ90が所定のサイズであり、所定の画角で仮想カメラ92,…,92…,92が一定間隔で配置されていることとする(但し、1<K<N)。また、視距離がDであり、各仮想カメラ92のカメラ間隔がWである。このとき、奥行き方向において、仮想カメラアレイ91の中心(仮想カメラ92)と仮想ディスプレイ90の中心とが一致する。図11に示すように、仮想ディスプレイ90のサイズをa倍にした場合、視距離がaDとなり、各仮想カメラ92のカメラ間隔がaWとなる。このとき、仮想カメラ92の姿勢及び内部パラメータは変化しない。
【0054】
以上のように、多視点画像生成部32は、式(3)の剛体変換行列を用いて、仮想ディスプレイ90の位置、姿勢及びサイズに応じて、仮想カメラ92毎にカメラパラメータを算出する。そして、多視点画像生成部32は、各仮想カメラ92で仮想ディスプレイ90を撮影することで多視点画像を生成し、生成した多視点画像を立体画像変換部33に出力する。
【0055】
図6に戻り、立体画像生成装置3の説明を続ける。
立体画像変換部33は、多視点画像生成部32が生成した多視点画像を立体画像に変換するものである。本実施形態では、立体画像変換部33は、図12に示すように、多視点画像生成部32から入力された多視点画像Vの画素位置を並べ替えることで、多視点画像Vを要素画像Eに変換する。そして、立体画像変換部33は、変換した要素画像Eを立体ディスプレイ4に出力する。この要素画像Eを立体ディスプレイ4に表示すると、ユーザUが立体像を見ることができる。
【0056】
[立体画像生成装置の動作]
図13を参照し、立体画像生成装置3の動作について説明する。
ここでは、記憶部30に3次元CGシーンMが予め記憶されていることとする。
【0057】
ステップS1において、操作信号変換部31は、ユーザUによる操作信号が入力され、所定の変換規則に基づいて、入力された操作信号を仮想ディスプレイ90の位置、姿勢及びサイズに変換する。例えば、変換規則は、一人称視点又は三人称視点の場合、ユーザUの操作をそのまま仮想ディスプレイ90の操作として扱う規則とする。また、変換規則は、ゲームステージ内で固定視点の場合、ユーザUがプレイヤーキャラクタをゲームステージの所定位置まで移動させたとき、その位置に応じた視点に切り替える規則としてもよい。
【0058】
ステップS2において、多視点画像生成部32は、仮想ディスプレイ90の位置、姿勢及びサイズに応じて、仮想カメラ92を配列した仮想カメラアレイ91のカメラパラメータを剛体変換行列により算出する。ここで、多視点画像生成部32は、前記した式(3)の剛体変換行列を用いて、仮想ディスプレイ90の位置、姿勢及びサイズに応じて、仮想カメラ92毎にカメラパラメータを算出する。そして、多視点画像生成部32は、各仮想カメラ92で仮想ディスプレイ90を撮影することで多視点画像Vを生成する。
【0059】
ステップS3において、立体画像変換部33は、多視点画像生成部32が生成した多視点画像Vを立体画像に変換するものである。本実施形態では、立体画像変換部33は、図12に示すように、多視点画像生成部32から入力された多視点画像Vの画素位置を並べ替えることで、多視点画像Vを要素画像Eに変換する。
【0060】
[作用・効果]
仮想カメラ92のカメラワークは、仮想ディスプレイの位置、姿勢及びサイズの変更と等価であると考えられる。そこで、第1実施形態に係る立体画像生成装置3は、ユーザUの操作を仮想ディスプレイ90の位置、姿勢及びサイズに反映し、この仮想ディスプレイ90を仮想カメラアレイ91で撮影する。これにより、立体画像生成装置3は、テレビゲームなどのインタラクティブコンテンツの演出のために、ユーザUの操作を仮想カメラのカメラワークに簡易に反映させることができる。
【0061】
(第2実施形態)
[立体画像生成装置の構成]
図14を参照し、第2実施形態に係る立体画像生成装置3の構成について、第1実施形態と異なる点を説明する。
インテグラル方式の立体ディスプレイ4は、ディスプレイ面から離れるほど空間解像度が低下するという特性がある。この場合、ディスプレイ面から離れたオブジェクトを再現しようとした場合、視覚的に正しく認識することが難しく、非常に見づらい立体画像になってしまう。つまり、立体ディスプレイ4は、立体画像として再現できる3次元CGシーンMの奥行き範囲が狭くなっている。このため、立体画像生成装置3は、立体ディスプレイ4に合わせて3次元CGシーンMの奥行きを圧縮する点が、第1実施形態と異なる。
【0062】
図14に示すように、立体画像生成装置3は、記憶部30と、操作信号変換部31と、多視点画像生成部32と、立体画像変換部33と、奥行き圧縮部34とを備える。なお、多視点画像生成部32及び奥行き圧縮部34以外の各手段は、第1実施形態と同様のため、説明を省略する。
【0063】
奥行き圧縮部34は、予め設定した奥行き圧縮関数を用いて、3次元CGシーンMの奥行きを圧縮するものである。本実施形態では、奥行き圧縮部34は、記憶部30に記憶されている3次元CGシーンMを奥行き圧縮する。ここで、奥行き圧縮部34は、線形奥行き圧縮関数又は非線形奥行き圧縮関数の何れを用いてもよい(参考文献2,3)。このとき、コンテンツ体験システム1の使用者が何れの奥行き圧縮関数を用いるか、奥行き圧縮部34に設定することとする。線形奥行き圧縮関数は、奥行き方向において、3次元CGシーンMの全体を均等に圧縮する関数であり、例えば、1次関数で表される。また、非線形奥行き圧縮関数は、奥行き方向において、空間解像度が高い範囲で圧縮率が小さくなるように3次元CGシーンMを圧縮する関数であり、例えば、シグモイド関数で表される。そして、奥行き圧縮部34は、奥行き圧縮後の3次元CGシーンMを多視点画像生成部32に出力する。
【0064】
参考文献2:Y. Sawahata and T. Morita, “Estimating Depth Range Required for 3-D Displays to Show Depth-Compressed Scenes Without Inducing Sense of Unnaturalness”, IEEE Transactions on Broadcasting, Vol. 64, No. 2, pp. 488 - 497 (2018)
参考文献3:澤畠、「空間認知特性に基づいた自然なインテグラル立体表示技術」、日本放送協会、NHK技研 R&D/No.164、2017年8月
【0065】
多視点画像生成部32は、奥行き圧縮後の3次元CGシーンMを表示している仮想ディスプレイ90を仮想カメラアレイ91で撮影するものである。本実施形態では、多視点画像生成部32は、奥行き圧縮部34から3次元CGシーンMが入力される以外、第1実施形態と同様のため、これ以上の説明を省略する。
【0066】
[作用・効果]
以上のように、第2実施形態に係る立体画像生成装置3は、第1実施形態と同様、ユーザUの操作を仮想カメラのカメラワークに簡易に反映させることができる。
さらに、立体画像生成装置3は、3次元CGシーンMを奥行き圧縮するので、広い奥行き範囲を有するインタラクティブコンテンツであっても、空間解像度の低下を抑制し、高品質な立体画像を表示できる。
【0067】
(変形例1)
なお、第1,2実施形態では、コンテンツ体験システム1がコントローラ2及び立体ディスプレイ4を1個のみ備え、図1のシステム構成に対応するものとして説明したが、これに限定されない。
例えば、コンテンツ体験システム1が複数のコントローラ2を備え、複数のユーザUに対応したシステム構成(図3の第2構成)としてもよい。この場合、操作信号変換部31は、各コントローラ2からの操作信号を平均し、複数のユーザUによる操作をカメラワークに変換する。また、操作信号変換部31は、先に操作を行っているユーザUの操作信号が反映されるように、その操作信号をカメラワークに変換してもよい。
【0068】
(第3実施形態)
[立体画像生成装置の構成]
図15を参照し、第3実施形態に係る立体画像生成装置3Bの構成について、第1実施形態と異なる点を説明する。
第3実施形態に係る立体画像生成装置3Bは、視点追従機能を有する点が、第1実施形態と異なる。なお、図15の立体画像生成装置3Bは、ユーザUが一人で視点追従機能が有る場合のシステム構成(図4の第3構成)に対応する。
【0069】
図15に示すように、立体画像生成装置3Bは、記憶部30と、操作信号変換部31と、多視点画像生成部32Bと、立体画像変換部33Bと、視点位置検出部35とを備える。なお、多視点画像生成部32及び視点位置検出部35以外の各手段は、第1実施形態と同様のため、説明を省略する。
【0070】
視点位置検出部35は、ユーザU毎の視点位置を検出するものである。本実施形態では、カメラ5から入力された各ユーザUの顔領域画像から、既知の手法を用いて、視点位置としてユーザUの両目の中間位置を検出する(参考文献4,5)。本実施形態では、ユーザUが一人のため、視点位置検出部35は、一人分の視点位置を検出する。そして、視点位置検出部35は、検出したユーザUの視点位置を多視点画像生成部32Bに出力する。
【0071】
参考文献4:特開2019-213127号公報
参考文献5:岡市、「視点追従型インテグラル3D映像表示システムの開発」、映像情報メディア学会誌、Vol.75、No.1、pp.125-130(2021)
【0072】
多視点画像生成部32Bは、視点位置検出部35から入力された視点位置に応じて剛体変換行列を変化させ、ユーザU毎の剛体変換行列を用いて、ユーザU毎に多視点画像Vを生成するものである。ここで、多視点画像生成部32Bは、各ユーザUの視点位置から剛体変換行列をそれぞれ求め、各ユーザUの視点位置に対応した多視点画像Vを生成する。なお、本実施形態では、ユーザUが一人のため、多視点画像生成部32Bは、一人分の多視点画像を検出する。
【0073】
<視点位置に応じた多視点画像の生成>
図16を参照し、視点位置に応じた多視点画像Vの生成について説明する。
視点追従機能が有る場合、仮想カメラアレイ91の各仮想カメラ92の位置及び内部パラメータは、ユーザUの視点位置に応じて変化する。図16に示すように、ユーザUの視点位置Pが移動した場合、移動後の視点位置Pに応じて、仮想カメラアレイ91の各仮想カメラ92の位置及び内部パラメータを設定する。
【0074】
具体的には、視点追従機能が有る場合、仮想ディスプレイ座標系Σからカメラ座標系Σへの剛体変換行列が変化する。このとき、仮想カメラ92の位置は変化するが、仮想カメラ92の姿勢は変化しない。つまり、剛体変換行列では、以下の式(4)に示すように、並進ベクトルTが視点位置に応じて変化する一方、回転行列が単位行列になる。
【0075】
【数4】
【0076】
以上より、多視点画像生成部32Bは、式(4)を用いて、ユーザUの視点位置に応じて剛体変換行列を変化させ、ユーザU毎に仮想カメラアレイ91を設定する。その後、多視点画像生成部32Bは、第1実施形態と同様に多視点画像を生成し、生成した多視点画像を立体画像変換部33Bに出力する。
【0077】
図15に戻り、立体画像生成装置3Bの構成について説明を続ける。
立体画像変換部33Bは、ユーザU毎に多視点画像を立体画像に変換するものである。ここでは、ユーザUが一人のため、立体画像変換部33Bは、一人分の立体画像を変換する。なお、立体画像変換部33Bによる立体映像の変換方法は、第1実施形態と同様のため、説明を省略する。そして、立体画像変換部33Bは、ユーザU毎に生成した立体画像(要素画像E)を、各ユーザUに対応した立体ディスプレイ4に出力する。
【0078】
[作用・効果]
以上のように、第3実施形態に係る立体画像生成装置3Bは、第1実施形態と同様、ユーザUの操作を仮想カメラのカメラワークに簡易に反映させることができる。
さらに、立体画像生成装置3Bは、視点追従機能により、ユーザUの両眼がある領域にのみ立体画像を表示できる。これにより、立体ディスプレイ4が焦点距離の長いレンズアレイを使用できるので、その光線密度により奥行き範囲を拡大できる。さらに、立体画像生成装置3Bは、視点追従機能により視域を拡大し、高品質な立体画像を表示できる。
【0079】
(変形例2)
なお、視点位置検出部35は、検出した視点位置の数に基づいて、ユーザUが複数であるか否かを判定してもよい。例えば、視点位置検出部35は、顔領域画像に含まれる眼の数を2で除算し(小数点以下切り捨て)、その値をユーザUの人数とすればよい。
【0080】
そして、多視点画像生成部32Bは、ユーザUが複数と判定された場合、ユーザU毎に多視点画像Vを生成してもよい。さらに、立体画像変換部33Bは、ユーザUが複数と判定された場合、ユーザU毎に多視点画像Vを立体画像(要素画像E)に変換してもよい。
【0081】
このように、ユーザUの人数に応じて、視点追従機能の有無を切り替えることが可能となり、コンテンツ体験システム1Bは、システム構成がより柔軟となり、汎用性をさらに向上させることができる。
【0082】
(第4実施形態)
[立体画像生成装置の構成]
図17を参照し、第4実施形態に係る立体画像生成装置3Bの構成について、第3実施形態と異なる点を説明する。
第4実施形態に係る立体画像生成装置3Bは、3次元CGシーンMの奥行きを圧縮する点が、第3実施形態と異なる。
【0083】
図17に示すように、立体画像生成装置3Bは、記憶部30と、操作信号変換部31と、多視点画像生成部32Bと、立体画像変換部33Bと、奥行き圧縮部34と、視点位置検出部35とを備える。
【0084】
多視点画像生成部32Bは、奥行き圧縮後の3次元CGシーンMが再生されている仮想ディスプレイ90を仮想カメラアレイ91で撮影するものである。本実施形態では、多視点画像生成部32Bは、奥行き圧縮部34から3次元CGシーンMが入力される以外、第3実施形態と同様のため、これ以上の説明を省略する。
【0085】
なお、記憶部30、操作信号変換部31、立体画像変換部33B及び視点位置検出部35は、第3実施形態と同様のため、説明を省略する。
また、奥行き圧縮部34は、第2実施形態と同様のため、説明を省略する。
【0086】
[作用・効果]
以上のように、第3実施形態に係る立体画像生成装置3Bは、第3実施形態と同様、ユーザUの操作を仮想カメラのカメラワークに簡易に反映させることができる。
さらに、立体画像生成装置3Bは、第3実施形態と同様、奥行き範囲を拡大すると共に、視点追従機能により視域を拡大し、高品質な立体画像を表示できる。
さらに、立体画像生成装置3Bは、第2実施形態と同様、空間解像度の低下を抑制し、高品質な立体画像を表示できる。
【0087】
(変形例3)
なお、第3,4実施形態では、コンテンツ体験システム1Bがコントローラ2及び立体ディスプレイ4を1個のみ備え、図4のシステム構成に対応するものとして説明したが、これに限定されない。
例えば、コンテンツ体験システム1Bが複数のコントローラ2及び立体ディスプレイ4を備え、複数のユーザUに対応したシステム構成(図5の第4構成)としてもよい。
【0088】
(その他変形例)
以上、各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、空間像再生方式がインテグラル方式であることとして説明したが、これに限定されない。例えば、空間像再生方式がレンチュキュラ方式であってもよい。この場合、立体ディスプレイは、かまぼこ状のレンチュキュラレンズを1次元方向に配列したレンチュキュラレンズアレイと、表示素子とを備えればよい。この場合、多視点画像生成部は、仮想カメラを1次元方向に配列した仮想カメラアレイを用いればよい。
【0089】
前記した各実施形態では、立体画像生成装置が独立したハードウェアであることとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した立体画像生成装置として機能させるためのプログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
【符号の説明】
【0090】
1,1B コンテンツ体験システム
2 コントローラ
3,3B 立体画像生成装置
4 立体ディスプレイ
5 カメラ
30 記憶部
31 操作信号変換部
32,32B 多視点画像生成部
33,33B 立体画像変換部
34 奥行き圧縮部
35 視点位置検出部
90 仮想ディスプレイ
91 仮想カメラアレイ
92 仮想カメラ
E 要素画像
M 3次元CGシーン
V 多視点画像
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17