IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本放送協会の特許一覧

特開2022-113478インテグラル立体表示システム及びその方法
<>
  • 特開-インテグラル立体表示システム及びその方法 図1
  • 特開-インテグラル立体表示システム及びその方法 図2
  • 特開-インテグラル立体表示システム及びその方法 図3
  • 特開-インテグラル立体表示システム及びその方法 図4
  • 特開-インテグラル立体表示システム及びその方法 図5
  • 特開-インテグラル立体表示システム及びその方法 図6
  • 特開-インテグラル立体表示システム及びその方法 図7
  • 特開-インテグラル立体表示システム及びその方法 図8
  • 特開-インテグラル立体表示システム及びその方法 図9
  • 特開-インテグラル立体表示システム及びその方法 図10
  • 特開-インテグラル立体表示システム及びその方法 図11
  • 特開-インテグラル立体表示システム及びその方法 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022113478
(43)【公開日】2022-08-04
(54)【発明の名称】インテグラル立体表示システム及びその方法
(51)【国際特許分類】
   H04N 13/307 20180101AFI20220728BHJP
   H04N 13/366 20180101ALI20220728BHJP
   H04N 13/398 20180101ALI20220728BHJP
   G03B 15/00 20210101ALI20220728BHJP
   G03B 35/08 20210101ALI20220728BHJP
   G03B 35/18 20210101ALI20220728BHJP
   G02B 30/10 20200101ALI20220728BHJP
【FI】
H04N13/307
H04N13/366
H04N13/398
G03B15/00 Q
G03B35/08
G03B35/18
G02B30/10
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2021009759
(22)【出願日】2021-01-25
(71)【出願人】
【識別番号】000004352
【氏名又は名称】日本放送協会
(74)【代理人】
【識別番号】110001807
【氏名又は名称】弁理士法人磯野国際特許商標事務所
(72)【発明者】
【氏名】加納 正規
(72)【発明者】
【氏名】岡市 直人
(72)【発明者】
【氏名】河北 真宏
【テーマコード(参考)】
2H059
2H199
5C061
【Fターム(参考)】
2H059AA10
2H059AA34
2H199BA19
2H199BA45
2H199BA48
2H199BA49
2H199BA55
2H199BA68
2H199BB03
2H199BB52
5C061AA06
5C061AB12
5C061AB14
5C061AB16
(57)【要約】
【課題】通信データ量及び携帯端末の演算処理量を抑制できるインテグラル立体表示システムを提供する。
【解決手段】インテグラル立体表示システム100は、携帯端末1で視聴する視聴者の視点に追従するように、サーバ2が生成した要素画像を携帯端末1に表示するものであり、携帯端末1が、通信手段10と、撮影手段11と、顔エリア検出手段12と、顔パーツ検出手段13と、表示手段14とを備え、サーバ2が、通信手段20と、3次元化手段21と、要素画像生成手段22とを備える。
【選択図】図3
【特許請求の範囲】
【請求項1】
携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を前記携帯端末に表示するインテグラル立体表示システムであって、
前記携帯端末は、
前記人物の顔画像を撮影する撮影手段と、
前記顔画像から前記人物の顔エリアを検出する顔エリア検出手段と、
少なくとも前記人物の両目が含まれる顔パーツの画像座標を前記顔エリアから検出する顔パーツ検出手段と、
前記要素画像生成装置が生成した要素画像を表示する表示手段と、を備え、
前記要素画像生成装置は、
前記顔パーツの画像座標から前記顔パーツの3次元位置を算出する3次元位置算出手段と、
前記顔パーツに含まれる両目の3次元位置を視点位置として、前記要素画像を生成する要素画像生成手段と、を備えることを特徴とするインテグラル立体表示システム。
【請求項2】
携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を前記携帯端末に表示するインテグラル立体表示システムであって、
前記携帯端末は、
前記人物の顔画像を撮影する撮影手段と、
前記顔画像から前記人物の顔エリアを検出する顔エリア検出手段と、
少なくとも前記人物の両目が含まれる顔パーツの画像座標を前記顔エリアから検出する顔パーツ検出手段と、
前記顔パーツの画像座標から前記顔パーツの3次元位置を算出する3次元位置算出手段と、
前記要素画像生成装置が生成した要素画像を表示する表示手段と、を備え、
前記要素画像生成装置は、
前記顔パーツに含まれる3次元位置を視点位置として、前記要素画像を生成する要素画像生成手段、を備えることを特徴とするインテグラル立体表示システム。
【請求項3】
前記顔エリア検出手段は、前フレームの前記顔画像から検出された前記顔エリアの周辺を検出領域として、次フレームの前記顔画像から前記顔エリアを検出することを特徴とする請求項1又は請求項2に記載のインテグラル立体表示システム。
【請求項4】
前記要素画像生成手段は、生成した前記要素画像を前記視点位置の正面までシフトさせることを特徴とする請求項1から請求項3の何れか一項に記載のインテグラル立体表示システム。
【請求項5】
前記要素画像生成手段は、前記視点位置に向けて3次元モデルを回転させ、回転させた前記3次元モデルから前記要素画像を生成することを特徴とする請求項1から請求項3の何れか一項に記載のインテグラル立体表示システム。
【請求項6】
携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を前記携帯端末に表示するインテグラル立体表示方法であって、
前記携帯端末が、前記人物の顔画像を撮影する顔画像撮影ステップと、
前記携帯端末が、前記顔画像から前記人物の顔エリアを検出する顔エリア検出ステップと、
前記携帯端末が、少なくとも前記人物の両目が含まれる顔パーツの画像座標を前記顔エリアから検出する顔パーツ検出ステップと、
前記携帯端末又は前記要素画像生成装置が、前記顔パーツの画像座標から前記顔パーツの3次元位置を算出する3次元位置算出ステップと、
前記要素画像生成装置が、前記顔パーツに含まれる両目の3次元位置を視点位置として、前記要素画像を生成する要素画像生成ステップと、
前記携帯端末が、前記要素画像生成装置が生成した要素画像を表示する要素画像表示ステップと、を備えることを特徴とするインテグラル立体表示方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、インテグラル立体表示システム及びその方法に関する。
【背景技術】
【0002】
場所を選ばずに高い臨場感を体験できる映像メディアが望まれている。そのような映像メディアが実現されれば、エンターテイメント、教育、医療など様々な分野に適用することが可能である。高い臨場感を体験できる映像メディアの一つとして、3次元映像が知られている。
【0003】
3次元映像を表示する幾つかの立体方式のうち、実際にそこに物があるのと同じ光線を再現する光線再生立体方式が注目されている。この光線再生立体方式の一つとして、レンズアレイを用いたインテグラル方式が知られている。このインテグラル方式は、液晶ディスプレイなど一般的なディスプレイにレンズアレイを重ねるだけで実現でき、両眼視差と上下左右の運動視差とを再現可能である。
【0004】
近年、スマートフォンやタブレットなどの携帯端末が普及し、映像メディアを携帯端末で視聴することが一般的になりつつある。そこで、携帯端末による高品質な3次元映像の視聴について検討する。インテグラル方式では、3次元映像の解像度、視域及び奥行き再現範囲などの映像品質にトレードオフの関係がある。これら全ての要素を改善するには、表示デバイスの性能を向上させる必要がある一方、携帯端末のような表示デバイスの性能向上には限度がある。
【0005】
そこで、狭い視域を視聴者に追従させることで映像品質を改善できる視点追従技術の適用を検討する(特許文献1、非特許文献1)。以下、携帯端末に視点追従技術を適用したインテグラル方式を「携帯端末型視点追従IP方式」と表記する。例えば、携帯端末型視点追従IP方式では、携帯端末のインカメラで視聴者の視点位置を計測し、その視点位置に絞ってサーバが3次元映像を生成し、その3次元映像を携帯端末で再生する。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2019-213127号公報
【非特許文献】
【0007】
【非特許文献1】岡市他、“8Kディスプレイを用いた視点追従型インテグラル3D映像表示”、映像情報メディア学会冬季大会、23D-3、2018
【発明の概要】
【発明が解決しようとする課題】
【0008】
携帯端末型視点追従IP方式では、サーバと携帯端末との間で視点位置や3次元映像などの各種データを通信する必要がある。さらに、携帯端末型視点追従IP方式では、視聴者の視点位置に応じて要素画像を表示するため、視点位置を計測し、その視点位置に応じた3次元モデルから要素画像を生成する必要もある。携帯端末型視点追従IP方式では、これらの処理をリアルタイムで実行できない場合、遅延によって正しい3次元映像を再生できなくなる。しかし、携帯端末型視点追従IP方式では、携帯端末の処理能力には限度があり、大容量のデータ通信や複雑な演算のリアルタイム処理が困難である。
【0009】
本発明は、通信データ量及び携帯端末の演算処理量を抑制できるインテグラル立体表示システム及びその方法を提供することを課題とする。
【課題を解決するための手段】
【0010】
前記課題を解決するため、本発明に係るインテグラル立体表示システムは、携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を携帯端末に表示するインテグラル立体表示システムであって、携帯端末は、撮影手段と、顔エリア検出手段と、顔パーツ検出手段と、表示手段と、を備え、要素画像生成装置は、3次元位置算出手段と、要素画像生成手段と、を備える構成とした。
【0011】
かかる構成によれば、携帯端末は、撮影手段によって、人物の顔画像を撮影する。また、携帯端末は、顔エリア検出手段によって、顔画像から人物の顔エリアを検出する。そして、携帯端末は、顔パーツ検出手段によって、少なくとも人物の両目が含まれる顔パーツの画像座標を顔エリアから検出する。さらに、携帯端末は、表示手段によって、要素画像生成装置が生成した要素画像を表示する。
【0012】
また、要素画像生成装置は、3次元位置算出手段によって、顔パーツの画像座標から顔パーツの3次元位置を算出する。そして、要素画像生成装置は、要素画像生成手段によって、顔パーツに含まれる両目の3次元位置を視点位置として、要素画像を生成する。
【0013】
また、前記課題を解決するため、本発明に係るインテグラル立体表示システムは、携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を携帯端末に表示するインテグラル立体表示システムであって、携帯端末は、撮影手段と、顔エリア検出手段と、顔パーツ検出手段と、3次元位置算出手段と、表示手段と、を備え、要素画像生成装置は、要素画像生成手段、を備える構成とした。
【0014】
かかる構成によれば、携帯端末は、撮影手段によって、人物の顔画像を撮影する。また、携帯端末は、顔エリア検出手段によって、顔画像から人物の顔エリアを検出する。そして、携帯端末は、顔パーツ検出手段によって、少なくとも人物の両目が含まれる顔パーツの画像座標を顔エリアから検出する。さらに、携帯端末は、3次元位置算出手段によって、顔パーツの画像座標から顔パーツの3次元位置を算出する。さらに、携帯端末は、表示手段によって、要素画像生成装置が生成した要素画像を表示する。
【0015】
また、要素画像生成装置は、要素画像生成手段によって、顔パーツに含まれる両目の3次元位置を視点位置として、要素画像を生成する。
【0016】
また、前記課題を解決するため、本発明に係るインテグラル立体表示方法は、携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を携帯端末に表示するインテグラル立体表示方法であって、顔画像撮影ステップと、顔エリア検出ステップと、顔パーツ検出ステップと、3次元位置算出ステップと、要素画像生成ステップと、要素画像表示ステップと、を備える手順とした。
【0017】
かかる手順によれば、顔画像撮影ステップでは、携帯端末が、人物の顔画像を撮影する。また、顔エリア検出ステップでは、携帯端末が、顔画像から人物の顔エリアを検出する。そして、顔パーツ検出ステップでは、携帯端末が、少なくとも人物の両目が含まれる顔パーツの画像座標を顔エリアから検出する。さらに、3次元位置算出ステップでは、携帯端末又は要素画像生成装置が、顔パーツの画像座標から顔パーツの3次元位置を算出する。
【0018】
また、要素画像生成ステップでは、要素画像生成装置が、顔パーツに含まれる両目の3次元位置を視点位置として、要素画像を生成する。そして、要素画像表示ステップでは、携帯端末が、要素画像生成装置が生成した要素画像を表示する。
【0019】
このように、本発明では、携帯端末が視点位置計測処理を行い、要素画像生成装置が要素画像生成処理を行う。従って、本発明では、顔画像を送受信する必要がないので通信データ量を抑制し、携帯端末で要素画像生成処理を行う必要がないので携帯端末の演算処理量を抑制できる。
【発明の効果】
【0020】
本発明によれば、通信データ量及び携帯端末の演算処理量を抑制することができる。
【図面の簡単な説明】
【0021】
図1】各実施形態に係るインテグラル立体表示システムの概略構成図である。
図2】各実施形態における視点位置計測処理のフローチャートである。
図3】第1実施形態に係るインテグラル立体表示システムの構成を示すブロック図である。
図4】第1実施形態における視点位置計測処理を説明する説明図である。
図5】第1実施形態における顔エリアの検索を説明する説明図である。
図6】(a)及び(b)は、第1実施形態における仮想カメラアレイの移動を説明する説明図である。
図7】第1実施形態における要素画像の生成を説明する説明図である。
図8】第1実施形態に係るインテグラル立体表示システムの動作を示すシーケンス図である。
図9】第2実施形態に係るインテグラル立体表示システムの構成を示すブロック図である。
図10】第2実施形態に係るインテグラル立体表示システムの動作を示すシーケンス図である。
図11】(a)及び(b)は、第3実施形態における要素画像のシフトを説明する説明図である。
図12】第3実施形態において、3次元モデルの回転を説明する説明図である。
【発明を実施するための形態】
【0022】
以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する各実施形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、同一の手段には同一の符号を付し、説明を省略する場合がある。
【0023】
[システム構成の検討]
各実施形態を説明する前に、図1の携帯端末型視点追従インテグラル立体表示システム100を実現するためのシステム構成について検討する。以後、「携帯端末型視点追従インテグラル立体表示システム」を単に「インテグラル立体表示システム」と略記する。
図1に示すように、インテグラル立体表示システム100は、視聴者(人物)αが使用する携帯端末1と、各種データを携帯端末1に提供するサーバ(要素画像生成装置)2とで構成されている。
【0024】
図2に示すように、インテグラル立体表示システム100では、視聴者αの視点位置を計測する視点位置計測処理S1と、要素画像を生成する要素画像生成処理(要素画像生成ステップ)S2と、要素画像を表示する要素画像表示処理(要素画像表示ステップ)S3とが処理が行われる。このインテグラル立体表示システム100では、視点位置計測処理S1と要素画像生成処理S2とを毎フレーム実施する必要がある。
【0025】
なお、視点位置計測処理S1、要素画像生成処理S2及び要素画像表示処理S3の具体的処理内容は、後記する。また、要素画像表示処理S3は、処理負荷が無視できるほど低いので、検討に加えないこととする。また、視点位置計測処理S1と要素画像生成処理S2との周期は一致していることが好ましいが必須ではない。
【0026】
インテグラル立体表示システム100において、携帯端末1とサーバ2との間で視点位置計測処理S1及び要素画像生成処理S2を配分する方法として、2通りが考えらえる。第1の方法では、サーバ2が要素画像の生成に必要な3次元モデルを携帯端末1に送信し、携帯端末1が視点位置計測処理S1と要素画像生成処理S2とを行う。しかし、第1の方法では、3次元モデルを携帯端末1に送信する必要があり、通信データ量が増大すると共に、携帯端末1の処理負荷が非常に高くなる。
【0027】
前記したように、インテグラル立体表示システム100を実現するには、通信データ量及び携帯端末1の演算処理量を抑制する必要がある。第1の方法は、携帯端末1の処理負荷が高すぎるため、1フレームあたりの処理時間が長くなり、視聴時にカクつきなどの違和感が生じてしまう。このように、第1の方法は、視点追従が追い付かず、現実的でない。
【0028】
第2の方法では、処理負荷が大きい要素画像生成処理S2をサーバ2で実行するように、サーバ2と携帯端末1との間で処理を分散することで、携帯端末1の処理負荷を軽減できる。そこで、第2の方法をさらに検討する。
【0029】
図2に示すように、視点位置計測処理S1は、顔画像撮影ステップS10と、顔エリア検出ステップS11と、顔パーツ検出ステップS12と、3次元化ステップ(3次元位置算出ステップ)S13とに細分できる。ここで、携帯端末1で顔画像撮影ステップS10を行い、サーバ2で顔エリア検出ステップS11以後の処理を行う場合を考える。この場合、顔画像を送信するために携帯端末1が符号化処理(例えば、H.264)を行う必要があり、携帯端末1の処理負荷が高くなってしまう。さらに、顔画像は、符号化しても通信データ量が大きいという問題もある。そこで、携帯端末1で顔パーツ検出ステップS12又は3次元化ステップS13までの視点位置計測処理S1を行い、それ以後の処理をサーバ2で行えば、インテグラル立体表示システム100を実現できると考えられる。
【0030】
(第1実施形態)
[インテグラル立体表示システムの構成]
図1を参照し、第1実施形態に係るインテグラル立体表示システム100の構成について説明する。
インテグラル立体表示システム100は、携帯端末1で視聴する視聴者αの視点に追従するように、サーバ2が生成した要素画像を携帯端末1に表示するものである。図1に示すように、インテグラル立体表示システム100は、携帯端末1と、サーバ2とを備える。
【0031】
携帯端末1は、顔パーツ検出ステップS12までの視点位置計測処理S1を行うと共に、要素画像表示ステップS3を行うものである。ここで、携帯端末1は、一般的なスマートフォンやタブレットのディスプレイ面上に、要素画像を表示するためレンズアレイを備える。この他、携帯端末1は、視聴者αの顔画像を撮影するためのインカメラ、サーバ2との間で各種データを通信するための通信機能を備える。なお、携帯端末1は、前記した各機能を備えていれば、スマートフォンやタブレットに限定されない。
【0032】
サーバ2は、3次元化ステップS13及び要素画像生成処理S2を行って要素画像を生成し、生成した要素画像を携帯端末1に送信するものである。本実施形態では、サーバ2は、インターネットなどのネットワークNWに接続されており、携帯端末1との間で各種データを通信可能な一般的なサーバである。
【0033】
[携帯端末の構成]
図3及び図4を参照し、携帯端末1の構成について説明する。
図3に示すように、携帯端末1は、通信手段10と、撮影手段11と、顔エリア検出手段12と、顔パーツ検出手段13と、表示手段14とを備える。
【0034】
通信手段10は、ネットワークNWを介して、サーバ2との間で各種データを通信するものである。具体的には、通信手段10は、視聴者αの顔パーツの画像座標をサーバ2に送信すると共に、要素画像をサーバ2から受信する。例えば、通信手段10は、WiFiやパケット通信など任意の無線通信を用いて、各種データを送受信する。
【0035】
撮影手段11は、図4に示すように、視聴者αの顔画像90を撮影する顔画像撮影ステップS10を行うものである。例えば、撮影手段11としては、スマートフォンやタブレットのインカメラがあげられる。本実施形態では、視聴者αの視点に追従するため、撮影手段11は、リアルタイムで視聴者αの顔画像90を撮影し、撮影した顔画像90をフレーム毎に顔エリア検出手段12に出力する。
【0036】
顔エリア検出手段12は、撮影手段11より入力された顔画像90から視聴者αの顔エリア91を検出する顔エリア検出ステップS11を行うものである。本実施形態では、撮影手段11は、視聴者αの視点に追従するため、既知の手法を用いて、顔画像90の各フレームから顔エリア91を検出する(例えば、参考文献1,2)。そして、顔エリア検出手段12は、検出した顔エリア91を顔パーツ検出手段13に出力する。
【0037】
参考文献1:“OpenCV”,[online],[令和2年12月10日検索],インターネット<URL:https://opencv.org/>
参考文献2:“Dlib”,[online],[令和2年12月10日検索],インターネット<URL:http://dlib.net/>
【0038】
<顔エリアの検出>
以下、顔エリア検出手段12による顔エリア91の検出を詳細に説明する。
顔エリア91の検出は、顔画像90の各フレームで実行するため、高速化が可能である。図5に示すように、あるフレームの顔画像90では、中央で顔エリア91が検出されたこととする。この場合、次フレームの顔画像90では、前フレームの顔エリア91の近傍で顔エリア91が検出できる可能性が高い。このため、顔エリア検出手段12は、前フレームの顔エリア91の周辺を検出領域92として、次フレームの顔画像90から顔エリア91を検出する。つまり、顔エリア検出手段12は、次フレームの顔画像90に設定した検出領域92の範囲内で顔エリア91を検出する。例えば、検出領域92は、前フレームで検出した顔エリア91の縦横を2倍以下で拡大した矩形領域である。このように、顔エリア検出手段12では、検出領域92が顔画像90の全体よりも狭いので、高速化を図ることができる。なお、先頭フレームの場合や顔エリア91の検出に失敗した場合、顔エリア検出手段12は、顔画像90の全体から顔エリア91を検出する。
【0039】
顔パーツ検出手段13は、少なくとも視聴者αの両目が含まれる顔パーツの画像座標93を顔エリア91から検出する顔パーツ検出ステップS12を行うものである。ここで、顔パーツとは、視聴者αの顔を構成する目、鼻、口などのパーツのことである。本実施形態では、顔パーツ検出手段13は、顔エリア検出手段12より入力された顔エリア91から、顔パーツとして、視聴者αの両目、鼻及び口の画像座標を検出する。例えば、顔パーツ検出手段13は、既知の手法で顔パーツを検出できる(例えば、前記参考文献1,2)。図4に示すように、顔パーツ検出手段13が顔パーツを検出すると、顔画像90内で両目などの2次元座標が既知となる。
その後、顔パーツ検出手段13は、通信手段10を介して、検出した顔パーツの画像座標93をサーバ2に送信する。この顔パーツの画像座標93は、両目などの2次元座標値を記述したデータのため、顔画像に比べてデータ量が少ない。
【0040】
なお、サーバ2で後記するPnP問題を解くため、撮影手段(インカメラ)11の内部パラメータやレンズ歪み係数が必要になる。そこで、携帯端末1は、事前にカメラキャリブレーションを行ってパラメータを取得し、サーバ2に送信することが好ましい。例えば、カメラキャリブレーションの手法は参考文献3に記載されている。
【0041】
参考文献3:Z. Zhang, “A flexible new technique for camera calibration”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, No. 11, pp. 1330-1334 (2000)
【0042】
表示手段14は、サーバ2が生成した要素画像を表示する要素画像表示処理S3を行うものである。具体的には、表示手段14は、通信手段10を介して、サーバ2から要素画像を受信し、受信した要素画像を表示する。例えば、表示手段14は、液晶素子や有機EL素子のディスプレイと、そのディスプレイ面上に配置されたレンズアレイとで構成されている(不図示)。
【0043】
[サーバの構成]
図3及び図4を参照し、サーバ2の構成について説明する。
図3に示すように、サーバ2は、通信手段20と、3次元化手段(3次元位置算出手段)21と、要素画像生成手段22と、を備える。
【0044】
通信手段20は、ネットワークNWを介して、携帯端末1との間で各種データを通信するものである。具体的には、通信手段20は、顔パーツの画像座標93を携帯端末1から受信すると共に、要素画像を携帯端末1に送信する。
【0045】
3次元化手段21は、図4に示すように、視聴者αの顔パーツの画像座標93から両目の3次元位置95を算出する3次元化ステップS13を行うものである。まず、3次元化手段21は、通信手段20を介して、携帯端末1から顔パーツの画像座標93を受信する。次に、3次元化手段21は、受信した顔パーツの画像座標93から顔パーツの3次元位置94を算出する(例えば、参考文献4)。具体的には、3次元化手段21は、予め設定した顔パーツの3次元位置と顔パーツの画像座標93とからPnP(Perspective n-Point)問題を解くことで、カメラ座標系で両目を含む顔パーツの3次元位置94を算出する。図4に示すように、両目の3次元位置95は、顔パーツの3次元位置94に含まれており、右目と左目の3次元座標で記述できる。
その後、3次元化手段21は、算出した両目の3次元位置95を要素画像生成手段22に出力する。なお、3次元化手段21は、要素画像の生成に不要なため、両目以外の3次元座標を要素画像生成手段22に出力せずともよい。
【0046】
参考文献4:ディジタル画像処理(改訂新版)、CG-ARTS協会、2015年
【0047】
要素画像生成手段22は、3次元化手段21から入力された両目の3次元位置95を視点位置として、要素画像を生成(レンダリング)する要素画像生成処理S2を行うものである。そして、要素画像生成手段22は、通信手段20を介して、生成した要素画像を携帯端末1に送信する。
【0048】
<要素画像の生成>
図6及び図7を参照し、要素画像生成手段22による要素画像Eの生成を詳細に説明する。本実施形態では、要素画像生成手段22は、立体像の元となる3次元モデルMから要素画像Eのレンダリングを行う。具体的には、要素画像生成手段22は、コンピュータグラフィックス(CG:Computer Graphics)空間内に被写体となる3次元モデルMを配置し、その3次元モデルMを仮想カメラアレイCで撮影する。
【0049】
図6では、仮想カメラアレイCは、水平方向に配列された5台の仮想カメラC~Cで構成されている。全ての仮想カメラC~Cが仮想レンズアレイLに正対して配置され、仮想レンズアレイLの領域が撮影できるように内部パラメータが予め設定されていることとする。
【0050】
このとき、要素画像生成手段22は、視点位置として、視点位置計測処理S1で得られた両目の3次元位置95(図4)の中点Pを仮想カメラアレイCの中心とする。図6(a)に示すように、視聴者αが仮想レンズアレイLに正対しており、仮想レンズアレイLの中心を原点とする仮想レンズアレイ座標系において、両眼の中点Pのx-y座標が共にゼロの状態を基準とする。なお、水平方向をx軸、垂直方向をy軸、奥行き方向をz軸とする。
【0051】
要素画像生成手段22は、この状態から視聴者αが上下左右に動くのに伴い、仮想カメラアレイCも同様に上下左右に移動させる。図6(b)に示すように、視聴者αが左側に動いた場合、要素画像生成手段22は、仮想カメラアレイCを左側に移動させる。さらに視距離が変化した場合、要素画像生成手段22は、視距離Dの変化に応じて、仮想カメラアレイCを前後に移動させる。このとき、要素画像生成手段22は、仮想カメラアレイCの移動に応じて、仮想レンズアレイLの領域を撮影できるように内部パラメータも変更する。そして、要素画像生成手段22は、図7に示すように、仮想カメラアレイCで撮影した多視点画像Vの画素位置を並べ替えることで、要素画像Eを生成する。
【0052】
前記したように、仮想レンズアレイ座標系での両眼の中点Pを仮想カメラアレイCの中心と一致させることが好ましい。その一方、視点位置計測処理S1で得られる3次元位置はインカメラのカメラ座標系で表現されている。仮想レンズアレイ座標系とカメラ座標系との位置関係は平行で距離も近く、両座標系の位置関係の相違は大きな問題とならず、無視してもよい。さらに、予め設定した両座標系のオフセット値を適用し、両座標系の位置関係を調整してもよい。
【0053】
[インテグラル立体表示システムの動作]
図8を参照し、インテグラル立体表示システム100の動作について説明する。
図8に示すように、携帯端末1は、撮影手段11によって、顔画像撮影ステップS10を行う。
携帯端末1は、顔エリア検出手段12によって、顔エリア検出ステップS11を行う。
携帯端末1は、顔パーツ検出手段13によって、顔パーツ検出ステップS12を行い、検出した顔パーツの画像座標93をサーバ2に送信する。
【0054】
サーバ2は、3次元化手段21によって、携帯端末1から顔パーツの画像座標93を受信し、3次元化ステップS13を行う。
サーバ2は、要素画像生成手段22によって、要素画像生成処理S2を行い、生成した要素画像Eを携帯端末1に送信する。
携帯端末1は、表示手段14によって、サーバ2から要素画像を受信し、要素画像生成表示処理S3を行う。
【0055】
[作用・効果]
以上のように、インテグラル立体表示システム100は、携帯端末1が顔パーツ検出ステップS12までの視点位置計測処理S1を行い、サーバ2が要素画像生成処理S2を行う。従って、インテグラル立体表示システム100では、顔画像を送受信する必要がないので通信データ量を抑制し、携帯端末1で要素画像生成処理S2を行う必要がないので携帯端末1の演算処理量も抑制できる。さらに、インテグラル立体表示システム100は、携帯端末1を用いて、外出先でも気軽に視聴者αが立体映像を楽しめるようになり、災害時における迅速かつ効率的な情報取得の役にも立つ。
【0056】
(第2実施形態)
[インテグラル立体表示システムの構成]
図9を参照し、第2実施形態に係るインテグラル立体表示システム100Aの構成について、第1実施形態と異なる点を説明する。
インテグラル立体表示システム100Aでは、携帯端末1Aで3次元化ステップS13を行う点が第1実施形態と異なる。
【0057】
図9に示すように、インテグラル立体表示システム100Aは、携帯端末1Aと、サーバ2Aとを備える。
携帯端末1Aは、3次元化ステップS13を含め、全ての視点位置計測処理S1を行うものである。
サーバ2Aは、要素画像生成装置が要素画像生成処理S2を行うものである。つまり、サーバ2Aは、第1実施形態と異なり、3次元化ステップS13を行わない。
【0058】
[携帯端末の構成]
続いて、携帯端末1の構成について説明する。
図9に示すように、携帯端末1Aは、通信手段10Aと、撮影手段11と、顔エリア検出手段12と、顔パーツ検出手段13と、表示手段14と、3次元化手段(3次元位置算出手段)15とを備える。なお、通信手段10A及び3次元化手段15以外の構成は、第1実施形態と同様のため、説明を省略する。
【0059】
通信手段10Aは、ネットワークNWを介して、サーバ2Aとの間で各種データを通信するものである。具体的には、通信手段10Aは、視聴者αの両眼の3次元位置95をサーバ2Aに送信すると共に、要素画像Eをサーバ2Aから受信する。他の点、通信手段10Aは、第1実施形態と同様のため、これ以上の説明を省略する。
【0060】
3次元化手段15は、第1実施形態と同様、3次元化ステップS13を行うものである。まず、3次元化手段15は、顔パーツ検出手段13より入力された視聴者αの顔パーツの画像座標93から両目の3次元位置95を算出する。そして、3次元化手段15は、通信手段10を介して、視聴者αの両目の3次元位置95をサーバ2Aに送信する。この両目の3次元位置95は、顔画像に比べてデータ量が少ない。
【0061】
[サーバの構成]
続いて、サーバ2Aの構成について説明する。
図9に示すように、サーバ2は、通信手段20Aと、要素画像生成手段22Aと、を備える。
【0062】
通信手段20Aは、ネットワークNWを介して、携帯端末1Aとの間で各種データを通信するものである。具体的には、通信手段20Aは、視聴者αの両眼の3次元位置95を携帯端末1Aから受信すると共に、要素画像を携帯端末1Aに送信する。他の点、通信手段20Aは、第1実施形態と同様のため、これ以上の説明を省略する。
【0063】
要素画像生成手段22Aは、通信手段20Aを介して、携帯端末1Aから視聴者αの両眼の3次元位置95を受信する。そして、要素画像生成手段22Aは、第1実施形態と同様、要素画像生成処理S2を行う。
【0064】
[インテグラル立体表示システムの動作]
図10を参照し、インテグラル立体表示システム100Aの動作について説明する。
図10に示すように、携帯端末1Aは、3次元化手段15によって、3次元化ステップS13を行う。
他の点、インテグラル立体表示システム100Aの動作は、第1実施形態と同様のため、これ以上の説明を省略する。
【0065】
[作用・効果]
以上ように、インテグラル立体表示システム100Aは、携帯端末1Aが全ての視点位置計測処理S1を行い、サーバ2Aが要素画像生成処理S2を行う。従って、インテグラル立体表示システム100Aでは、顔画像を送受信する必要がないので通信データ量を抑制し、携帯端末1Aで要素画像生成処理S2を行う必要がないので携帯端末1Aの演算処理量を抑制できる。さらに、インテグラル立体表示システム100Aは、携帯端末1Aを用いて、外出先でも気軽に視聴者αが立体映像を楽しめるようになり、災害時における迅速かつ効率的な情報取得の役にも立つ。
【0066】
ここで、第1実施形態及び第2実施形態それぞれの利点を説明する。図3のインテグラル立体表示システム100は、3次元化ステップS13をサーバ2で行うので、携帯端末1の演算処理量を大幅に抑制できるという利点がある。これに対し、図9のインテグラル立体表示システム100Aは、両眼の3次元位置95という2点の座標データを送受信するので、通信データ量を大幅に抑制できるという利点がある。
【0067】
(第3実施形態)
以下、第3実施形態に係るインテグラル立体表示システム100Bについて、第1実施形態及び第2実施形態と異なる点を説明する。
【0068】
視点追従では、3次元映像の視域を広げることが可能だが、それ以外の使い方もできる。具体的には、視点追従により、常に正面視点の3次元映像を表示することである。多くの場合、正面視点の3次元映像は、コンテンツの制作者が視聴者αに一番見せたい視点位置の映像と考えられる。インテグラル方式では、視聴者αの見る方向に応じて、立体像の見え方も変化するので、正確に視聴者αが正面を向いていない限り、正面視点の3次元映像を見ることができない。コンテンツの内容や視聴環境によっては、常に正面視点の3次元映像を見たい場合も考えられる。視点位置を正面視点に固定するには、図2の要素画像生成手段22Bが要素画像をレンダリングする際、以下のような処理を加えればよい。その処理方法は2種類あるので順に説明する。
【0069】
<要素画像のシフト>
要素画像生成手段22Bは、生成した要素画像Eを視点位置の正面までシフトさせる。単に正面視点の要素画像Eをレンダリングするだけであれば、仮想カメラアレイCの位置を3次元モデルMの正面に固定すればよい。この場合、図11(a)に示すように、視聴者αの両目の中点Pと3次元モデルMの正面Qとが一致しないので、立体像を表示できない。ここで、3次元モデルMの正面Qは、仮想カメラアレイCの中心となる。このため、要素画像生成手段22は、図11(b)に示すように、レンダリングした後の要素画像Eをシフトさせることで、正面視点の要素画像E´を生成する。図11の例では、視点位置である両目の中点Pが3次元モデルMの正面Qの左側なので、その反対の右側に要素画像Eをシフトさせる。なお、要素画像Eのシフトでは、立体像に歪みが生じる場合がある。
【0070】
以下、要素画像Eのシフト値s´の算出方法を説明する。シフト値s´は、正負の値をとる整数であり、単位が画素である。図11(a)に示すように、仮想レンズアレイLと仮想ディスプレイKとの距離F、仮想レンズアレイ座標系における両眼の中点P=[Px,y,、視距離D=|P|とする。なお、距離Fは、仮想レンズアレイLの焦点距離に等しい。このとき、シフト値sは、以下の式(1)で求められる。
【0071】
【数1】
【0072】
このシフト値sは、単位が距離であるため、仮想ディスプレイKの画素ピッチPを用いて単位を画素に変換する。従って、シフト値s´は、以下の式(2)で表される。なお、round()は、四捨五入する関数である。
【0073】
【数2】
【0074】
つまり、要素画像生成手段22Bは、要素画像Eを生成した後、式(1)及び式(2)でシフト値s´を算出し、シフト値s´だけ要素画像Eをシフトさせた要素画像E´を生成する。なお、要素画像生成手段22Bは、x軸方向と同様、要素画像Eをy軸方向にもシフトさせればよい。また、要素画像生成手段22Bは、シフト後に要素画像Eを表示できない場所が発生しないように、大きなサイズの要素画像Eを予め生成するとよい。
【0075】
<3次元モデルの回転>
要素画像生成手段22Bは、視点位置に向けて3次元モデルMを回転させ、回転させた3次元モデルMから要素画像Eを生成する。図12に示すように、要素画像生成手段22Bは、回転前における3次元モデルMの正面Qが両眼の中点Pに向くように3次元モデルMを回転させる。図12の例では、視点位置である両目の中点Pが回転前における3次元モデルMの正面Qの左側なので、その反対の右側を向くように時計回りで3次元モデルMを回転させる。なお、3次元モデルMの回転では、回転角度θが大きい場合、3次元モデルの一部が仮想レンズアレイLのレンズ面から離れてしまい、ボケてしまうことがある。
【0076】
ここで、3次元モデルMの回転角度θは、以下の式(3)で求められる。つまり、要素画像生成手段22は、式(3)で回転角度θを算出し、算出した回転角度θだけ回転させた3次元モデルMから要素画像Eを生成すればよい。なお、要素画像生成手段22Bは、y軸方向と同様、3次元モデルMをx軸方向にも回転させればよい。
【0077】
【数3】
【0078】
なお、インテグラル立体表示システム100Bでは、視点追従による通常の視聴と正面視点固定の視聴とを任意の方法で切り替えることができる。例えば、インテグラル立体表示システム100Bでは、視聴者αが携帯端末1を操作することで、通常の視聴と正面視点固定の視聴とを切り替えてもよい。
【0079】
[作用・効果]
以上のように、インテグラル立体表示システム100Bは、コンテンツの制作者が視聴者αに一番見せたい正面視点の3次元映像を表示できるので、映像表現の幅が広がり、立体映像の臨場感を向上させることができる。
【0080】
(変形例)
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
【0081】
視点位置計測処理では、撮影範囲を広くするために広角で撮影することが多く、レンズ歪みの影響が非常に大きくなる。そこで、インテグラル立体表示システムでは、このレンズ歪みを除去することで、両眼の3次元位置の精度を向上させることができる。具体点には、このレンズ歪みを除去するタイミングとしては、顔画像撮影ステップと、顔パーツ検出ステップとが考えられる。レンズ歪みが強く顔エリアを正しく検出できない場合、顔画像撮影ステップでレンズ歪みを検出すればよい。例えば、前記参考文献1に記載の「undistort()関数」を用いて、顔画像全体のレンズ歪みを除去できる。また、顔パーツ検出ステップでは、前記参考文献1に記載の「undistortPoints()関数」を用いることで、顔画像中の点単位でレンズ歪みを除去し、演算処理量を抑制できる。
【0082】
インテグラル立体表示システムでは、携帯端末のタッチパネル操作をサーバに送信することで、視点位置を変更することなく3次元モデルを様々な角度から閲覧できるようになる。例えば、インテグラル立体表示システムは、ピンチイン・アウトに応じて3次元モデルの拡大又は縮小した後、要素画像を生成すればよい。また、インテグラル立体表示システムでは、上下左右のスワイプに応じて3次元モデルを回転させ後、要素画像を生成すればよい。
【符号の説明】
【0083】
1,1A 携帯端末
2,2A サーバ(要素画像生成装置)
10,10A 通信手段
11 撮影手段
12 顔エリア検出手段
13 顔パーツ検出手段
14 表示手段
15 3次元化手段(3次元位置算出手段)
20,20A 通信手段
21 3次元化手段(3次元位置算出手段)
22,22A,22B 要素画像生成手段
90 顔画像
91 顔エリア
92 検出領域
93 顔パーツの画像座標
94 顔パーツの3次元位置
95 両目の3次元位置
100,100A,100B インテグラル立体表示システム
E 要素画像
NW ネットワーク
P 中点
V 多視点画像
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12