IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社ティーアンドエスの特許一覧

特開2022-96096映像配信方法及びそのためのプログラム
<>
  • 特開-映像配信方法及びそのためのプログラム 図1
  • 特開-映像配信方法及びそのためのプログラム 図2
  • 特開-映像配信方法及びそのためのプログラム 図3A
  • 特開-映像配信方法及びそのためのプログラム 図3B
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022096096
(43)【公開日】2022-06-29
(54)【発明の名称】映像配信方法及びそのためのプログラム
(51)【国際特許分類】
   H04N 21/2365 20110101AFI20220622BHJP
   H04N 21/4402 20110101ALI20220622BHJP
   H04N 7/18 20060101ALI20220622BHJP
   H04N 13/194 20180101ALI20220622BHJP
   H04N 13/178 20180101ALI20220622BHJP
   H04N 13/271 20180101ALI20220622BHJP
   G06F 13/00 20060101ALI20220622BHJP
   G06T 19/00 20110101ALI20220622BHJP
【FI】
H04N21/2365
H04N21/4402
H04N7/18 A
H04N13/194
H04N13/178
H04N13/271
G06F13/00 560A
G06F13/00 550A
G06T19/00 A
【審査請求】有
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2020209013
(22)【出願日】2020-12-17
(71)【出願人】
【識別番号】515286195
【氏名又は名称】株式会社ティーアンドエス
(74)【代理人】
【識別番号】110002169
【氏名又は名称】彩雲国際特許業務法人
(72)【発明者】
【氏名】稲葉 繁樹
(72)【発明者】
【氏名】松山 周平
【テーマコード(参考)】
5B050
5B084
5C054
5C061
5C164
【Fターム(参考)】
5B050BA09
5B050BA13
5B050CA07
5B050CA08
5B050DA04
5B050EA07
5B050EA13
5B050EA18
5B050EA19
5B050EA27
5B050EA28
5B050FA02
5B050FA09
5B084AA01
5B084AA12
5B084AB07
5B084AB31
5B084BA09
5B084BB17
5B084CB06
5B084CB22
5B084CF12
5B084DB01
5B084DC02
5B084DC03
5B084DC13
5C054DA09
5C054EA01
5C054EA03
5C054EA05
5C054EJ05
5C054FC14
5C054FD02
5C054FD03
5C054FE05
5C054FE06
5C061AB08
5C061AB10
5C061AB12
5C164FA06
5C164PA31
5C164SA25S
5C164SB13P
5C164SD12S
5C164UB02P
5C164UB11S
5C164UB82S
5C164UD44S
(57)【要約】
【課題】大掛かりな機材や特別な配信インフラを使用しなくとも三次元映像のライブ配信を可能とする映像配信方法を提供する。
【解決手段】電気通信回線を通じて、配信端末2から配信サーバ3を介して視聴端末へと三次元映像のライブ配信を行う映像配信方法において、配信端末2によって実行される映像作成工程Sを含むものとし、映像作成工程Sを、複数の距離画像センサ機器5より、カラー画像と、深度画像と、を取得する工程S12と、撮影機器6より、原映像を取得する工程S10と、少なくとも該カラー画像、該深度画像及び該原映像を統合し、配信映像を作成する工程S1Bと、該配信映像を配信サーバ3に送信する工程S1Cと、を有しているものとする。
【選択図】図3A
【特許請求の範囲】
【請求項1】
電気通信回線を通じて、配信端末から配信サーバを介して視聴端末へと三次元映像のライブ配信を行う映像配信方法であって、
該配信端末によって実行される映像作成工程を含み、
該映像作成工程は、
複数の距離画像センサ機器より、カラー画像と、深度画像と、を取得する工程と、
撮影機器より、原映像を取得する工程と、
少なくとも該カラー画像、該深度画像及び該原映像を統合し、配信映像を作成する工程と、
該配信映像を該配信サーバに送信する工程と、を有していることを特徴とする映像配信方法。
【請求項2】
前記視聴端末によって実行される映像復元工程を更に含み、
該映像復元工程は、
前記距離画像センサ機器の内部パラメータを取得する工程と、
前記配信映像を前記配信サーバから受信する工程と、
少なくとも該内部パラメータ及び該配信映像の深度値により、該配信映像を、三次元点群データを復元する工程と、を有していることを特徴とする請求項1に記載の映像配信方法。
【請求項3】
前記映像復元工程は、前記配信映像の隣接画素の深度値を比較して、ノイズ除去を行う工程を更に有することを特徴とする請求項2に記載の映像配信方法。
【請求項4】
前記映像復元工程は、前記視聴端末のグラフィック処理装置(GPU)を用いて行われる請求項2又は3に記載の映像配信方法。
【請求項5】
前記映像復元工程は、
前記三次元点群データをワールド座標系に変換するための変換行列を取得する工程と、
該変換行列により、該三次元点群データをワールド座標系に変換する工程を、更に有することを特徴とする請求項2乃至4の何れかに記載の映像配信方法。
【請求項6】
前記内部パラメータは、歪み係数を含んでおり、
前記映像復元工程は、該歪み係数より、該配信映像の歪みを補正する工程を、更に有することを特徴とする請求項2乃至5の何れかに記載の映像配信方法。
【請求項7】
少なくとも複数の距離画像センサ機器より取得したカラー画像及び深度画像と、撮影機器より取得した原映像と、演出制御機器より取得した演出情報と、を統合し、配信映像を作成する工程を、電子情報端末に実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像配信方法及びそのためのプログラムに関し、より詳細には、三次元映像のライブ配信を行う映像配信方法及びそのためのプログラムに関する。
【背景技術】
【0002】
従来、インターネット等の電気通信回線を通じて、スタジオやライブハウス等の映像をリアルタイムに配信を行う、いわゆる、ライブ配信が行われている(例えば、特許文献1を参照)。この様なライブ配信は、スタジオやライブハウス等に設置されたカメラに撮影された映像が、配信サーバを介して視聴者が有する端末(例えば、パソコンやスマートフォン等)に配信される様になっている。
【0003】
又、この様なライブ配信は、複数のカメラを設置し、同時に異なる視点での映像を配信し、視聴者が、どのカメラの映像を視聴するかを選択可能とすることで、視聴者は、望む視点での映像を視聴することが可能となっている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2011-103522号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
従来のライブ配信は、配信される映像が、二次元映像であるため、視聴者が異なる視点での映像を選択して視聴可能といっても、その視点は、カメラの設置場所に依存することとなり、必ずしも視聴者の望む視点で視聴できるものでなかった。
【0006】
配信される映像を三次元映像とすることで、視聴者が任意の視点での視聴が可能となり、この様な問題は解決されるが、通常、そのためには、大掛かりな機材や専用の配信サーバ等の特別な配信インフラが求められるという新たな問題を生じることとなる。
【0007】
そこで、本発明は、大掛かりな機材や特別な配信インフラを使用しなくとも三次元映像のライブ配信を可能とする映像配信方法を提供することを目的とする。
【課題を解決するための手段】
【0008】
本発明は、電気通信回線を通じて、配信端末から配信サーバを介して視聴端末へと三次元映像のライブ配信を行う映像配信方法であって、該配信端末によって実行される映像作成工程を含み、該映像作成工程は、複数の距離画像センサ機器より、カラー画像と、深度画像と、を取得する工程と、撮影機器より、原映像を取得する工程と、少なくとも該カラー画像、該深度画像及び該原映像を統合し、配信映像を作成する工程と、該配信映像を該配信サーバに送信する工程と、を有していることを特徴とする映像配信方法である。
【0009】
又、本発明は、前記映像配信方法において、前記視聴端末によって実行される映像復元工程を更に含み、該映像復元工程は、前記距離画像センサ機器の内部パラメータを取得する工程と、前記配信映像を前記配信サーバから受信する工程と、少なくとも該内部パラメータ及び該配信映像の深度値により、該配信映像を、三次元点群データを復元する工程と、を有していることを特徴とする映像配信方法である。
【0010】
又、本発明は、少なくとも複数の距離画像センサ機器より取得したカラー画像及び深度画像と、撮影機器より取得した原映像と、演出制御機器より取得した演出情報と、を統合し、配信映像を作成する工程を、電子情報端末に実行させるプログラムである。
【0011】
尚、本発明は、前記映像復元工程が、前記配信映像の隣接画素の深度値を比較して、ノイズ除去を行う工程を更に有するものとすることが可能である。又、本発明は、前記映像復元工程を、前記視聴端末のグラフィック処理装置(GPU)を用いて行うことが可能である。又、本発明は、前記映像復元工程が、前記三次元点群データをワールド座標系に変換するための変換行列を取得する工程と、該変換行列により、該三次元点群データをワールド座標系に変換する工程を、更に有するものとすることが可能である。又、本発明は、前記内部パラメータを、歪み係数を含むものとし、前記映像復元工程を、該歪み係数より、該配信映像の歪みを補正する工程を、更に有するものとすることが可能である。
【発明の効果】
【0012】
本発明は、配信映像を作成する際に、複数の距離画像センサ機器を用い、少なくともカラー画像、深度画像、原映像及び演出情報を統合し、配信映像を作成することにより、配信サーバの役割を視聴端末への映像の配信のみにすることが可能であるので、大掛かりな機材や特別な配信インフラを使用しなくとも三次元映像のライブ配信が可能となっている。
【図面の簡単な説明】
【0013】
図1】本発明の実施形態のブロック図である。
図2】本発明の実施形態における距離画像センサ機器の配置例を示す略図である。
図3A】本発明の実施形態のフロー図であり、映像作成工程のフロー図である。
図3B】本発明の実施形態のフロー図であり、映像復元工程のフロー図である。
【発明を実施するための形態】
【0014】
本発明の実施形態を図1乃至図3に基づき説明する。本実施形態に係る映像配信方法は、インターネット等の電気通信回線1を通じて、配信端末2から配信サーバ3を介して視聴端末4へと三次元映像のライブ配信を行うためのものである。先ず、本実施形態で用いられる機器について説明する。
【0015】
配信端末2は、パソコンやサーバ等の電子情報端末であり、映像の配信者側、例えば、スタジオやライブハウス等(以下、撮影場所という)に設置され、配信用の映像(以下、配信映像という)を作成すると共に配信サーバ3に該配信映像を送信するために用いられる。本実施形態において、配信端末2は、後述する変換行列の推定にも用いられる。
【0016】
配信端末2には、複数の距離画像センサ機器5(以下、センサ機器5という)と、撮影機器6と、演出制御機器7と、が接続されており、後述する映像作成工程を実行するために必要なソフトウェア(アプリケーションともいう)、例えば、映像統合ソフト8や配信用ソフト9、がインストールされている。
【0017】
センサ機器5は、三次元映像を作成するために必要なカラー画像と、深度画像(デプス画像ともいい、深度値を濃淡や色で表示した画像をいう)とを取得するために設けられている。センサ機器5は、カラー画像、例えば、RGB画像を撮影する撮像部10と、被撮影者との距離や位置を測定し、該深度値を決定するための深度センサ11とから構成される距離画像センサ12を有している。センサ機器5としては、様々な公知のものを採用することが可能であり、例えば、マイクロソフト社製Kinect(登録商標)を用いることが可能である。
【0018】
センサ機器5の配置される数や位置等は、前記撮影場所にある撮影舞台13の形状や面積等に応じて、適宜選択可能であり、例えば、撮影舞台13の前方に配置することが可能であり、センサ機器5として、マイクロソフト社製Kinect(登録商標)を用いる場合、奥行き約3mの撮影舞台13に対して、約0.5mの位置に約0.9m乃至1.5mの間隔で配置される(図2(a)を参照)。又、撮影舞台13を囲むようにセンサ機器5を配置することも可能であり、この場合、撮影舞台13の四方(図2(b)を参照)や撮影舞台13に対して略扇形(図2(c)を参照)に配置することができる。センサ機器5として、マイクロソフト社製Kinect(登録商標)を用いる場合、前者の配置で、約3.5m四方の範囲を、後者で約2.5m×8mの範囲をカバーすることが可能である。
【0019】
撮影機器6は、ライブ配信を行う映像を撮影するために設けられている(撮影機器6により撮影された映像を、以下、原映像と表記する)。撮影機器6としては、一般的に、映像の撮影に用いられるビデオカメラ等の公知の撮影機材を用いることが可能である。本実施形態においては。撮影機器6は、前記撮影場所に備え付けられているものとなっている。尚、撮影機器6の配置等は、適宜選択することが可能であり、通常の映像と同様に撮影される。
【0020】
演出制御機器7は、モーションエフェクト等の映像における演出を制御するために設けられており、該演出に関する演出情報を信号(以下、演出情報信号という)として、配信端末2に送り、該演出情報信号を前記配信映像に組み込みために設けられている。演出制御機器7としては、様々な公知のものを適宜採用可能であるが、例えば、市販のMidiコントローラーが採用可能である。
【0021】
配信サーバ3は、視聴端末4に前記配信映像を配信するために用いられる。配信サーバ3は、後述する映像作成工程によって、前記配信映像を作成することで、配信サーバ3の役割を該配信映像の視聴端末4への配信のみにすることが可能であるので、既存の動画共有サイト(例えば、Youtube(登録商標)等)を利用することが可能である。尚、専用の配信サーバを用意して、既存の動画共有サイトを利用しない様にすることも当然に可能である。
【0022】
視聴端末4は、パソコンや、タブレット、スマートフォンといった電子情報端末であり、視聴者が配信映像を視聴するために用いられるソフトウェア(以下、視聴アプリ14という)がインストールされている。視聴端末3は、必要に応じて、ヘッドマウントディスプレイやVRゴーグルといった視聴機器(図示せず)に接続又は格納される。視聴アプリ14は、専用のものでもよいし、ウェブブラウザの様な汎用のものを利用することも可能である。
【0023】
次に、本実施形態における映像配信方法について説明する。該映像配信方法は、配信端末2で実行される映像作成工程S及び視聴端末4で実行される映像復元工程Sを含んでいる。
【0024】
<映像作成工程>
(1-A)配信端末2には、センサ機器5、撮影機器6及び演出制御機器7より、逐次的に、前記カラー画像、前記深度画像、前記原映像及び前記演出情報(以下、被統合データという)が、送られ(S10乃至S12)、これらデータが配信端末2によって取得される(S1A)。
【0025】
(1-B)配信端末2にインストールされた映像統合ソフト8によって、配信端末2が取得した前記被統合データを、順次、1つの映像ファイルへと統合し、前記配信映像を作成する(S1B)。つまり、本実施形態においては、該配信映像には、前記被統合データの有する情報が含まれていることとなる。尚、統合される該被統合データは、上記のデータに限られるものではなく、必要に応じて、他のデータを追加することが可能である。
【0026】
(1-C)作成された前記配信映像を配信ソフト9によって配信サーバ3に順次送信する(S1C)。配信サーバ3に送信された前記配信映像は、順次、視聴端末4に配信される。尚、通常、電気通信回線1の負荷(帯域利用量の増大等)の軽減のため、該配信映像は圧縮されてやり取りされる。
【0027】
<映像復元工程>
(2-A)映像復元工程Sの前段階として、配信端末2は、センサ機器5の内部情報、例えば、焦点距離、主点や歪み係数、を取得する(S20)。又、配信端末2は、3Dデータ処理ライブラリを使用して、工程S1Aで取得した各前記カラー画像及び前記深度画像について、深度と色とを対応させる位置合わせを行い、後述する工程において、ローカル座標系をワールド座標系に変換するために必要な変換行列、例えば、回転行列や平行移動行列、を推定する(S21)。尚、該3Dデータ処理ライブラリは、既存のものを適宜採用することが可能である。又、工程S20及び工程S21の順番は、説明の便宜上のものであり、どちらが先に処理されてもよく、又、並列に処理されてもよい。
【0028】
その後、前記内部情報及び前記変換行列は、配信端末2によって、視聴端末4に送信される(S22)。これによって、視聴端末4は、該内部情報及び該変換行列を取得し、前記視聴アプリ14にその値が設定される(S2A)。尚、工程S22は、配信端末2から視聴端末4に直接送信する様にしてもよいが、一旦、配信サーバ3その他のサーバに該内部情報及び該変換行列を記録しておき、視聴端末4が該サーバから取得する様にしてもよい。
【0029】
尚、上記各工程S20,S21,S22,S2Aを行うタイミングは、下記各工程S2C,S2E,S2Fに支障のでない範囲で適宜設定可能であり、前記配信映像を視聴端末4に配信する前であっても、前記配信映像を視聴端末4に配信した後であっても何方でもよい。
【0030】
(2-B)視聴端末4は、配信サーバ3より、前記配信映像を受信する(S2B)。
【0031】
(2-C)視聴アプリ14に設定された前記歪み係数を用いて、前記配信映像の歪みを補正する(S2C)。
【0032】
(2-D)前記配信映像の隣接画素の前記深度値を比較して、後述の該配信映像を三次元点群データに復元する際に妨げとなるノイズの除去を行う(S2D)。該ノイズは、該配信映像が圧縮されることにより生じるものである。
【0033】
(2-E)前記配信映像より得られる前記深度値及び配信映像の画面サイズ並びに視聴アプリ14に設定された前記焦点距離及び前記主点により、前記配信映像をローカル座標系での三次元点群データに復元する(S2E)。
【0034】
(2-F)視聴アプリ14に設定された前記変換行列により、前記三次元点群データをローカル座標系から、ワールド座標系へと変換する(S2F)。
【0035】
(2-G)前記配信映像より、前記演出情報を読み取り、前記三次元点群データにモーションエフェクト等の演出効果を適用する。この様にすることで、本実施形態においては、該演出効果は、前記配信者より全ての前記視聴者が視聴する配信映像に略同じタイミングで適用することが可能となる(S2G)。
【0036】
映像復元工程Sは、視聴端末4の中央処理装置(CPU)15だけではなく、グラフィック処理装置(GPU)16を併用して処理されるのは好ましい。この様にすることで、より高速で前記配信映像を前記三次元点群データに復元することが可能となる。
【0037】
本実施形態においては、映像作成工程Sを採用することで、配信サーバ3の役割を前記配信映像の視聴端末4への配信のみにすることが可能となっており、既存の動画共有サービスを利用することができ、自前のサーバを用意する必要がないようになっている。
【0038】
そして、前記撮影場所には、撮影機器6は、通常、備え付けられているので、実質的に、比較的容易に入手可能な配信端末2と、センサ機器5と、を用意すれば、三次元映像のライブ配信を行うことが可能となっている。従って、本実施形態においては、大掛かりな機材や特別な配信インフラを使用しなくとも三次元映像のライブ配信が可能となっている。
【0039】
本発明を、上記実施形態に基づき説明したが、本発明は、上記実施形態に限定されるものではなく、発明の要旨を変更しない範囲で適宜変更可能である。例えば、上記実施形態においては、前記変換行列の推定する工程S21は、配信用端末2を用いて行ったが、配信端末2以外の電子情報端末を用いてもよく、又、センサ機器5そのものに中央処理装置(CPU)等の処理能力を持たせて処理を行わせる様にすることも可能である。
【符号の説明】
【0040】
1 電気通信回線 2 配信端末 3 配信サーバ
4 視聴端末 5 距離画像センサ機器 6 撮影機器
7 演出制御機器 8 映像統合ソフト 9 配信用ソフト
10 撮像部 11 深度センサ 12 距離画像センサ
13 撮影舞台 14 視聴アプリ 15 中央処理装置
16 グラフィック処理装置 S 工程
図1
図2
図3A
図3B