(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022036376
(43)【公開日】2022-03-08
(54)【発明の名称】AR動画再生システム
(51)【国際特許分類】
H04N 21/43 20110101AFI20220301BHJP
H04N 21/436 20110101ALI20220301BHJP
H04N 21/44 20110101ALI20220301BHJP
G06F 13/00 20060101ALI20220301BHJP
【FI】
H04N21/43
H04N21/436
H04N21/44
G06F13/00 550A
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2020140542
(22)【出願日】2020-08-24
(71)【出願人】
【識別番号】501379889
【氏名又は名称】株式会社イメージソース
(74)【代理人】
【識別番号】230122390
【弁護士】
【氏名又は名称】石原 一樹
(72)【発明者】
【氏名】吉井 正宣
(72)【発明者】
【氏名】石川 達哉
【テーマコード(参考)】
5B084
5C164
【Fターム(参考)】
5B084AA01
5B084AA02
5B084AA05
5B084AA12
5B084AB31
5B084BA03
5B084BB04
5B084CA07
5B084CB06
5B084CB24
5B084CD25
5B084DB01
5B084DC02
5B084DC13
5B084EA47
5C164FA06
5C164TB31S
5C164UA02S
5C164UA04S
5C164UA42S
5C164UB01P
5C164UB04P
5C164UB36S
5C164UB71P
(57)【要約】 (修正有)
【課題】再生される動画と、同期するAR画像との間その同期のずれを極力抑制する動画再生システムを提供する。
【解決手段】AR動画再生システム100は、基準時刻を管理する時間管理部を有するタイムサーバ(配信サーバ)と、PC及びスマートフォンにおける端末時刻情報を取得し、タイムサーバから基準時刻を取得して、端末時刻情報との差分を算出して推定端末時刻を算出する推定端末時刻算出部を有するスマートフォン30と、PC及びスマートフォン内で同時に再生が開始される再生開始時刻を設定する再生時刻管理部を有するPC20と、を備える。動画再生部は、PCにおける推定端末時刻が再生開始時刻になった際に、動画の第1表示部における再生を開始し、AR再生部は、スマートフォンにおける推定端末時刻が再生開始時刻になったときにAR画像の第2表示部における再生を開始する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
再生された動画と連動するAR画像を動画とともに再生可能なAR動画再生システムであって、
動画を再生可能な第1の表示部と、ストリーミング形式で配信された動画、またはダウンロードされた動画を前記第1の表示部に表示させる動画再生部と、を有する第1の情報端末と、
前記第1の情報端末で再生されている動画を撮影することで、自らの端末上の第2の表示部において、撮影している動画と同期した前記AR画像を表示させるAR再生部を有する第2の情報端末と、
前記第1及び第2の情報端末をペアリングするペアリング部と、基準時刻を管理する時間管理部を有するタイムサーバと、
前記第1及び第2の情報端末における端末内の端末時刻情報を取得し、タイムサーバから推定基準時刻を取得して、前記端末時刻情報との差分を算出して推定端末時刻を算出する推定端末時刻算出部と、
前記前記第1、及び第2の情報端末内で同時に再生が開始される再生開始時刻を設定する再生時刻管理部と、
を備えるとともに、
前記動画再生部は、前記第1の情報端末における前記推定端末時刻が前記再生開始時刻になった際に動画の前記第1の表示部における再生を開始し、
前記AR再生部は、前記第2の情報端末における前記推定端末時刻が前記再生開始時刻になったときに前記AR画像の前記第2の表示部における再生を開始する
ことを特徴とするAR動画再生システム。
【請求項2】
前記第2の情報端末は、
前記第1の表示部で再生中の動画をその途中から撮影を開始した場合に、前記再生開始時刻からの経過時間を算出する経過時間取得部と、
をさらに備え、
前記AR再生部は、前記推定端末時刻が、前記再生開始時刻から前記経過時間が過ぎた時点の前記AR画像の再生を開始する
ことを特徴とする請求項1に記載のAR動画再生システム。
【請求項3】
前記動画再生部は、ストリーミング形式で配信された動画を再生するものであって、
配信する動画内に動画を撮影時点における撮影時刻をエンコードする時刻エンコーディング部と、
前記第1の表示部にて前記動画を再生時に、エンコーディングされた前記撮影時刻をデコードするデコード部と、再生が開始された時点での第1の情報端末の前記推定端末時刻と前記撮影時刻とのずれを検出して、その再生の遅延時間を算出する遅延時間算出部と、
をさらに備え、
前記再生時刻管理部は、前記タイムサーバから通知された基準再生開始時刻に算出された前記遅延時間を加味して前記再生開始時刻を設定する
ことを特徴とする請求項1又は2に記載のAR動画再生システム。
【請求項4】
前記動画再生部は、ダウンロード形式で配信された動画を再生するものであって、
前記再生時刻管理部は、前記第1の情報端末において、前記動画の再生が開始されたことをトリガーに前記再生開始時刻を設定し、前記タイムサーバを介して前記第2の情報端末に対して前記再生開始時刻を通知する
ことを特徴とする請求項1または2に記載のAR動画再生システム。
【請求項5】
前記再生時刻管理部は、前記第1の情報端末に設けられ、前記再生開始時刻を設定後、前記タイムサーバを介して前記第2の端末に前記再生開始時刻を通知する
ことを特徴とする請求項3に記載のAR動画再生システム。
【請求項6】
前記再生時刻管理部は、前記第2の情報端末に設けられ、
前記遅延時間算出部は、前記遅延時間を前記タイムサーバを介して前記第2の情報端末に対して通知し、
前記再生時刻管理部は、通知された前記遅延時間と前記基準再生開始時刻から前記推定再生時間を設定する
ことを特徴とする請求項3に記載のAR動画再生システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、AR動画再生システムに関する。
【背景技術】
【0002】
従来、PCのディスプレイやデジタルサイネージなどで再生される動画をスマートフォンで撮影することで、その動画に連動する形でAR画像をスマートフォン上に表示させる技術が知られている。例えば、非特許文献1に記載の技術であれば、再生される動画内に電子透かしを埋め込み、スマートフォンなどで読み込んだ際に電子透かしと対応するクーポンや演出が表示されるようになっている。電子透かしの形態としては、動画の4辺に細い枠が設定されており、スマートフォンをかざすと、まずこの領域が検出される。次いで、この検出された領域からIDを暗号化したデータが読みだされ、IDと対応するデータにアクセスすることで、画面上に任意の演出等の表示が可能となる。この技術では、読み込みをしてから約1秒ほどで表示が可能となっており、ユーザーに対して動画と同期する様々なARの表示態様を提供することができる。
【先行技術文献】
【特許文献】
【0003】
【非特許文献1】NTTメディアインテリジェンス研究所「見えない透かしが映像と情報をつなぐ:モバイル動画透かし技術」
【発明の概要】
【発明が解決しようとする課題】
【0004】
例えば広告やクーポンのようなARを対象とする場合、動画とARとの間に多少のずれがあってもそれほど問題とならないため、上記の技術で対応が可能である。一方、音楽ライブや演劇などを対象にこのAR同期技術を用いる場合、映像と演出のARとの間に少しでもずれがあると、その演出の正確性を損なってしまうため好ましくない。本発明は、このような課題に対するものであり、再生される動画と、同期するAR画像との間で、その同期のずれを極力抑制することを目的とするものである。
【課題を解決するための手段】
【0005】
上記課題を解決するために、第1の発明は、再生された動画と連動するAR画像を動画とともに再生可能なAR動画再生システムであって、動画を再生可能な第1の表示部と、ストリーミング形式で配信された動画、またはダウンロードされた動画を前記第1の表示部に表示させる動画再生部と、を有する第1の情報端末と、前記第1の情報端末で再生されている動画を撮影することで、自らの端末上の第2の表示部において、撮影している動画と同期した前記AR画像を表示させるAR再生部を有する第2の情報端末と、前記第1及び第2の情報端末をペアリングするペアリング部と、基準時刻を管理する時間管理部を有するタイムサーバと、前記第1及び第2の情報端末における端末内の端末時刻情報を取得し、タイムサーバから基準時刻を取得して、前記端末時刻情報との差分を算出して推定端末時刻を算出する推定端末時刻算出部と、前記前記第1、及び第2の情報端末内で同時に再生が開始される再生開始時刻を設定する再生時刻管理部と、を備える。
【0006】
そして、前記第1の情報端末は、前記動画再生部は、前記第1の情報端末における前記推定端末時刻が前記再生開始時刻になった際に動画の前記第1の表示部における再生を開始し、前記AR再生部は、前記第2の情報端末における前記推定端末時刻が前記再生開始時刻になったときに前記AR画像の前記第2の表示部における再生を開始することを特徴とする。
【0007】
第2の発明は、請求項1に記載のAR動画再生システムにおいて、前記第2の情報端末は、前記第1の表示部で再生中の動画をその途中から撮影を開始した場合に、前記再生開始時刻からの経過時間を算出する経過時間取得部と、をさらに備え、前記AR再生部は、前記推定端末時刻が、前記再生開始時刻から前記経過時間が過ぎた時点の前記AR画像の再生を開始することを特徴とする。
【0008】
第3の発明は、請求項1または2に記載のAR動画再生システムにおいて、前記第2の情報端末は、前記第1の表示部で再生中の動画をその途中から撮影を開始した場合に、ペアリングされている前記第1の情報端末で再生されている動画の現在の再生開始からの経過時間を前記再生時刻管理部から取得する経過時間取得部と、をさらに備え、前記AR再生部は、取得した前記経過時間における前記AR画像の再生を開始することを特徴とする。
【0009】
第4の発明は、請求項1または2に記載のAR動画再生システムにおいて、前記動画再生部は、ダウンロード形式で配信された動画を再生するものであって、前記再生時刻管理部は、前記第1の情報端末において、前記動画の再生が開始されたことをトリガーに前記再生開始時刻を設定し、前記タイムサーバを介して前記第2の情報端末に対して前記再生開始時刻を通知することを特徴とする。
【0010】
第5の発明は、請求項3に記載のAR動画再生システムにおいて、前記再生時刻管理部は、前記第1の情報端末に設けられ、前記再生開始時刻を設定後、前記タイムサーバを介して前記第2の端末に前記再生開始時刻を通知することを特徴とする。
【0011】
第6の発明は、請求項3に記載のAR動画再生システムにおいて、前記再生時刻管理部は、前記第2の情報端末に設けられ、前記遅延時間算出部は、前記遅延時間を前記タイムサーバを介して前記第2の情報端末に対して通知し、前記再生時刻管理部は、通知された前記遅延時間と前記基準再生開始時刻から前記推定再生時間を設定することを特徴とする。
【発明の効果】
【0012】
本発明のAR動画再生システムによれば、動画の再生とAR画像の表示との間のずれを極力抑えて同期させることができるようになる。
【図面の簡単な説明】
【0013】
【
図1】第1の実施形態のAR動画再生システムの利用態様を示す概要図である。
【
図2】第1の実施形態のAR動画再生システムの機能構成を示すブロック図である。
【
図3】第1の実施形態のAR動画再生システムにおけるAR画像システムの処理の流れを示すシーケンス図である。
【
図4】第1の実施形態のAR動画再生システムの動画に埋め込まれたAR画像同期のための電子透かしを示すイメージ図である。
【
図5】第1の実施形態のユーザーPCにおける動画再生の処理の流れを示すフロー図である。
【
図6】第1の実施形態の情報端末における端末時刻の遅延の調整にかかる処理の流れを示すフロー図である。
【
図7】第1の実施形態のスマートフォンにおけるAR画像の再生処理の流れを示すフロー図である。
【
図8】第2の実施形態のAR動画再生システムの機能構成を示すブロック図である。
【
図9】第2の実施形態のAR動画再生にかかる処理の流れを示すフロー図である。
【
図10】第2の実施形態のAR動画再生にかかる処理の流れを示すフロー図である。
【
図11-1】第2の実施形態におけるPC、スマートフォンの両方で遅延がなかった場合の動画、ARの再生を行った場合を示すシーケンス図である。
【
図11-2】第2の実施形態においてPCの端末時刻が早くなっている場合の動画、ARの再生を行った場合を示すシーケンス図である。
【
図11-3】第2の実施形態においてスマートフォンの端末時刻が早くなっている場合の動画、ARの再生を行った場合を示すシーケンス図である。
【発明を実施するための形態】
【0014】
以下、本発明を具体的に記した実施の形態について図を参照して説明する。
図1は、本発明のAR動画再生システムの利用態様を示す図である。
図1に示されるように、AR動画再生システムは、ライブや演劇といったライブパフォーマンスをビデオカメラ2によって撮影し、配信サーバ10を通じてインターネット配信することを想定しているものである。ビデオカメラ2によって撮影された動画は、配信事業者によって配信サーバにアップロードされる。ユーザーはこの配信サーバにアクセスし、アップロードされた動画をダウンロード形式、またはストリーミング形式で視聴することができるが、第1の実施形態ではダウンロード形式の場合について説明する。
【0015】
配信サーバ10はインターネットを通じて第1の情報端末であるPC20や、第2の情報端末であるスマートフォン30と通信可能となっている。PC20は配信サーバ10から動画をダウンロードして保存し、PC内で再生してそのディスプレイに再生される動画を表示する。また、スマートフォン30は、タッチパネルディスプレイなどによって構成される第2の表示部を備えており、デバイスに付属しているカメラ等で撮影をすると、リアルタイムで撮影中の画像がこのタッチパネルディスプレイ上に表示される。本実施形態のスマートフォン30は、所定の動画を撮影している場合に、このタッチパネルディスプレイに動画と同期したARを表示可能に構成されている。このようなAR画像の表示機能を発揮するためには、スマートフォン30は所定のアプリケーションをAppleStore(登録商標)や、Googleストア(登録商標)などからダウンロードし、そのアプリケーションを立ち上げて、動画を撮影することで利用することができる。
【0016】
続いて、本実施形態のAR動画再生システムの機能構成を
図2のブロック図を参照して説明する。
図2に示されるようにAR動画再生システム100は、配信サーバ10、PC20、スマートフォン30を含んでいる。配信サーバ10は、
図3で示すWebsocketサーバ10a、およびHTTPサーバ10b、および特に図示していなが動画を配信する動画配信サーバを備えている。Websocketはウェブアプリケーションにおいて双方向通信をするための通信規格であり、FirebaseRealTimeDatabaseを用いて実現することも可能である。
【0017】
配信サーバ10は、機能としてはペアリング部11、および時間管理部12を備えている。ペアリング部11は、PC20、およびスマートフォン30とをペアリングする。ペアリングの方法としては、PC20事に固有の識別情報を有するQRコード(登録商標)を配信し、スマートフォン30でQRコード(登録商標)を読み込んで識別情報を取得し、スマートフォン30から配信サーバ10へと通信する際に、この固有の識別情報も含めて送信する。そして、共通の識別情報をもったPC20とスマートフォン30とをペアリングする方式である。また、PC20とスマートフォン30とでともに共通のIDでログイン処理を行い、IDが共通のログイン中の情報端末をペアリングするようにしてもよい。時間管理部12は、正確な誤差のない時間情報を管理しており、時間管理部12によって推定基準時刻が管理されている。
【0018】
次いで、PC20の機能構成について説明する。PC20は、一般的にはユーザーが所有するノートパソコンなどを想定しているが、例えば映画館などでのライブビューイングなどの場合、PCに接続されたプロジェクターで投射される映像を再生するようなものであってもよい。PC20は、動画再生部21、第1表示部22、推定端末時刻算出部23、再生時刻管理部24を備えている。動画再生部21は、配信サーバ10からダウンロードした動画を再生し、第1の表示部22に表示させる。第1の表示部22は、PC付属のディスプレイなどを想定しているが、前述のようにプロジェクターなどによる投影であってもよい。
【0019】
推定端末時刻算出部23は、PC20の推定端末時刻を算出する。PCなどには内部にタイマーを有しており、そこに現在時刻を管理しているが、この現在時刻は端末ごとに多少のずれが生じるケースがある。推定端末時刻算出部23は、こうしたずれを測定し、正確な時刻を算出する機能を有する。
【0020】
再生時刻管理部23は、PC20、およびスマートフォン30において動画やAR画像を再生開始する時刻(再生開始時刻)を設定して通知する。再生時刻管理部23は、ペアリングされたスマートフォン30との間で動画とAR画像が同期するように再生開始時刻を設定し、再生開始時刻は配信サーバ10を通じてスマートフォン30にも通知される。
【0021】
次いで、スマートフォン30の機能構成について説明する。スマートフォン30には、AR再生部31、第2表示部32、撮影部33、経過時間取得部34、推定端末時刻算出部35を備えている。AR再生部31は、撮影部33でPC20の画面を撮影した際に、再生されている動画と同期したAR画像を第2表示部33に表示させる。また、AR再生部31はあらかじめ決まったAR画像を表示させるだけでなくユーザーの操作、例えばスマートフォンを振ったり、タッチパネルにタッチしたりといった操作によって、ARをインタラクティブに変化させるような態様でAR画像を表示させることも可能である。
【0022】
撮影部33は、スマートフォン30に設けられたカメラや外付けのカメラなどであり、撮影しているものをリアルタイムで第2表示部32に表示させることができる。撮影部33が
図4で示すARの読み出し用のマーカーを検出すると、スマートフォン30が配信サーバ10と通信を行ってマーカーと対応するARを識別するための情報を受け取り、AR画像の再生を行う。なお、配信サーバ10とは通信を行わず、スマートフォン30のAR画像再生用アプリにARコンテンツに関する情報を持たせ、アプリ内で完結してコンテンツの読み出しを行うようにすることもできる。AR画像読み取り用のマーカー(電子透かし)は、動画の周縁部に設けられており、動画内に埋め込むのではなく、動画と区別可能な形で表示されている。また、撮影時にユーザーがこのマーカーを認識しやすい用にガイドなどを表示するようにしてもよい。また、ライブなどでの利用のため、観客の頭部などで隠れやすい画面下側部分にはマーカーを設けないようにするといった工夫も環境によっては必要である。
【0023】
経過時間取得部34は、PC20において動画の再生が開始されてからの経過時間を取得することができる。経過時間は、配信サーバ10によって管理されており、サーバ内の基準時刻とPC20が設定した再生開始時刻との差異によって算出することができる。経過時間取得部34は、配信サーバ10にこの経過時間をリクエストして取得する。推定端末時刻算出部35は、PC20の推定端末時刻算出部23と同様の動作をする。
【0024】
続いて、PC20、スマートフォン30が配信サーバ10と通信する流れを
図3を用いて説明する。
図3に示されるように、PC20はHTTPサーバ10bに対して、時間管理部12が管理するサーバ時間(基準時刻)のリクエスト要求を出す(ステップS101)。HTTPサーバ10bはリクエスト要求に対してサーバ時間を送信する(ステップS102)。同様に、スマートフォン30はHTTPサーバ10bに対して、時間管理部12が管理するサーバ時間(基準時刻)のリクエスト要求を出す(ステップS103)。HTTPサーバ10bはリクエスト要求に対してサーバ時間を送信する(ステップS104)。
【0025】
次いで、Websocketサーバ10aは、PC20とスマートフォン30とのペアリング処理を行う。ペアリング処理にあたっては、まずWebsocketサーバ10aは、ペアリング用のPC事の固有の読み取り用のQRコード(登録商標)を発行し、PC20に送信する(ステップS105)。なお、Websocketサーバ10aでは、識別情報の発行と送信のみを行い、PC20が識別情報と対応するQRコード(登録商標)を生成して表示するようにしてもよい。QRコード(登録商標)を受信したPC20は、ディプレイ上にQRコード(登録商標)を表示し、スマートフォン30によって読み取りが行われる(ステップS106)。QRコード(登録商標)の読み取りが終わると、Websocketサーバ10aには、読み取りを行ったスマートフォン30とPC20の識別情報が送られ、これらがペアリングされる(ステップS107)。
【0026】
そして、PC20において動画の再生の操作が行われると、PC20の再生時刻管理部23は、動画、およびAR画像の再生開始時刻を設定して、Websocketサーバ10aに通知する(ステップS108)。Websocketサーバ10bは、再生開始時刻を受信すると、そのままスマートフォン30へと通知する(ステップS109)。動画再生部21、およびAR再生部31は、再生開始時刻になるまで待機し、時刻になることで再生を開始する。
【0027】
続いて、PC20における動画再生にかかる処理の流れを
図5を参照して説明する。
図55に示されるように、まずPC20は配信サーバ10に対するログイン処理を実行する(ステップS201)。本処理は、PC20をサーバ10において識別可能とするための処理であるが、ログイン認証をしなくてもPC20とスマートフォン30とがペアリングできていれば以下で示す同期の処理は可能なため、本ステップは省略することもできる。
【0028】
次いでPC20は、端末内時刻の調整処理を実行する(ステップS202)。端末内時刻の調整処理は、PC20の内部時間と配信サーバ10の基準時刻のずれを修正する処理です。
図6に端末内時刻調整の処理の詳細の流れを示す。
図6に示されるように、端末時刻調整処理はN回繰り返して実行される(ステップS202a)。まず推定端末時刻算出部23は、HTTPサーバ10bの時間管理部12に対して基準時刻の取得リクエストを送信するとともに、送信時におけるリクエスト送信時刻を取得する(ステップS202b)。取得リクエストを受け取ったHTTPサーバ10bの時間管理部12は、リクエストを受け取った時点における基準時刻を取得して、推定端末時刻算出部23に返信する(ステップS202c)。
【0029】
HTTPサーバ10bから基準時刻を受け取った推定端末時刻算出部23は、受け取った時点におけるレスポンス到着時刻を取得する(ステップS202d)。推定端末時刻算出部23は、端末とサーバの時刻の差である推定時刻誤差を以下の式で算出する(ステップS202e)。
推定時刻誤差 =(リクエスト送信時刻 + レスポンス到着時刻)/ 2- 基準時刻
すなわち、HTTPサーバ10bで基準時刻を取得した瞬間は、デバイス時刻でのリクエスト送信時刻とレスポンス到着時間の中間に近似するという仮定のもと、デバイス時刻とサーバ時刻の差を算出する。以上の処理をN回繰り返す。
【0030】
そして、N回推定時刻誤差を算出した推定端末時刻算出部23は、N回分の推定時刻誤差の平均値である平均推定時刻誤差を算出する(ステップS202f)。時刻の誤差を複数回繰り返すことによって、サーバと端末内の時間のずれの誤差を極力抑制することができる。そして、最後に推定端末時刻算出部23は、{推定端末時刻 = デバイス時刻 - 平均推定時刻誤差}の式によって、推定端末時刻を算出する(ステップS202g)。
【0031】
図5に説明をもどし、推定端末時刻を取得したPC20は、スマートフォン30からの動画の撮影をして接続要求があるまで待機する(ステップS203)。接続要求は再生中の動画を読み取ることによって送信されるようにしてもよいし、再生前の動画の待機中画面に表示される電子透かしを読み込んで送信されるようにしてもよい。なお、ステップS203のスマートフォン30からの接続要求の有無にかかわらず、動画を再生開始するようにしてもよい。次いで、PC20は動画の再生処理の操作を受けつけると(ステップS204)、再生時刻管理部23は操作のあった時点を起点として再生時刻を設定する(ステップS205)。再生時刻は算出された推定端末時刻を基準に設定しており、すなわち推定端末時刻が再生時刻になった時点で動画の再生が開始される時間である。動画再生部21は、推定端末時刻が再生時刻になるまで待機し(ステップS206)、再生時刻になると動画の再生を開始する(ステップS207)。
【0032】
次いで、
図7を参照して、スマートフォン30におけるAR画像の再生の処理の流れを説明する。
図7に示されるように、スマートフォン30もまず配信サーバ10に対してログイン処理を行う(ステップS301)。当処理もPC20と同様省略可能である。次いで、推定端末時刻算出部35が端末時刻の調整処理を実施する(ステップS302)。端末時刻の調整処理の流れもPC20における処理と同様である。
【0033】
次いで、撮影部33によってPC20の第1表示部22に表示された動画を撮影すると、動画内に受けこまれたコードを読み込んで配信サーバ10に対して再生開始時刻の取得要求を行う(ステップS303)。なお、撮影開始時刻の取得要求は、動画の撮影とは独立して実行するようにしてもよい。再生開始時刻はPC20が配信サーバ10を介してスマートフォン30に送信するため、スマートフォン30では再生開始時刻が送信されてくるまで待機し再生開始時刻の取得を行う(ステップS304)。そして、AR再生部31は、再生開始時刻になるまで待機し(ステップS305)、次いで再生開始時刻後に再生開始時刻からの経過時間を取得する(ステップS306)。そして、取得した経過時間により再生開始時刻よりも経過している場合(ステップS307:Yes)、AR再生部31はその経過時間の時点からAR画像を再生する(ステップS309)。一方、取得した経過時間が再生開始時刻を経過していない場合(ステップS307:No)、AR再生部31はAR画像を最初から再生する(ステップS308)。
【0034】
以上に示した本実施形態のAR動画再生システム100においては、PC20、及びスマートフォン30のそれぞれにおいて配信サーバ10との基準時間のずれを取得した上でこれらの間に誤差の内容に端末時刻を揃える処理を行う。したがって、再生開始時刻において同時に動画とAR画像の再生を開始することができるようになるため、秒以下の細かい動画とARの演出の同期を行うことができるようになる。
【0035】
また、各端末の時間の誤差を測定するために、タイムサーバーに対して基準時刻の取得のリクエストの発信を行った時刻と、返信があった時刻における端末内の時刻の中間値とサーバーの基準時刻との差異を複数回にわたって測定し、その平均値を求めるようにしたため、通信状況の差を抑制した時間の誤差を算出することができるようになる。
【0036】
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第2の実施形態では、ライブ会場などでライブをカメラ中継し、そのままストリーミング配信する形式を想定している。この場合、第1の実施形態で言及した端末の内部時刻の誤差以外に、配信の際に発生する配信遅延の誤差がAR画像と動画との同期を妨げる要因となるため、この課題に対する解決を図るものである。
【0037】
図8は、第2の実施形態におけるAR動画再生システムの機能構成を示す図である。第1の実施形態と異なる点は、配信サーバ10にエンコード部13が設けられ、PC20にデコード部25が設けられている点である。エンコード部13は、撮影した動画を配信サーバ10にアップロードする際に、その撮影時刻がタイムコードとしてエンコードして動画内に埋め込む処理を行う。また、デコード部25は、動画を再生する際にエンコードされたタイムコードを読み出し、その動画の撮影時刻を取得する。
【0038】
エンコード部13は、例えば動画の撮影された時刻が19時00分である場合、そのシーンに対して19時00分の撮影時刻の情報をエンコードする。なお、エンコードする時刻は撮影開始時点だけではなく、例えば1分毎のように各動画のシーンに対して撮影時刻の情報をエンコードするようにしてもよい。デコード部25は、動画を配信サーバ10から受け取るとそのシーンごとに埋め込まれた撮影時刻の情報を読みだして取得する。そして、再生時刻管理部24はこのデコードした時刻情報と、動画取得時の誤差修正した推定端末時刻との差から配信時の遅延時間を算出する。例えば19時00分にエンコードされたシーンが、19時00分10秒に受信されている場合は、遅延時間が10秒あったと判断し、対応するAR画像の再生開始時間を10秒遅らせるよう処理する。
【0039】
図9は、第2の実施形態における動画の配信とARの再生の処理の流れを示すシーケンス図である。
図9に示されるように、本実施形態では動画の再生がユーザーの任意のタイミングではなく、ライブを一斉配信する形式であるため、配信者が動画の再生の操作を行う(ステップS401)。動画再生の処理が行われると配信サーバ10の時間管理部12は、マスター再生開始時刻を取得してWebsocketサーバ10aに送る(ステップS402,S403)。マスター再生開始時刻は、ライブストリーミングであることから、配信サーバ10側で設定する時間であり、例えば19時からライブを開始して撮影する場合、多少の時間の余裕をみて19時01分に設定する。Websocketサーバ10aは、受け取ったマスター再生開始時刻を接続要求のあった各ユーザーのPC20に対して送信する(ステップS404)。
【0040】
マスター再生開始時刻を取得した再生時刻管理部24は(ステップS406)、先ほどの撮影時刻情報から算出した配信遅延の時間を加味して推定再生開始時刻を算出する(ステップS407)。例えば、配信が上述したように10秒遅れている場合、19時01分10秒が推定再生開始時刻となる。再生時刻管理部24は、算出した推定再生開始時刻をWebsocketサーバ10bを通じてスマートフォン30へと送信する(ステップS408,S409)。スマートフォン30のAR再生部31は、推定再生開始時刻を取得し(ステップS410)、推定再生開始時刻に推定端末時刻がなるまで待機する(ステップS411)。そして、推定再生開始時刻になったら、AR再生部31はAR画像の再生を開始する(ステップS412)。
【0041】
図9では推定再生開始時刻をPC20において設定したがこちらの別例としては、配信遅延の時間の計算はPC20において行うが、推定再生開始時刻の計算自体はスマートフォン30で行う場合もありえる。この場合について
図10を用いて説明する。
図10に示されるように、PC20の再生時刻管理部24は、配信サーバ10から送られる動画中の撮影時刻情報をデコードして取り出し、配信の遅延時間を算出する(ステップS501)。再生時刻管理部24は、Websocketサーバ10bを通じて、算出した遅延時間の情報をペアリングされているスマートフォン30へと送信する(ステップS502,S503)。そして、スマートフォン30の推定再生時刻管理部(図示せず)は、遅延時刻を取得し、配信サーバ10からマスター再生開始時間が送られてくるまで待機する(ステップS504)。
【0042】
並行して配信サーバ10は、ライブ配信のための再生操作が実施され(ステップS505)、この時点で時間管理部12がマスター再生開始時刻を取得する(ステップS506)。時間管理部12はWebsocketサーバ10bを介して各スマートフォン30に対してマスター再生開始時刻を送信する(ステップS507、S508)。スマートフォン30の推定再生時刻管理部は、送られたマスター再生開始時刻を取得し(ステップS509)、受け取った遅延時間を加味して推定再生開始時刻を算出する(ステップS510)。以降の処理については
図9と同様のため説明は省略する。
【0043】
このような配信遅延にかかる処理と情報端末内の時刻のずれの調整が必要となるのは、以下で示すような場合があるためである。ここにその本実施形態が解決すべき状況について言及する。
図11-1においては、PC20とスマートフォン30の両方において端末内時刻のずれがない場合である。この場合、配信遅延が10秒あり、マスター再生開始時刻として19時01分00秒が通知された場合に、PC20は遅延を含めて19時01分10秒を推定再生開始時刻とする。PC20とスマートフォン30との端末時刻のずれはないため、この場合は動画とAR画像は同期して再生される。
【0044】
一方、
図11-2はPC20の端末内時刻が20秒進んでいる場合であり、この場合端末内時刻を調整していないと、PC20にとっては遅延は30秒あると判断されてしまう。そのため、推定再生開始時刻はマスター再生開始時刻が19時01分00秒が通知された場合であっても、19時01分30秒が推定再生開始時刻ととってしまい、この値をスマートフォン30が参照してAR画像を再生するとAR画像が動画の再生と比較して20秒遅れて再生されるようになってしまう。
【0045】
また、
図11-3はスマートフォン30の端末内時刻が20秒進んでいる場合であり、この場合、PC20の端末時刻は正しいため、推定再生開始時刻はマスター再生開始時刻が19時01分00秒が通知された場合には、19時01分10秒が推定再生開始時刻に設定される。この推定再生開始時刻がスマートフォン30に通知されると、スマートフォン30では端末内時間が20秒早いため、19時00分50秒の時点でAR画像が再生されてしまうため、この場合も動画とAR画像とが同期せずにずれて再生されてしまう。
【0046】
以上に示したように本実施形態のAR動画再生システムにおいては、ライブストリーミング形式でリアルタイムで動画を配信する場合であっても、動画内に撮影時刻を埋め込み、PC20側で読み出しすることで、配信の際の遅延がどれだけあったのかを把握することができ、配信の遅延も加味して再生開始時刻を設定することができる。そのため、リアルタイムのストリーミング配信であっても動画とAR画像との同期がずれてしまう、という問題を抑制することができるようになる。
【0047】
以上に示した実施形態は、本発明のAR画像再生システムの一例を示すものであり、本実施形態に発明は限定されない。サーバー構成や動画やAR画像を再生する端末の構成は適宜変更可能であり、上記で示した構成以外でも利用することも可能です。
【符号の説明】
【0048】
10・・・配信サーバ
11・・・ペアリング部
12・・・時間管理部
20・・・PC
21・・・動画再生部
22・・・第1表示部
23・・・推定端末時刻管理部
24・・・再生時刻管理部
30・・・スマートフォン
31・・・AR再生部
32・・・第2表示部
33・・・撮影部
34・・・経過時間取得部