IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社リコーの特許一覧

特開2023-26844録画システム、録画再生装置、画像処理方法
<>
  • 特開-録画システム、録画再生装置、画像処理方法 図1
  • 特開-録画システム、録画再生装置、画像処理方法 図2
  • 特開-録画システム、録画再生装置、画像処理方法 図3
  • 特開-録画システム、録画再生装置、画像処理方法 図4
  • 特開-録画システム、録画再生装置、画像処理方法 図5
  • 特開-録画システム、録画再生装置、画像処理方法 図6
  • 特開-録画システム、録画再生装置、画像処理方法 図7
  • 特開-録画システム、録画再生装置、画像処理方法 図8
  • 特開-録画システム、録画再生装置、画像処理方法 図9
  • 特開-録画システム、録画再生装置、画像処理方法 図10
  • 特開-録画システム、録画再生装置、画像処理方法 図11
  • 特開-録画システム、録画再生装置、画像処理方法 図12
  • 特開-録画システム、録画再生装置、画像処理方法 図13
  • 特開-録画システム、録画再生装置、画像処理方法 図14
  • 特開-録画システム、録画再生装置、画像処理方法 図15
  • 特開-録画システム、録画再生装置、画像処理方法 図16
  • 特開-録画システム、録画再生装置、画像処理方法 図17
  • 特開-録画システム、録画再生装置、画像処理方法 図18
  • 特開-録画システム、録画再生装置、画像処理方法 図19
  • 特開-録画システム、録画再生装置、画像処理方法 図20
  • 特開-録画システム、録画再生装置、画像処理方法 図21
  • 特開-録画システム、録画再生装置、画像処理方法 図22
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023026844
(43)【公開日】2023-03-01
(54)【発明の名称】録画システム、録画再生装置、画像処理方法
(51)【国際特許分類】
   H04N 7/15 20060101AFI20230221BHJP
【FI】
H04N7/15 150
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2021132243
(22)【出願日】2021-08-16
(71)【出願人】
【識別番号】000006747
【氏名又は名称】株式会社リコー
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】桑田 耕司
【テーマコード(参考)】
5C164
【Fターム(参考)】
5C164FA10
5C164MC04S
5C164VA36P
(57)【要約】
【課題】第一の画像に第二の画像が重ねられた状態で録画されても、再生時に第一の画像を表示できる録画システムを提供すること。
【解決手段】本発明は、他の拠点から第一の画像データを受信する通信部と、前記第一の画像に、他の拠点から受信するか又は自拠点で用意した第二の画像データを埋め込んだ動画のフレーム内で、前記第一の画像データ又は前記第二の画像データの位置を移動させる画像処理部と、前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成する画像合成部と、前記動画ファイルから前記第二の画像データを含まない前記第一の画像データを構築する画像構築部と、前記画像構築部が構築した前記第一の画像データを表示する表示制御部と、を有する録画システム60を提供する。
【選択図】図1
【特許請求の範囲】
【請求項1】
他の拠点から第一の画像データを受信する通信部と、
前記第一の画像データに、他の拠点から受信するか又は自拠点で用意した第二の画像データを埋め込んだ動画のフレーム内で、前記第一の画像データ又は前記第二の画像データの位置を移動させる画像処理部と、
前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成する画像合成部と、
前記動画ファイルから前記第二の画像データを含まない前記第一の画像データを構築する画像構築部と、
前記画像構築部が構築した前記第一の画像データを表示する表示制御部と、
を有する録画システム。
【請求項2】
動画のフレームに前記第一の画像データを配置し、予め設定されている時間をかけて、前記第一の画像データに対し前記第二の画像データを前記第二の画像データのサイズよりも大きく移動させる移動部を有し、
前記画像構築部は、前記第二の画像データの位置が異なる複数の前記第一の画像データを前記動画ファイルから取得し、前記第一の画像データから前記第二の画像データを取り取って合成することで前記第二の画像データを含まない前記第一の画像データを構築することを特徴とする請求項1に記載の録画システム。
【請求項3】
前記画像構築部は、前記第一の画像データから前記第二の画像データを取り除いた複数の前記第一の画像データをOR演算することで前記第二の画像データを含まない前記第一の画像データを構築することを特徴とする請求項2に記載の録画システム。
【請求項4】
前記第一の画像データが切り替わったことを検出した場合、
予め設定されている時間をかけて、動画のフレームに配置された切り替え前の前記第一の画像データをスライドさせて、切り替え後の前記第一の画像データに切り替えるページ切替部を有し、
前記画像合成部は、スライドの途中の前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成し、
前記動画ファイルから前記第一の画像データが切り替わったことを検出した場合、
前記画像構築部は、切り替わる前の前記第一の画像データの一部と、スライドされた後の前記第一の画像データの一部とをそれぞれ切り取って、合成することで前記第二の画像データを含まない前記第一の画像データを構築することを特徴とする請求項1に記載の録画システム。
【請求項5】
前記動画ファイルから前記第一の画像データが切り替わったことを検出した場合、
前記画像構築部は、切り替わる前の前記第一の画像データの半分と、前記時間の半分が経過した前記第一の画像データの半分とをそれぞれ切り取って、合成することで前記第二の画像データを含まない前記第一の画像データを構築することを特徴とする請求項4に記載の録画システム。
【請求項6】
前記動画ファイルは、前記第一の画像データにおける前記第二の画像データの位置情報とサイズを有し、
前記位置情報とサイズに基づいて、前記第一の画像データから取り込んだ前記第二の画像データの第二の動画ファイルを作成する動画ファイル作成部を有することを特徴とする請求項1~5のいずれか1項に記載の録画システム。
【請求項7】
ユーザーの操作に応じて、前記第二の画像データを含まない前記第一の画像データを表示することを特徴とする請求項1~6のいずれか1項に記載の録画システム。
【請求項8】
ユーザーの操作に応じて、前記第二の動画ファイルを表示することを特徴とする請求項6に記載の録画システム。
【請求項9】
他の拠点から第一の画像データを受信する通信部と、
前記第一の画像データに、他の拠点から受信するか又は自拠点で用意した第二の画像データを埋め込んだ動画のフレーム内で、前記第一の画像データ又は前記第二の画像データの位置を移動させる画像処理部と、
前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成する画像合成部と、を有する通信端末から
前記動画ファイルを受信する受信部と、
前記受信部が受信した前記動画ファイルから前記第二の画像データを含まない前記第一の画像データを構築する画像構築部と、
前記画像構築部が構築した前記第一の画像データを表示する表示制御部と、
を有する録画再生装置。
【請求項10】
通信部が、他の拠点から第一の画像データを受信するステップと、
画像処理部が、前記第一の画像データに、他の拠点から受信するか又は自拠点で用意した第二の画像データを埋め込んだ動画のフレーム内で、前記第一の画像データ又は前記第二の画像データの位置を移動させるステップと、
画像合成部が、前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成するステップと、
画像構築部が、前記動画ファイルから前記第二の画像データを含まない前記第一の画像データを構築するステップと、
表示制御部が、前記画像構築部が構築した前記第一の画像データを表示するステップと、
を有する画像処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、録画システム、録画再生装置、及び、画像処理方法に関する。
【背景技術】
【0002】
ネットワークを介して、遠隔地の拠点との間で映像や音声を送受信する通信システムが知られている。通信システムにおいては、会議に参加する当事者の一方がいる拠点において、通信端末を用いて画像の撮像及び発言などの音声の収集を行い、これらをデジタルデータに変換して相手方の通信端末に送信する。相手方の通信端末はディスプレイへの画像表示及びスピーカからの音声出力を行い、ビデオ通話を行うことができる。
【0003】
会議中の画像を録画する技術が考案されている(例えば、特許文献1参照。)。特許文献1には、加工前の画像を一旦録画することにより、後の編集を可能とすることで、会議を効率的に再現させるシステムが開示されている。
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来の技術は、第一の画像に第二の画像が重ねて表示されるため、録画された画像を後からユーザーが再生しても第一の画像を表示することができないという問題がある。すなわち、通信端末は、ディスプレイに多拠点のカメラ画像(第二の画像)だけでなく資料(第一の画像)も表示するが、資料は文字情報が含まれるケースが多いため、ユーザーが一般的には資料をできるだけ大きく表示させる。多拠点のカメラ画像は縮小された状態で資料に重ねるようにPicture In Picture的な表示方法が行われる。そうすることによって、以下の使い方が可能になる。
・全ての画面を同時に見れる。
・重要(共有資料、or発話中の拠点映像、等)な画面や資料は大きく映すことができる。
【0005】
しかし、録画システムがディスプレイに表示された資料や各拠点のカメラ画像を録画しても、第一の画像(大きく表示している映像)の一部は隠れており、ユーザーが第一の画像の気になる部位や箇所を表示することができない。
【0006】
本発明は、上記課題に鑑み、第一の画像に第二の画像が重ねられた状態で録画されても、再生時に第一の画像を表示できる録画システムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記課題に鑑み、本発明は、他の拠点から第一の画像データを受信する通信部と、前記第一の画像に、他の拠点から受信するか又は自拠点で用意した第二の画像データを埋め込んだ動画のフレーム内で、前記第一の画像データ又は前記第二の画像データの位置を移動させる画像処理部と、前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成する画像合成部と、前記動画ファイルから前記第二の画像データを含まない前記第一の画像データを構築する画像構築部と、前記画像構築部が構築した前記第一の画像データを表示する表示制御部と、を有する録画システムを提供する。
【発明の効果】
【0008】
第一の画像に第二の画像が重ねられた状態で録画されても、再生時に第一の画像を表示できる録画システムを提供できる。
【図面の簡単な説明】
【0009】
図1】通信システムのシステム構成の概略図の一例である。
図2】1拠点にある録画システムの構成図の一例である。
図3】通信端末のハードウェア構成図の一例である。
図4】録画再生装置のハードウェア構成図の一例である。
図5】通信端末と録画再生装置が有する機能をブロックに分けて説明する機能ブロック図の一例である。
図6】合成画像記憶部に記憶される情報を説明する図である。
図7】カメラ画像記憶部に記憶される情報を説明する図である。
図8】資料画像記憶部に記憶される情報を説明する図である。
図9】通信端末が作成する従来の合成画像の一例を示す図である。
図10】合成画像におけるカメラ画像の位置を移動させる画像処理の概略を説明する図である。
図11】合成画像の録画処理を説明するフローチャート図の一例である。
図12】合成画像のカメラ画像の移動を画面表示イメージで表した図である。
図13図11のステップS7の処理を説明するフローチャート図の一例である。
図14】合成画像のフレームに添付されるメタデータの一例を示す図である。
図15】録画再生装置における資料画像の再生方法を説明する図である。
図16】録画再生装置がカメラ画像(動画ファイル)と資料画像を保存する処理を説明するフローチャート図の一例である。
図17】資料画像を上にスライドさせながら合成画像を作成する画像処理の概略を説明する図である。
図18】資料画像の上下スライドを説明する図である。
図19】資料画像を上にスライドさせる処理において、図11のステップS7の処理を説明するフローチャート図である。
図20】資料画像を上下にスライドさせる処理において、第二資料画像構築部が資料画像を構築する処理を説明するフローチャート図の一例である。
図21】合成画像の再生時に利用できる3種類の画像を示す図である。
図22】2つのディスプレイを用いた画像の表示例を示す図である。
【発明を実施するための形態】
【0010】
以下、本発明を実施するための形態の一例として、録画システムと録画システムが行う画像処理方法について図面を参照しながら説明する。
【0011】
<録画システムの動作の概略>
本実施形態の録画システムでは、少なくとも以下の2つの画像が拠点間で送受信される。
1.会議参加者等、拠点の様子をカメラで撮像したカメラ画像(動画)
2.会議で共有すべき資料画像(一般的に静止画像)
各拠点の通信端末は、資料の見やすさを維持したまま、1と2の画像を一つの画面(1画面分のフレーム)に収める(同時に見えるようにする)。この場合、ユーザーはPicture In Picture的(以下、1を2に埋め込むという)なレイアウトにせざるを得ない。
【0012】
カメラ画像(第二の画像データの一例)と資料画像(第一の画像データの一例)がレイアウトされた画面の全体を通信端末が録画した場合、会議に参加できなかった人が再生して見直す場合は、
・全ての時間の映像を慎重に見直すことで、資料画像のうちの死角となっている領域を把握できる場合もあるが、時間はかかる。
・あるいは死角の領域は見えないままで終わる可能性も否定できない。
という不都合がある。
【0013】
<本実施形態の処理の概略>
そこで、本実施形態では、以下の処理を行うことで、会議中には見えてなかった(隠れていた)領域を、録画システムが再生時に任意のタイミングで再生できるようにする。
【0014】
◆録画時(通信端末の処理)
通信端末は、録画時に以下の処理(少なくともいずれか)を実行する。
A.資料画像にカメラ画像が埋め込まれている場合、最前面になっている画像(通常はカメラ画像)の表示位置をゆっくりと移動させ続ける。
B.最背面になっている画像(通常は資料画像)が改ページ又は資料そのものが変更された場合、上下又は左右に資料画像をスライドさせるようにして、次のページに切り替える。
【0015】
◆再生時(録画再生装置の処理)
C(Aに対応). 最前面になっているカメラ画像の表示位置が移動するので、録画再生装置は、資料画像の背面に隠れていた領域も取得できる。録画再生装置はそれを別のファイルとして再生時に一時的に保存しておくことで、再生時は資料画像の全体を表示したり、資料画像の任意の位置にカメラ画像を移動したりすることができる。再生時に一時的とは、ファイルは一般の録画装置のように一つのファイルとして保存されており、録画再生装置は、再生時はその1つのファイルから資料画像を別ファイルとして生成することをいう。
【0016】
なお、資料画像は会議で使う資料であることが多いため、ほぼ静止画として扱える。そのことが、このような再生方法を可能にしている。
D(Bに対応). 資料画像がスライドして切り替わることを利用して、死角の領域の情報を取得する。録画再生装置がそれを再生時に一時的に別ファイルとして保存しておくことで、再生時は資料画像の全体を表示したり、資料画像の任意の位置にカメラ画像を移動したりすることができる。
【0017】
このC,Dの処理は、会議中とは異なり、資料画像にカメラ画像が埋め込まれた合成画像を録画しておくことができ、リアルタイムに表示する必要がないので実現できる。すなわち、すでに録画済みの合成画像を編集するかのように処理するので合成画像の再生表示を行うことができる。
【0018】
このように、本実施形態の通信システムは、会議の合成画像を参加できなかったユーザーが見直す場合に、死角の領域が見えないままで再生が終わることもなく、合成画像の全時間を慎重に追いかける必要性もない。
【0019】
<用語について>
死角とは、第一の画像データのうち第二の画像データが重なっている領域である。死角の領域はユーザーから見えない領域となる。
【0020】
リアルタイムとは、ある処理が現在、実行されたとして、一定の遅延内で処理の結果が得られることをいう。
【0021】
<録画システムの構成例>
図1は、通信システム100のシステム構成の概略図である。通信システム100では、拠点A~拠点Dに配置された各通信端末10A~10Dがインターネット等の通信ネットワークNを介して通信する。拠点A~Dには録画システム60(通信端末10と録画再生装置30)がある。必ずしも全ての拠点に録画再生装置30が配置されなくてもよい。図1の通信端末10A~10Dの数(4つ)は一例であり、2つ以上(2拠点以上)であればよい。通信端末10A~10Dのうち任意の通信端末を「通信端末10」と称す。
【0022】
通信端末10A~10Dは撮像したカメラ画像及び音声を通信管理システム50に送信する。また、通信端末10A~10Dは通信管理システム50からカメラ画像を受信する。なお、自拠点のカメラ画像は自拠点側では受信しなくてよい。また、通信端末10A~10Dのうち任意の通信端末10は通信管理システム50に資料画像を送信する。資料画像は、通信端末10A~10Dが外部PCから取り込んだり内部的に保持したりしている会議の資料の画像である。通信端末10A~10Dは通信管理システム50から資料画像を受信する。資料画像は元々、通信管理システム50に登録されている場合もある。
【0023】
拠点A~Dの通信端末10A~10Dは、通信端末10A~10Dが撮像したカメラ画像と、上記の資料画像を表示する。音声データについても同様である。なお、通信端末10A~10Dが送信するカメラ画像は動画であるとするが、静止画でもよい。また、通信端末10A~10Dは、カメラ画像及び音声を送信しないで単に受信するだけでもよい。
【0024】
通信端末10A~10Dは、それぞれ専用のテレビ会議端末でもよいし、アプリケーションを実行したPC(Personal Computer)でもよい。すなわち、PCは、普段は汎用的な情報処理装置として使用され、テレビ会議用のアプリケーションを実行すると通信端末10として動作する。
【0025】
また、汎用的な情報処理装置としての通信端末10はPCの他、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)、携帯電話、プロジェクタ、電子黒板、カーナビ、などでもよい。
【0026】
また、通信ネットワークNには通信管理システム50が接続されている。通信管理システム50は、通信端末10A~10Dの通信を管理及び制御する。通信管理システム50は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
【0027】
通信管理システム50は、例えば同じ会議に参加する通信端末10をセッションIDで対応付けて管理している。通信管理システム50は、セッションIDに基づいて各拠点からの画像(資料画像、カメラ画像)と音声を同じ会議に参加している他の拠点に送信する。こうすることで、他拠点間でテレビ会議が可能になる。
【0028】
通信管理システム50は、一台以上の情報処理装置で実現される。通信管理システム50は、クラウドコンピューティングにより実現されてもよいし、単一の情報処理装置によって実現されてもよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される形態をいう。通信管理システム50は、インターネット上に存在しても、オンプレミスに存在してもよい。
【0029】
図2は、1拠点にある録画システム60の構成図を示す。録画システム60は、通信端末10と録画再生装置30を有する。録画再生装置30にはディスプレイ20が接続される場合がある。通信端末10にディスプレイ20を接続することも可能である。
【0030】
通信端末10にはカメラとマイクが外付け接続される場合がある。カメラは自拠点の画角に入る範囲を撮像してカメラ画像を生成し、マイクは自拠点の音声を集音して音声データを生成する。通信端末10はカメラ画像を内蔵する又は外付けのディスプレイ20に表示すると共に、他の拠点に送信する。通信端末10は音声データを他の拠点に送信する。
【0031】
通信端末10は、自拠点のカメラ画像、他の拠点のカメラ画像を、自拠点又は他の拠点が用意する資料画像に埋め込んで合成画像を生成する。通信端末10は合成画像や音声データを録画再生装置30に送信する。録画再生装置30は会議中に生成される合成画像や音声データを録画して動画ファイルを作成する。
【0032】
録画再生装置30は、各拠点や部署などに押下され、会議のダイジェストを主に会議に参加しなかったユーザーが会議の内容を把握するために使用される。
【0033】
録画再生装置30は、ユーザー操作に応じて、会議が終了した後、合成画像の動画ファイルを再生する。再生した映像はディスプレイ20に表示される。あるいは、録画再生装置30がWebサーバーとして、ユーザー端末に再生した合成画像の動画ファイルを送信してもよい。また、録画再生装置30は動画ファイルをクラウドにアップロードしてもよい。録画再生装置30がクラウド上にあってもよい。
【0034】
なお、図2では、通信端末10と録画再生装置30が別体だが、通信端末10が録画再生装置30の機能を有していてもよい。
【0035】
<ハードウェア構成例>
図3図4を参照して、本実施形態に係る録画システム60に含まれる通信端末10及び録画再生装置30のハードウェア構成について説明する。
【0036】
<<通信端末>>
図3は、通信端末10の一例のハードウェア構成を示す図である。通信端末10は、カメラモジュール301、映像処理部303、映像CODEC部314、映像出力処理部310、マイクアレイ304、音声出力部307、音声処理部308、ネットワーク処理部313、全体処理部315、操作部316、RAM306、録画装置I/F部317、映像特性解析部302、RAM305、及びCapture処理部312を備える。なお、カメラモジュール301は、外付けの汎用カメラを接続する構成でもよい。
【0037】
カメラモジュール301は、「撮像装置」の一例である。カメラモジュール301は、会議シーンの映像を撮像する。カメラモジュール301は、レンズ301a、撮像部301b(イメージセンサ)、及びDSP301cを有する。撮像部301bは、レンズ301aを介して集光された映像を電気信号に変換することにより、映像データ(RAWデータ)を生成する。DSP301cは、撮像部301bから出力された映像データ(RAWデータ)に対して、ベイヤー変換、3A制御、等の公知のカメラ映像処理を行うことにより、映像データ(YUVデータ)を生成する。
【0038】
映像処理部303は、カメラモジュール301から出力された映像データ(YUVデータ)に対し、目的に応じてクロッピング処理及び変倍処理303a等の各種映像処理を行う。例えば、映像処理部303は、映像特性解析部302から顔検知情報、及び音声処理部308からのビームフォーミング情報、を取得して発話者のクローズアップ映像を生成する。生成された映像は、映像出力処理部310に転送される。なお、映像処理部303は、各種映像処理を行う際に、RAM306をバッファとして使用する。
【0039】
映像CODEC部314は、他の通信端末10との間で送受信される映像データ(映像ストリームデータ)の符号化及び復号化を行う。例えば、映像CODEC部314は、動画Endocer314aによって、映像処理部303から出力された映像データを符号化し、符号化された映像データを、ネットワーク処理部313を介して、他の通信端末10へ送信する。あるいは、映像CODEC部314は、映像出力処理部310でレイアウト処理された映像データを符号化し、符号化された映像データを、ネットワーク処理部313を介して、他の通信端末10へ送信する。
【0040】
また、例えば、映像CODEC部314は、他の通信端末10から送信された映像データ(他の通信端末10で符号化された映像データ)を、ネットワーク処理部313を介して取得し、動画Dedocer314bによって、当該映像データを復号化する。そして、映像CODEC部314は、復号された映像データを、映像出力処理部310へ出力する。映像CODEC部314は、例えば、H.264/265等の圧縮規格を用いた、CODEC回路又はソフトウェアによって構成される。
【0041】
映像出力処理部310は、映像データに基づく映像を、タッチパネル部309が備えるディスプレイに表示させる。ディスプレイは外付けの一般的なモニターでもよい。
【0042】
・例えば、映像出力処理部310は、映像CODEC部314で復号化された映像データに基づく映像(すなわち、他拠点の映像)を、タッチパネル部309が備えるディスプレイに表示させる。他拠点映像は複数のケースもある。
【0043】
・また、例えば、映像出力処理部310は、カメラモジュール301から出力された映像データに基づく映像(すなわち、自拠点の映像)を、タッチパネル部309が備えるディスプレイに表示させる。カメラモジュール301からの映像は、映像処理部303で発話者がクローズアップ処理された映像になることもある。
【0044】
・また、例えば、映像出力処理部310は、Capture処理部312から出力された映像データに基づく映像(すなわち、外部PC311で表示されている資料画面等の映像)を、タッチパネル部309が備えるディスプレイに表示させる。
【0045】
このように、映像出力処理部310が表示させる映像は多岐にわたるが、これらのビデオ会議にかかわる映像を一つのフレームに収める必要があるため、映像出力処理部310内でレイアウト処理を行う。各表示映像を単純に並べて表示することもあれば、あるいは共有資料を大きく映して各拠点の参加者映像をPicture In Picture形式で表示させることもある。映像出力処理部310は、表示中の映像特性やその時のレイアウトに応じて、随時レイアウトを変更させる。本実施形態のレイアウト変更(カメラ画像等の移動)は、このモジュールで実行される。
【0046】
マイクアレイ304は、マイクロフォンアレイ304a及びA/Dコンバータ304bを有する。マイクロフォンアレイ304aは、ビデオ会議の参加者の音声を集音し、音声信号(アナログ信号)を出力する。A/Dコンバータ304bは、マイクロフォンアレイ304aから出力された音声の音声信号(アナログ信号)をデジタル信号に変換して、変換後の音声信号(デジタル信号)を音声処理部308へ出力する。
【0047】
音声出力部307は、D/Aコンバータ307B及びスピーカ307aを有する。D/Aコンバータ307Bは、他の通信端末10から送信された音声信号(デジタル信号)をアナログ信号に変換する。スピーカ307aは、D/Aコンバータ307Bによる変換後の音声信号(アナログ信号)が供給されることにより、他拠点において集音されたビデオ会議の参加者の音声を出力する。
【0048】
音声処理部308は、DSP308a、音声CODECする機能308b、ノイズキャンセル(NR/EC)する機能308c、音声判別する機能308d、ビームフォーミングする機能308eを有し、他の通信端末10から受信された映像データを構成する音声データに対して、所定の音声処理(例えば、音声CODEC処理、ノイズキャンセル(NR/EC)、音声判別、ビームフォーミング等)を行う。そして、音声処理部308は、音声処理後の音声データを、音声出力部307へ出力する。同時に、音声処理部308は、音声出力部307に出力する音声データを把握しながら、マイクアレイ304に回り込んで入力される音声データに対するエコーキャンセル(EC)処理を行う。そして、音声処理部308は、音声処理後の音声データを、ネットワーク処理部313へ出力する。また、音声処理部308は、ビームフォーミング機能により音の方向を特定し、その情報をもとに映像処理部303で発話者のクローズアップ映像が生成される。
【0049】
ネットワーク処理部313は、映像CODEC部(エンコーダ)314から出力された符号化済みの映像データを、ネットワークを介して、送信先の他の通信端末10へ送信するNIC313aを有する。また、ネットワーク処理部313は、他の通信端末10から送信された符号化済みの映像データを、ネットワークを介して受信する。そして、ネットワーク処理部313は、当該映像データを、映像CODEC部(デコーダ)314へ出力する。また、ネットワーク処理部313は、符号化パラメータ(QP値、等)を決めるための、ネットワークの帯域をモニターする機能(ネットワーク状態検知部313b)を有する。また、ネットワーク処理部313は、符号化パラメータ(QP値、等)や送信モードの設定を最適化するための、相手局の機能や性能に関する情報を取得する機能(相手局機能判別部313c)を有する。
【0050】
全体処理部315は、通信端末10の全体の制御を行う。全体処理部315は、CPU315a、ROM315b、SSD315c、RAM315d等を備えて構成されている。例えば、全体処理部315は、オペレータの指示に従って、各モジュール及び各ブロックのモード設定、ステータス管理等を行う。また、全体処理部315は、システムメモリ(RAM)の使用権及びシステムバスのアクセス権限の調停機能等を有する。
【0051】
また、全体処理部315は、カメラモジュール301の撮像モードの設定を行う。カメラモジュール301の撮像モードの設定は、環境に応じて自動的に設定される自動設定項目(例えば、測光条件等)と、オペレータの操作入力により手動的に設定される手動設定項目とを含み得る。
【0052】
また、全体処理部315は、映像出力処理部310で行われるレイアウト処理に関する設定を行う。全体処理部315は、共有資料を優先的に表示するためのPicture In Picture表示にする、あるいは、特定の拠点を大きく映す、等の予め決められている表示フォーマットを選択・設定する。
【0053】
これらの設定は、オペレータによる操作部316の操作によって行われ、通信端末10が備えるメモリ(RAM)に記憶される。そして、これらの設定は、映像処理部303によって使用される。
【0054】
操作部316は、各種入力デバイス(例えば、タッチパネル、操作ボタン、リモコン等)を備える。操作部316は、オペレータによる各種入力デバイスに操作により、各種入力(例えば、各種設定、会議参加者の呼び出し等)を受け付ける。
【0055】
録画装置I/F部317は、音声処理部308から出力される音声データと、映像出力処理部310で生成された映像データと、を組み合わせて録画データを構成させ、その合成されたデータを録画再生装置30に出力するためのI/F機能を有する。
【0056】
映像特性解析部302は、検知部302a及び動き判定部302bを有する。検知部302aは、カメラモジュール301から出力された映像データを構成するフレーム画像から、人の顔が存在するエリアを検知する。動き判定部302bは、カメラモジュール301から出力された映像データを構成するフレーム画像から、人が動いているエリアを検知する。映像特性解析部302は、各エリアの検知結果を、映像処理部303へ出力する。なお、映像特性解析部302は、各エリアの検知を行う際に、RAM305をバッファとして使用する。
【0057】
Capture処理部312は、外部PC311から入力された映像を取り込んで、映像出力処理部310に転送する。Capture処理部312は、本実施形態にかかわる機能としては、改頁(更新)検出機能を有する。
【0058】
・外部PC311から転送されてくる資料(画面)共有用の映像について、Capture処理部312は、改頁(更新)されたかどうか検出する。
【0059】
・検出方法は特に限定するものはないが、PC画面の映像データなのでノイズ的な要素はないため、単純にフレーム間でのベリファイチェックやサムチェックでもよい。Capture処理部312は、演算量を抑えるために、Captureした画像の解像度を落としてから上記の処理を行ってもよい。
【0060】
・ここでいう画面の改頁(更新)とは、会議がスタートした後に外部PC311が接続されて、外部PC311から資料(画面)共有の映像転送がスタートしたことも改頁トリガーに含める。
【0061】
・Capture処理部312は、改頁(更新)を検出したら、その旨を映像出力処理部310に知らせる。
【0062】
・外部PC311から転送されてくる映像は、ここでは資料(画面)共有用の画像という扱いなので、カメラモジュールの映像のような動画としては扱わない。よって、フレームレートにも上限が設けられる(すなわち、改頁(更新)検出の間隔をある程度確保する)。
【0063】
・なお、外部PC311上で再生している動画を、フレームレートの制約を設けず通常の動画として転送したい場合は、カメラモジュールからの入力映像をユーザーが無効にすればよい。ユーザーはシステムの動作モード指定時にそのような設定をCapture制御部にインプットする。
【0064】
<<録画再生装置>>
図4は、録画再生装置30のハードウェア構成図である。図4に示されているように、録画再生装置30は、CPU501、RAM502、操作部503、ROM504、入力I/F505、CODEC506、録画再生回路507、暗号化回路508、出力I/F510、及び、NIC511を有している。
【0065】
CPU501は、ROM504に格納された所定のプログラムに従って、本実施形態で説明される録画機能を実現するために、録画再生装置30の各ブロックを制御する。
【0066】
RAM502は、CPU501の作業領域として利用されると共に、ROM504に格納される各処理プログラムなどの記憶領域としても利用される。RAM502は、通信端末10から転送される画像データや音声データの一時的な格納先として利用される。また、RAM502は、CODEC506や録画再生回路507のワークメモリとしても利用される。
【0067】
操作部503は、ハードキーorリモコン等から構成され、録画再生装置30の起動、モード設定などを行う一般的なユーザーインタフェースである。
【0068】
入力I/F505は、通信端末10から転送される画像データと音声データを入力する際に使用されるインターフェースである。I/Fとしては専用のもの、あるいは一般的なHDMI(登録商標)やDisplayPortで実現可能である。
【0069】
CODEC506は、入力I/F505で入力された画像データのフレーム(映像ストリームデータ)のエンコード/デコード処理を行うため、H.264/265等のCODEC回路あるいはソフトウェアで構成される。上記エンコード処理で符号化されたデータは暗号化回路508で暗号化されてからストレージ装置509(HDD、SSD、SDメモリカード、等)に格納される。ストレージ装置509に格納されたデータが合成画像の動画ファイルそのものである。
【0070】
録画再生回路507は、録画データを再利用しやすくするために、本実施形態で説明される一連の画像処理を行う。
【0071】
出力I/F510は、通信端末10から転送された画像データをディスプレイに出力する。あるいは、出力I/Fは、合成画像データから再生した合成画像をディスプレイに出力する。I/Fの規格としては、HDMI(登録商標)やDisplayPort(登録商標)等がある。画像録画データには音声データも含まれる。
【0072】
NIC511は、LAN(Local Area Network)等のネットワークを介してインターネットに接続でき、外部サーバーやNASに合成画像データを転送する。
【0073】
<機能について>
図5は、通信端末10と録画再生装置30が有する機能をブロックに分けて説明する機能ブロック図の一例である。
【0074】
<<通信端末>>
通信端末10は、カメラ画像取得部11、音声取得部12、通信部13、合成画像送信部14、移動部15、ページ切替部16、画像合成部17、及び、操作受付部18を有する。通信端末10が有するこれらの機能は図3に示した通信端末10のハードウェア回路で実現されるが、CPUがプログラムで実行することで実現されてもよい。また、図5の機能は通信端末10が有する主要な機能を示したに過ぎず、図示する他に機能を有していてよい。
【0075】
カメラ画像取得部11は、カメラモジュール301が撮像したカメラ画像をカメラモジュール301からリアルタイムに取得する。音声取得部12は、マイクアレイ304が集音した音声をPCM変換して音声データを生成する。
【0076】
通信部13は、通信管理システムを介してカメラ画像を他の拠点の通信端末10に送信し、また、他の拠点の通信端末10から通信管理システムを介してカメラ画像を受信する。通信部13は、通信管理システム50を介して音声データを他の拠点の通信端末10に送信し、また、他の拠点の通信端末10から通信管理システム50を介して音声データを受信する。通信部13は、他の拠点の通信端末10が資料画像を共有する場合は、通信管理システム50を介して資料画像を受信する。自拠点の通信端末10が資料画像を共有する場合は、通信部13は通信管理システム50を介して資料画像を他の拠点の通信端末10に送信する。
【0077】
移動部15は、上記Aの方法の画像処理に関し、資料画像に対しカメラ画像をゆっくりと移動させることを継続的に行う。
【0078】
画像合成部17は、ユーザー操作に応じて又は自動的に、自拠点のカメラ画像、他拠点のカメラ画像、及び、資料画像を配置して1フレームの合成画像を生成する。フレームとは動画における個々の静止画である。ユーザーはこれらのカメラ画像や資料画像を縮小してタイル状に配置することも、資料画像にカメラ画像を埋め込んで(又はその逆に)配置することも可能である。本実施形態では、資料画像にカメラ画像が埋め込まれて配置される場合を説明する。
【0079】
また、画像合成部17は、合成画像におけるカメラ画像の位置情報・サイズと拠点の識別情報をメタデータなどでフレームに添付する。
【0080】
ページ切替部16は、上記Bの画像処理に関し、資料画像の切り替えを検出して、資料画像を上下方向又は左右方向にスライドさせて切り替え前の資料画像から切り替え後の資料画像に切り替える。合成画像の各フレームには切り替わる途中の資料画像がスライドしながら記録される。補足すると、資料画像の切り替え自体はユーザー操作で行われる。ページ切替部16はユーザー操作による資料画像の切り替えを検出して、Bの処理のために切り替え後の資料画像を用意する(切り替え前の資料画像はすでに取得済み)。ページ切替部16は用意した切り替え後の資料画像と切り替え前の資料画像をスライドさせながら切り替える。
【0081】
なお、移動部15とページ切替部16は画像処理部21として機能する。移動部15とページ切替部16はいずれか一方が動作してもよいし、両方が動作してもよい。
【0082】
画像合成部17は、ページ切替部16が生成する、スライドしながら記録された資料画像に、自拠点のカメラ画像及び他拠点のカメラ画像を配置して1フレームの合成画像を生成する。
【0083】
合成画像送信部14は、合成画像を動画のように繰り返し録画再生装置30に送信する。動画の場合、1秒間に例えば30フレーム以上のフレームが次々に送信される。なお、合成画像送信部14は合成画像をリアルタイムに送信するほか、(会議中で録画再生装置30がディスプレイ出力をしていない場合は)一定量、蓄積してから送信してもよい。
【0084】
操作受付部18は、通信端末10に対するユーザーの操作を受け付ける。
【0085】
<<録画再生装置>>
録画再生装置30は、受信部31、動画ファイル作成部32、第一資料画像構築部33、操作受付部34、切替検出部35、第二資料画像構築部36、表示制御部37、及び、記憶部49を有している。録画再生装置30が有するこれらの機能は図4に示したハードウェアによりで実現されるが、CPUがプログラムで実行することで実現されてもよい。
【0086】
受信部31は、通信端末10から合成画像を受信し、合成画像記憶部41に保存する。このように、合成画像記憶部41には資料画像にカメラ画像が埋め込まれている合成画像が保存される。
【0087】
動画ファイル作成部32は、カメラ画像の位置情報・サイズに基づいて合成画像からカメラ画像を取り込み、カメラ画像からなる動画ファイル(第二の動画ファイルの一例)を作成する。合成画像からカメラ画像を取り出すことをトリミングという場合がある。動画ファイル作成部32は拠点の識別情報に基づいて同じ拠点のカメラ画像を時系列にカメラ画像記憶部42に保存する。カメラ画像は合成画像の各フレームから取得できるので、合成画像と同じfps(flame per second)のフレームがカメラ画像ごと(拠点ごと)に保存される。
【0088】
第一資料画像構築部33は、上記Cの処理として、撮像時刻が異なる合成画像(カメラ画像が切り取られた合成画像を中間画像という)にOR演算を行い、資料画像を構築する。第一資料画像構築部33は、構築した資料画像を資料画像記憶部43に保存する。この資料画像は死角がなくなるまでカメラ画像が移動するのに必要な時間ごとに構築される。
【0089】
切替検出部35は、上記Dの処理として、資料画像そのもの又は資料画像のページ(以下、区別せずにページの切り替わりという)が切り替わったことを検出する。切替検出部35は、合成画像のカメラ画像以外の領域を、撮像時刻が異なるフレームごとに比較する。差異が一定以上の場合、切替検出部35は、資料画像のページが切り替わったことを検出する。あるいは、切替検出部35は、通信端末10から送信されたページを切り替える操作信号により資料画像のページの切り替わりを検出する。
【0090】
第二資料画像構築部36は、上記Dの処理として、ページが切り替わったことが検出されると、カメラ画像が重なっていない部分の資料画像を結合して、資料画像を構築する。第二資料画像構築部36は構築した資料画像を資料画像記憶部43に保存する。この資料画像はページの切り替わりごとに構築される。
【0091】
なお、第一資料画像構築部33と第二資料画像構築部36はいずれか一方が処理してもよいし、両方が処理してもよい。両方が処理する場合、同じ資料画像が作成される場合があるが、同じ画像は削除してもよい。
【0092】
操作受付部34は、録画再生装置30に対する再生操作や録画操作を受け付ける。表示制御部37は、合成画像、カメラ画像、又は、資料画像をディスプレイ20に表示する。
【0093】
図6は、合成画像記憶部41に記憶される情報を説明する図である。合成画像記憶部41では、録画開始から終了までが1つの動画ファイルで保存される。図6では、録画ID、撮像開始時刻、撮像終了時刻、拠点数、サイズ、録画時間、ファイル名の各項目が動画ファイルごとに管理されている。
・録画IDは動画ファイルを識別する識別情報であり、カメラ画像や資料画像を合成画像と対応付ける情報である。
・撮像開始時刻は録画の開始時刻である。
・撮像終了時刻は録画の終了時刻である。
・拠点数は会議に参加した拠点の数であり、通信端末10から送信される。なお、拠点数には自拠点も含まれる。
・サイズは動画ファイルの容量である。
・録画時間は、開始時刻から終了時刻の経過時間である。
・ファイル名は、ファイルパスと共に保存される合成画像のファイル名である。動画ファイルの形式は制限されない。
【0094】
図7は、カメラ画像記憶部42に記憶される情報を説明する図である。カメラ画像記憶部42には、拠点ごとのカメラ画像が1つの動画ファイルで保存される。図7では、録画ID、撮像開始時刻、撮像終了時刻、拠点ID、サイズ、録画時間の各項目が動画ファイルごとに管理されている。録画ID、撮像開始時刻、撮像終了時刻、サイズ、及び録画時間については図6と同様でよい。
・拠点IDは、拠点を識別する識別情報である。録画再生装置30が拠点名を通信端末10から取得してもよいし、重複しない番号を採番しもよい。
【0095】
なお、図7ではファイル名を省略したが、拠点ごとのカメラ画像が動画ファイルで保存されている。また、各拠点のカメラ画像は1つの動画ファイルに保存されてもよい。
【0096】
図8は、資料画像記憶部43に記憶される情報を説明する図である。図8(a)は第一資料画像構築部33が構築した資料画像の情報であり、図8(b)は第二資料画像構築部36が構築した資料画像の情報である。
【0097】
図8(a)の資料画像記憶部43では、合成画像の動画ファイルから構築された1つ以上の資料画像が保存される。図8(a)では、録画ID、構築開始時刻、構築終了時刻、資料画像ID、サイズ、ファイル名の各項目が資料画像ごとに管理されている。
・構築開始時刻は、資料画像の構築の開始を録画の開始時刻を基準として記録した時刻である。構築の開始は、後述する状態Aの時刻でよい。
・構築終了時刻は、資料画像の構築の終了を録画の開始時刻を基準として記録した時刻である。構築の終了は、後述する状態Cの時刻でよい。
・資料画像IDは、資料画像を識別する識別情報である。
・サイズは資料画像の容量である。
・ファイル名は、資料画像のファイル名である。図8(a)では資料画像が静止画であるが、動画として保存されてもよい。
【0098】
図8(b)の資料画像記憶部43では、録画ID、ページ切り替え時刻、資料画像ID、サイズ、ファイル名の各項目が資料画像ごとに管理されている。録画ID、資料画像ID、サイズ、及びファイル名の各項目は、図8(a)と同様でよい。
・ページ切り替え時刻は、ページの切り替わりが検出された時刻を、録画の開始時刻を基準として記録した時刻である。
【0099】
<従来の合成画像の方法>
図9は、通信端末10が作成する従来の合成画像の一例である。図9の合成画像は以下のような構成である。
・画面全体には協議中の資料画像201が表示されている。細かなテキストも含まれるため、できるだけ大きく表示されることが望ましい。
・画面左下はある拠点の参加者全員が撮像されているパノラマ画像202(カメラ画像)である。
・画面中央下は、在宅勤務等のため一人でリモート参加している個人ごとの個別画像203(カメラ画像)である。そのうちの1つが自拠点のカメラが撮像したカメラ画像である。
・画面右下は、発話中の人がやや大きめに表示されている話者カメラ画像204である。
【0100】
図9の合成画像をそのまま録画再生装置30が録画すると、会議に参加できなかった人がこの再生した場合に以下のような問題があった。
・資料の死角が発生することが避けられない。
・資料画像を小さく表示すれば死角はなくなるかもしれないが、資料等はテキストが含まれるケースが多いため、縮小表示ではその内容を読み取りにくくなり、会議の進行に支障をきたす。
・死角の領域が見える時間帯があるのかもしれないが、見える時間帯がわからないとユーザーが再生時に全時間の映像を見る必要があるかもしれない。その場合、時間節約のために端折って再生映像を見るということがやりにくい方法があるが、結局、最後まで見えなかったというケースもあり得る。
【0101】
従って、合成画像は、会議に参加できなかった人にとっては使いづらい録画映像となっていた。
【0102】
<本実施形態の画像処理の概略>
以下では、合成画像に対する二種類の画像処理を説明する。
【0103】
A.カメラ画像の位置の移動
まず、図10は、合成画像におけるカメラ画像の位置を移動させる画像処理の概略を説明する図である。
【0104】
通信端末10の移動部15は、各拠点のカメラ画像を、図10(a)→図10(b)→図10(c)のように、ゆっくりと微妙に位置を変えて合成する。図10(a)~(c)によれば、パノラマ画像202、在宅リモート参加者の個別画像203、及び、発話者映像が移動していることが分かる。移動部15は、カメラ画像の位置を変えることで全く見えないままの領域を残さないように移動する。例えば、画像合成部17は、「カメラ画像のWindowの大きさ(サイズ)」と「表示位置座標(位置情報)」を把握しながら、死角を残さないように(サイズよりも大きく)ゆっくりと位置を変えていく。
【0105】
録画再生装置30では、合成画像が圧縮符号化の後に記録される。再生時に(又は録画から再生までの間に)、録画再生装置30の第一資料画像構築部33は、Cの処理として、カメラ画像の表示位置が変わっていくことを利用して、死角のない資料画像を別途作成する。すでに会議が終了しているので(リアルタイムである必要がないため)、このような操作が可能になる。
【0106】
また、再生時には、録画再生装置30は死角のない資料画像のみを表示することもできる。また2つのディスプレイがあれば、資料画像とカメラ画像を別々のディスプレイに同時に表示させることができる。
【0107】
以上の操作で、再生時の会議内容把握にかかる時間を大幅に削減できることが期待できる。
【0108】
<処理手順>
図11は、合成画像の録画処理を説明するフローチャート図である。
【0109】
通信端末10のユーザーは、通信端末10又はアプリを起動させる。ユーザーは、起動時に録画システム60にかかわる初期設定を行う(S1)。初期設定は、例えば、接続先拠点の指定や会議画面のレイアウト指定、等である。
【0110】
次に、通信端末10はカメラやマイク、スピーカなど入出力機器の初期化、動作モードの設定等を行い、各装置を起動する(S2)。例えば、通信端末10は会議環境に合わせて、測光条件等のカメラ撮像モードの設定を行う。
【0111】
通信部13は、ステップS1、S2で本体の準備が整った時点で、通信管理システム50に通信開始を要求して会議をスタートする(S3)。通信部13は、あるいは相手局からの通信要求を受けて通信をスタートしてよい。通信端末10が合成画像を録画する場合は、録画再生装置30もこの時点で起動させる。
【0112】
合成画像が録画状態になっている場合は、処理はステップS7に移動する。そうでない場合は、処理はステップS5に進む。
【0113】
録画再生装置がREADY状態であれば、処理はステップS6に進む。そうでない場合は、処理はステップS8に進む。
【0114】
通信端末10の合成画像送信部14は合成画像を録画再生装置30に送信することで、録画再生装置30が録画処理を開始する(S6)。
【0115】
合成画像送信部14は録画処理を実行、又は継続する(S7)。会議が終了した場合は、通信端末10は待機状態へ移行する(S8)。会議が終了するまで、処理はステップS4に戻り、S4からS7の処理を繰り返す。
【0116】
<<カメラ画像の位置の移動>>
図12は、合成画像のカメラ画像の移動を画面表示イメージで表した図である。つまり、移動部15が、図12のようにカメラ画像を移動させれば資料画像の死角をなくすことができる。
1.状態A→状態Bへ移行中は、パノラマ画像202と話者カメラ画像204が図で示すように移動する(上方向に移動)。
2.状態B→状態Cに移行中は、個別画像203と話者カメラ画像204が図で示すように移動する(個別画像203が左方向、話者カメラ画像204が上方向)。
3.状態C→状態Dに移行中は、個別画像203と話者カメラ画像204が図で示すように移動する(個別画像203が右方向、話者カメラ画像204が下方向)。すなわち、各カメラ画像が元の位置に戻ろうとする。
4.状態D→状態Aに移行中は、パノラマ画像202と話者カメラ画像204が図で示すように移動する(下方向に移動。初期の位置に戻ろうとする)。
この状態は以下のように遷移する。
状態A→状態B→状態C→状態D→状態A→状態B→状態C→状態D→・・・(以後繰り返し)
【0117】
図13は、図11のステップS7の処理を説明するフローチャート図である。図13では、現在の移動状態に従ってカメラ画像の移動方向が指定される。図12で説明したように、カメラ画像の移動中の状態A~Cは3つのいずれかの状態なので(状態DからAは復路なので状態としては省略してよい)、以下のようにカメラ画像が移動される。
【0118】
状態A→状態Bに向けてカメラ画像を徐々に移動中の場合(S71のYes)、移動部15は状態A→状態Bに向けてカメラ画像を徐々に移動する(S72)。ステップS71がNoの場合、処理はステップS73に進む。
【0119】
状態B→状態Cに向けてカメラ画像を徐々に移動中の場合(S73のYes)、移動部15は状態B→状態Cに向けてカメラ画像を徐々に移動する(S74)。ステップS73がNoの場合、処理はステップS75に進む。
【0120】
状態C→状態Dに向けてカメラ画像を徐々に移動中の場合(S75のYes)、移動部15は状態C→状態Dに向けてカメラ画像を徐々に移動する(S76)。ステップS75がNoの場合、処理はステップS77に進む。移動部15は状態D→状態Aに向けてカメラ画像を徐々に移動する(S77)。
【0121】
通信端末10の移動部15は、ステップS72,74,76,77ずれかの処理を常に行っていることになる。例えば、状態A~Cまでの時間は予め設定されており、30秒や1分などゆっくりした時間(ユーザーがカメラ画像の移動が気にならない時間)でよい。
【0122】
図14は、合成画像のフレームに添付されるメタデータの一例である。フレームにはフレームID、領域ID、位置情報、サイズ、及び、状態が添付される。
・フレームIDは、例えばフレームの識別情報である。撮像時刻や撮像開始からの経過時間が含まれるとよい。
・拠点IDは拠点を識別する識別情報である。
・位置情報は、合成画像内のカメラ画像の座標である。位置情報は、移動部15が制御する値である。
・サイズはカメラ画像の幅と高さである。サイズは、ユーザーが設定しても固定でもよいが、いずれにせよ既知である。
【0123】
拠点ID、位置情報及びサイズはカメラ画像の数だけ含まれる。
・状態には、カメラ画像の配置が上記A~Dになった場合に状態A~Dが格納される。移動部15が制御する値である。
【0124】
<C.録画再生装置における資料画像の構築>
図15は、録画再生装置30における資料画像の再生方法を説明する図である。録画再生装置30の第一資料画像構築部33は、録画された合成画像を活用して、死角がない資料画像を構築する。
【0125】
第一資料画像構築部33は、合成画像の画像データから状態A、状態B、状態Cのそれぞれのフレームを取得する。状態A、状態B、状態Cのフレームであるかどうかは、録画再生装置30がカメラ画像の位置に基づいて判断してもよいし、画像合成部17が図14のメタデータから判断してもよい。
【0126】
第一資料画像構築部33は、カメラ画像を表示していた領域を黒画素(256階調の0)に置き換え中間画像250を作成する(図15(a)~(c))。中間画像250は動画ファイル作成部32がカメラ画像をトリミングした後の合成画像でもよい。第一資料画像構築部33は白画素に置き換えてもよい。状態A、状態B、状態Cのカメラ画像の位置やサイズはメタデータから取得できる。
【0127】
第一資料画像構築部33は、状態A'、状態B'、状態C'の中間画像250を画素位置ごとにOR演算で合成すれば、死角のない資料画像251を構築することができる図15(d))。このOR演算は、例えば、3つの中間画像250のうち画素値が0なら破棄して、0でなければ平均(又は任意の画像のどれか)を採用する処理である。
【0128】
なお、状態A~Cの間に(カメラ画像の位置が変化する間に)資料画像が切り替わっている可能性があるので、第一資料画像構築部33はカメラ画像がない中間画像250の領域をブロックに分けて、3つの中間画像250のブロック同士を比較し、切り替わりを検出するとよい。資料画像が切り替わっていた場合、第一資料画像構築部33は資料画像を構築しない。あるいは、切り替わっていない資料画像が2つあれば、資料画像を構築してもよい(この場合、資料画像の全体を構築できないおそれがある)。
【0129】
また、使用する合成画像は上記では状態A~Cの3つだが、死角がなくなるように合成画像があればよく、2つ又は4つ以上でもよい。
【0130】
<Cの処理による、資料画像と動画ファイルの作成>
図16は、録画再生装置30がカメラ画像(動画ファイル)と資料画像を保存する処理を説明するフローチャート図である。図16の処理は、合成画像の動画ファイルが合成画像記憶部41に保存されると実行可能となる。ユーザーが録画再生装置30に対し、合成画像を再生する操作を開始したことでスタートしてもよい(普段のデータ収納は合成画像のままでよい)。
【0131】
まず、動画ファイル作成部32は、合成画像記憶部41から合成画像を取得する(S11)。取得する合成画像はユーザーが指定した動画ファイルでもよいし、カメラ画像の動画ファイルや資料画像が構築されていない動画ファイルでもよい。
【0132】
動画ファイル作成部32は、各フレームのメタデータに含まれるカメラ画像の位置情報とサイズに基づいて、フレームからカメラ画像を切り出す。動画ファイル作成部32はこれらを拠点ごとに動画ファイルとしてカメラ画像記憶部42に保存する(S12)。
【0133】
次に、第一資料画像構築部33は合成画像の動画ファイルから状態がA~Cのフレームを特定する(S13)。ここでは、動画ファイル作成部32により中間画像が作成済みとする。
【0134】
状態A~Cのフレームは時系列にほぼ一定間隔に現れる。第一資料画像構築部33は状態A~Cのフレームを1セットに、OR演算して資料画像を構築する(S14)。
【0135】
第一資料画像構築部33は、資料画像に録画ID、構築開始時刻、構築終了時刻、資料画像ID、サイズ、ファイル名を対応付けて資料画像記憶部43に保存する(S15)。なお、構築開始時刻は状態Aのフレームの撮像時刻であり、構築終了時刻は状態Cのフレームの撮像時刻である。
【0136】
<B.資料画像の上下スライド>
続いて、「B.資料画像の上下スライド」による合成画像の生成と録画された資料画像の構築について説明する。
【0137】
図17は、資料画像を上にスライドさせながら合成画像を作成する画像処理の概略を説明する図である。
【0138】
通信端末10のページ切替部16は、資料画像を、図17(a)→図17(b)→図17(c)のように、上方向に移動させながら次の資料画像(次のページ)に移行する。スライドの速度は録画再生装置30が資料画像を取り込める程度の速度とする。図17ではカメラ画像が資料画像の下部にあるため、ページ切替部16が資料画像を上にスライドさせるが、カメラ画像が資料画像の側方にある場合、ページ切替部16が資料画像を左又は右にスライドさせる。カメラ画像が資料画像の上部にある場合、ページ切替部16が資料画像を下にスライドさせる。このように、ページ切替部16は、カメラ画像のレイアウトを考慮してスライド方向を決定する。
【0139】
図17(a)→図17(b)→図17(c)では、切り替わる前の資料画像Aと切り替わった後の資料画像Bが徐々に上方向にスライドしている。
【0140】
図18を用いて詳細に説明する。図18は、資料画像の上下スライドを説明する図である。まず、ページ切替部16は、図18(a)に示すように、資料画像の切り替わりを検出する。ページ切替部16は、例えば、他の拠点から送信される資料画像を一定間隔で比較し、資料画像の切り替わりを検出できる。ページ切替部16は、ページを切り替えた旨の操作信号で検出してもよい。ページ切替部16は切り替え後の資料画像Bを用意する。
【0141】
資料画像の切り替わりを検出した場合、ページ切替部16は、2つの資料画像A,Bを上下方向に連結し、図18(b)→図18(c)→図18(d)に示すように、1フレーム220に入る部分を資料画像として切り取る。ページ切替部16は、2つの資料画像A,Bの上方から下方に切り取る範囲を徐々に移動する。例えば、図18(b)では切り替わる前の資料画像Aの全体が1フレーム220に配置され、図18(c)では切り替わる前の資料画像Aの下半分と切り替わった後の資料画像Bの上半分が1フレーム220に配置され、図18(d)では切り替わった後の資料画像Bの全体が1フレーム220に配置されている。画像合成部17はこのようなフレームにカメラ画像を配置して合成画像を作成する。
【0142】
そして、録画再生装置30では、図17図18で説明した合成画像が圧縮符号化の後に記録される。この合成画像は、資料画像が上下にスライドしながら徐々に切り替わる動画になる。資料画像にはカメラ画像も埋め込まれている。資料画像の再生時、録画再生装置30の第二資料画像構築部36は、Dの処理として、資料画像がスライドしながら表示されていることを利用して、死角のない資料画像を別途作成する。
【0143】
すなわち、第二資料画像構築部36は、カメラ画像が重なっていない部分の資料画像を結合して、資料画像を構築する。カメラ画像が存在する領域を下端からLとすると、L以上の領域を切り取ればよい。第二資料画像構築部36は、例えば、図18(b)の画面(フレーム)の上半分221(フレームの一部)を切り取り、図18(c)の画面(フレーム)の上半分222(フレームの一部)を切り取る。第二資料画像構築部36は切り取った2つの資料画像を結合して、資料画像を構築する。図18(b)から図18(d)への切り替え時間をT秒とすると、切り替えの検出の直前と、切り替えの検出からT/2秒経過時に第二資料画像構築部36がそれぞれフレームの上半分221,222を切り取ればよい。
【0144】
なお、図17図18の画像処理は、会議参加者が多い(参加拠点数が多いため)、Aのカメラ画像の移動がやりにくい、又は、資料の改頁がかなり短いインターバルで発生する場合に適している。
【0145】
<処理手順>>
図19は、資料画像を上にスライドさせる処理において、図11のステップS7の処理を説明するフローチャート図である。
【0146】
ページ切替部16が、他の拠点から送信される資料画像と表示中の資料画像に基づいて資料画像(ページ)が切り替わったか否かを判断する(S21)。ページ切替部16は、自拠点の通信端末10が資料画像を表示している場合、ユーザーの操作でページの切り替えを検出できる。
【0147】
また、ページ切替部16は、資料画像におけるカメラ画像の位置に基づいてスライド方向を判断する(S22)。ここではページ切替部16は、上方向にスライドすると判断したものとする。
【0148】
次に、ページ切替部16は切り替わる前の資料画像を上に、切り替わった後の資料画像を下にして2つの資料画像を上下に連結する(S23)。
【0149】
ページ切替部16は、上側の資料画像の高さを時間Tで除算してスライド速度を決定する(S24)。時間Tは、予め設定されている。時間Tは、キャプチャ処理が間に合う範囲で速いほうが好ましい(例えば、10秒等)。ユーザーが会議中の議論に遅れないように資料画像を表示するためである。
【0150】
ページ切替部16は、合成画像のフレームごとに、スライド速度に基づいて、上側の資料画像の上端を基準にフレームに含める範囲を決定する(S25)。
【0151】
ページ切替部16は、上側の資料画像がフレームに入らなくなるまで、ステップS24の処理を繰り返す(S26)。
【0152】
<D.録画再生装置における資料画像の構築>
次に、図20を参照して、録画再生装置30における資料画像の構築について説明する。図20は、資料画像を上下にスライドさせる処理において、第二資料画像構築部36が資料画像を構築する処理を説明するフローチャート図である。
【0153】
まず、第二資料画像構築部36は、合成画像記憶部41から合成画像の動画ファイルを取得する(S31)。取得する合成画像はユーザーが指定した動画ファイルでもよいし、カメラ画像の動画ファイルや資料画像が構築されていない動画ファイルでもよい。
【0154】
切替検出部35は、合成画像のフレームを監視して資料画像が切り替わったか否かを判断する(S32)。
【0155】
ステップS32の判断がYesの場合、まず、第二資料画像構築部36は切り替える前の資料画像の上半分をキャプチャする(S33)。合成画像は保存済みなので、第二資料画像構築部36は切り替え開始の直前のフレームを特定できる。
【0156】
次に、第二資料画像構築部36は切り替えが検出されてからT/2秒が経過した資料画像の上半分をキャプチャする(S34)。
【0157】
第二資料画像構築部36は、資料画像の上半分と下半分を連結して、資料画像を構築する(S35)。
【0158】
第二資料画像構築部は、資料画像に録画ID、ページ切替時刻、資料画像ID、サイズ、ファイル名を対応付けて資料画像記憶部43に保存する(S36)。
【0159】
第二資料画像構築部36は、合成画像の動画ファイルの最後まで図20の処理を繰り返す(S37)。
【0160】
<会議に参加していなかったユーザーの操作による資料画像の閲覧>
図21は、合成画像の再生時に利用できる3種類の画像を示す図である。図21(a)は合成画像260を示す。
【0161】
図21(b)は資料画像用のファイルである。
図21(b)は、C又はDの処理により作成された、会議中に共有されていた資料等に対して、死角のない資料画像251のファイルである。
【0162】
図21(c)は、パノラマ画像202、個別画像203、話者カメラ画像204等のカメラ画像252のみを表示した動画ファイルである。
・再生時に資料と同時に映す必要がなければ、拡大表示が可能になるため、人の表情等がわかりやすくなる。
【0163】
図21(d)は、図21(a)と同様の合成画像260の動画ファイルである。
図21(d)は、元の合成画像であり、動画として表示できる。
【0164】
ユースケースの一例を説明する。会議に参加しなったユーザーはPCを録画再生装置30に接続して、合成画像の動画ファイルを選ぶ。どの合成画像が所望の会議のものかは、撮像開始時刻等からユーザーが判断できる。図21(d)に示すように、ユーザーは合成画像を最初から閲覧するが、資料の死角が気になると、例えば資料をダブルクリックするなどする。操作受付部34が資料の要求を検出する。表示制御部37は資料が要求された合成画像の表示時刻を検出し、資料画像記憶部43から表示時刻に対応する資料画像を取得する。例えば、合成画像の開始から1分15秒の経過時に資料が要求された場合、1分から1分30秒の間のフレームから構築された001-003.jpegの資料画像を取得する。表示制御部37は、ディスプレイにこの資料画像(死角がない)を大きく表示できる。
【0165】
同様に、ユーザーが参加者の表情が気になると、例えば任意のカメラ画像をダブルクリックするなどする。操作受付部34がカメラ画像の要求を検出する。表示制御部37はカメラ画像が要求された合成画像の表示時刻を検出し、カメラ画像記憶部42から表示時刻に対応するカメラ画像を取得する。例えば、合成画像の開始から1分15秒の経過時にカメラ画像が要求された場合、各拠点のカメラ画像(動画ファイル)の1分15秒経過時から再生する。
【0166】
また、図22に示すように、2つのディスプレイ20A,20Bがあれば、録画再生装置30は、カメラ画像252と資料画像251を同時に表示できる。図22は、合成画像260から作成されたカメラ画像252と資料画像251の2つのディスプレイを用いた表示例を示す。図21で説明したようにカメラ画像と資料画像を別々に用意することで、以下のような再生方法が可能になる。
・録画再生装置30が出力I/Fを2つ有する場合、図21(b)と(c)の画像を同時に2つのディスプレイ20A,20Bにそれぞれ出力することができる。
・あるいは、Dual DisplayとDisplayPortのマルチストリーム機能(ディスプレイ同士を接続できる)を使うことで、図21(b)と(c)の画像を同時にモニター出力することができる。
【0167】
<主な効果>
以上説明したように、本実施形態の録画システム60は、カメラ画像が徐々に移動させるか、又は、資料画像をスライドさせてページを切り替えるかの少なくともいずれかにより、録画再生装置30は、画像の背面に隠れていた領域も取得できる。録画再生装置30はそれを別ファイルとして保存しておくことで、再生時は資料画像の全体を表示したり、資料画像の任意の位置にカメラ画像を移動したりすることができる。
【0168】
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
【0169】
例えば、本実施形態では、資料画像にカメラ画像が埋め込まれる例を説明したが、画像に何が映っているかに関わらず本実施形態を適用できる。例えば資料画像は風景画像などでもよい。カメラ画像は動画投稿サイトが提供する画像でもよい。また、資料画像をWebページとして、カメラ画像を広告としてもよい。
【0170】
また、本実施形態では録画再生装置30が資料画像を構築したが、サーバーが資料画像を構築してもよい。
【0171】
また、図5などの構成例は、通信端末10、及び録画再生装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。通信端末10、及び録画再生装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
【0172】
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等のデバイスを含むものとする。
【符号の説明】
【0173】
10 通信端末
30 録画再生装置
60 録画システム
100 通信システム
【先行技術文献】
【特許文献】
【0174】
【特許文献1】特開2009-18298号公報
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22