IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社リコーの特許一覧

特開2024-137688表示端末、通信システム、表示方法、及びプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024137688
(43)【公開日】2024-10-07
(54)【発明の名称】表示端末、通信システム、表示方法、及びプログラム
(51)【国際特許分類】
   H04N 7/18 20060101AFI20240927BHJP
   G09G 5/00 20060101ALI20240927BHJP
   G09G 5/10 20060101ALI20240927BHJP
   G09G 5/37 20060101ALI20240927BHJP
   G06F 3/0481 20220101ALI20240927BHJP
【FI】
H04N7/18 U
G09G5/00 510A
G09G5/00 550C
G09G5/10 B
G09G5/37 320
G06F3/0481
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2023219746
(22)【出願日】2023-12-26
(31)【優先権主張番号】P 2023046364
(32)【優先日】2023-03-23
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000006747
【氏名又は名称】株式会社リコー
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】向後 麻亜子
【テーマコード(参考)】
5C054
5C182
5E555
【Fターム(参考)】
5C054CA04
5C054CC05
5C054FC12
5C054FE14
5C054FE17
5C182AA02
5C182AA03
5C182AA05
5C182AA26
5C182AB02
5C182AB33
5C182AC38
5C182AC46
5C182BA14
5C182BA29
5C182BA46
5C182BC26
5C182CA01
5C182CB45
5E555AA21
5E555BA01
5E555BB01
5E555BC01
5E555BC17
5E555CC05
5E555DB53
5E555FA00
(57)【要約】
【課題】本開示は、自身も含めたユーザが広視野画像のどの辺りを閲覧しているかを把握し易くすることを目的とする。
【解決手段】本開示は、広視野画像の所定領域である所定領域画像を表示する表示端末であって、前記広視野画像における第1の所定領域である第1の所定領域画像(753a2)、及び前記広視野画像(M)を表示部に表示する表示制御部を有し、前記表示制御部は、前記第1の所定領域に対応した表示領域(752a)を、前記表示部に表示された前記広視野画像上に表示させる、表示端末である。
【選択図】図26
【特許請求の範囲】
【請求項1】
広視野画像の所定領域である所定領域画像を表示する表示端末であって、
前記広視野画像における第1の所定領域である第1の所定領域画像、及び前記広視野画像を表示部に表示させる表示制御部を有し、
前記表示制御部は、
前記第1の所定領域に対応した表示領域を、前記表示部に表示された前記広視野画像上に表示させる、表示端末。
【請求項2】
請求項1に記載の表示端末であって、
前記広視野画像における第2の所定領域を特定するための領域情報を受信する受信部を有し、
前記表示制御部は、前記受信部によって受信された前記領域情報に基づいて、他の表示端末に係る表示領域を前記広視野画像上に表示する、表示端末。
【請求項3】
前記広視野画像が全天球画像の場合、前記表示制御部は、前記広視野画像の表示として、前記全天球画像の正距方位射影画像を表示し、
前記領域情報は、前記広視野画像における前記所定領域を特定するための画角情報である、請求項2に記載の表示端末。
【請求項4】
前記表示制御部は、地球における天頂から前記全天球画像を射影することで前記正距方位射影画像を作成する、請求項3に記載の表示端末。
【請求項5】
前記表示領域は、前記正距方位射影画像の中心から前記第2の所定領域に対する画角を示す形状である、請求項3に記載の表示端末。
【請求項6】
前記表示領域は、前記全天球画像における前記第2の所定領域の位置の緯度に応じて、前記正距方位射影画像の中心から前記第2の所定領域へのグラデーションで表される、請求項5に記載の表示端末。
【請求項7】
前記全天球画像における前記第2の所定領域の位置が前記全天球画像における赤道よりも高い経度の場合には、前記グラデーションは前記正距方位射影画像の中心から前記第2の所定領域へ向かって明度が高くなる、請求項6に記載の表示端末。
【請求項8】
前記全天球画像における前記第2の所定領域の位置が前記全天球画像における赤道よりも低い経度の場合には、前記グラデーションは前記正距方位射影画像の中心から前記第2の所定領域へ向かって明度が低くなる、請求項6に記載の表示端末。
【請求項9】
前記画角を示す形状は、前記正距方位射影画像の中心を一頂点とする三角形であり、前記一頂点における内角は前記画角に応じた角度である、請求項5に記載の表示端末。
【請求項10】
撮影することで全天球画像を得る撮影装置と、前記全天球画像の所定領域である所定領域画像を表示する表示端末とを有する通信システムであって、
前記撮影装置は、
自装置の姿勢を検知して姿勢情報を得る検知部と、
前記全天球画像及び前記姿勢情報を出力する出力部と、
を有し、
前記表示端末は、
前記撮影装置が出力した前記全天球画像及び前記姿勢情報を受信する受信部と、
前記受信部によって受信された前記全天球画像及び前記姿勢情報に基づき前記全天球画像を射影することで得た正距方位射影画像を表示すると共に、当該正距方位射影画像上に前記全天球画像における所定領域に対応した表示領域を表示させる表示制御部と、
を有する、
通信システム。
【請求項11】
広視野画像の所定領域である所定領域画像を表示する表示端末が実行する表示方法であって、
前記表示端末は、
前記広視野画像における第1の所定領域である第1の所定領域画像、及び前記広視野画像を表示部に表示する表示制御処理を実行し、
前記表示制御処理は、
前記第1の所定領域に対応した表示領域を、前記表示部に表示された前記広視野画像上に表示させる処理を含む、表示方法。
【請求項12】
広視野画像の所定領域である所定領域画像を表示するためのプログラムであって、
コンピュータに、
前記広視野画像における第1の所定領域である第1の所定領域画像、及び前記広視野画像を表示部に表示させる表示制御処理を実行させ、
前記表示制御処理は、
前記第1の所定領域に対応した表示領域を、前記表示部に表示された前記広視野画像上に表示する処理を含む、プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、表示端末、通信システム、表示方法、及びプログラムに関する。
【背景技術】
【0002】
近年、通常の画角では確認しきれないような箇所も含む撮像範囲として、例えば360度の全周囲が撮像された360度画像(全天球画像、全方位画像、全周囲画像ともいう)等の広い視野角を有する広視野の画像(以下「広視野画像」と示す。)が知られている。このような広視野画像の全てを表示端末で表示させようとすると、広視野画像が湾曲して見えづらいため、各ユーザは同じ広視野画像において所望の所定領域を示す所定領域画像を表示して閲覧している。
【0003】
また、全天球の撮影装置及びLive Streamingシステムを用いて、観察者と遠隔にいる閲覧者とをつなぐことで、閲覧者がLive Streamingで配信される全天球画像を閲覧するサービスが提供されている。Live Streamingとは、インターネット等を介して動画をストリーミング配信する方式である。この場合、観察者の通信端末には、観察者が表示している所定領域画像に対して、この所定領域画像を基準に各閲覧者がどの辺りを閲覧しているかを示すための注目点や表示方向マークが表示される(特許文献1参照)。
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来の方法では、観察者の通信端末で表示されている所定領域画像を基準に各閲覧者がどの辺りを閲覧しているかを把握することはできるが、全天球画像等の広視野画像の全体において、どの辺りを閲覧しているのかを把握することは困難である。
【0005】
本開示は上記事情に鑑みてなされたもので、自身も含めたユーザが広視野画像のどの辺りを閲覧しているかを把握し易くすることを目的とする。
【課題を解決するための手段】
【0006】
請求項1に係る開示内容は、広視野画像の所定領域である所定領域画像を表示する表示端末であって、前記広視野画像における第1の所定領域である第1の所定領域画像、及び前記広視野画像を表示部に表示する表示制御部を有し、前記表示制御部は、前記第1の所定領域に対応した表示領域を前記表示部に表示された前記広視野画像上に表示させる、表示端末である。
【発明の効果】
【0007】
以上説明したように本開示によれば、自身も含めたユーザが広視野画像のどの辺りを閲覧しているかを把握し易くすることができるという効果を奏する。
【図面の簡単な説明】
【0008】
図1】(a)は撮影装置の左側面図であり、(b)は撮影装置の正面図であり、(c)は撮影装置の平面図である。
図2】撮影装置の使用イメージ図である。
図3】(a)は撮影装置で撮影された半球画像(前)、(b)は撮影装置で撮影された半球画像(後)、(c)はメルカトル図法により表された画像を示した図である。
図4】(a)メルカトル画像で球を被う状態を示した概念図、(b)全天球画像を示した図である。
図5】全天球画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。
図6】(a)は図5の立体斜視図、(b)は(a)の状態の所定領域画像がディスプレイに表示されている図、(c)は(a)における仮想カメラICの視点を変更後の所定領域を示した図、(d)は(c)の状態の所定領域画像がディスプレイに表示されている図である。
図7】球座標による三次元ユークリッド空間内の点を示した図である。
図8】所定領域と注目点との関係を示した概念図である。
図9】本発明の実施形態に係る通信システムの概略図である。
図10】撮影装置のハードウェア構成図である。
図11】中継装置のハードウェア構成図である。
図12】通信制御システム及び通信端末のハードウェア構成図である。
図13】第1の実施形態に係る通信システムの各機能構成図である。
図14】ユーザ・デバイス管理DBの概念図である。
図15】仮想ルーム管理DBの概念図である。
図16】画角情報管理DBの概念図である。
図17】通信システムにおいてコンテンツデータの通信処理を示したシーケンス図である。
図18】通信システムにおいて録画及び録音を開始する処理を示すシーケンス図である。
図19】通信システムにおいて画角情報を共有する処理を示すシーケンス図である。
図20】マップ画像と所定領域画像を表示する処理を示したフローチャートである。
図21】所定領域画像の変更に応じて、自端末のガイドアイコンの位置(方向)及び大きさを変更する処理を示すフローチャートである。
図22】他の通信端末の画角情報に基づいて、他の通信端末のガイドアイコンの位置(方向)及び大きさを変更する処理を示すフローチャートである。
図23】通信システムにおいて録画及び録音を停止する処理を示すシーケンス図である。
図24】通信システムにおいて録画及び録音の再生の処理を示すシーケンス図である。
図25】初期状態の表示画面を示す図である。
図26】通信端末で所定領域画像が変更されることにより、ガイドアイコン(画角表示領域)において所定領域の画角を示す角度及び緯度の角度を変更した状態の表示画面を示す図である。
図27】全天球画像及びガイドアイコンと正距方位射影画像との関係を示した図である。
図28】ガイドアイコンの位置(方向)及び大きさの変更状態を示す図である。
図29】録画データ選択画面を示す図である。
図30】第2の実施形態に係る通信システムの概念図である。
図31】VRゴーグルのハードウェア構成図である。
図32】VRゴーグルの使用イメージ図である。
図33】VRゴーグルの使用イメージ図である。
図34】第2の実施形態に係る通信システムの各機能構成図である。
図35】通信システムにおいてVRコンテンツを共有する処理を示すシーケンス図で
図36】VRゴーグルに表示される録画再生画面を示す図である。
図37】マップ画像の他の例を示した図である。
【発明を実施するための形態】
【0009】
以下、図面を用いて、本発明の実施形態について説明する。
【0010】
〔全天球画像の概要〕
図1乃至図8を用いて、全天球画像の生成方法について説明する。なお、全天球画像は、全天球パノラマ画像、360°パノラマ画像とも言われ、広範囲の視野角を有する広視野動画の一例である。広視野画像には、180°程度の単なるパノラマ画像も含まれる。
【0011】
まず、図1を用いて、撮影装置10の外観を説明する。撮影装置10は、全天球画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。
【0012】
図1(a)に示されているように、撮影装置10は、人間が片手で持つことができる大きさである。また、図1(a),(b),(c)に示されているように、撮影装置10の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。また、図1(b)に示されているように、撮影装置10の正面側には、シャッターボタン等の操作部115が設けられている。
【0013】
次に、図2を用いて、撮影装置10の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置10は、図2に示されているように、何らかの台2の上に設置された中継装置3と通信可能に接続されており、周りの被写体や風景等を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。なお、撮影装置10が撮影により得た全天球画像を、他の通信端末やシステムに送信しないのであれば、中継装置3は不要である。
【0014】
次に、図3及び図4を用いて、撮影装置10で撮影された画像から全天球画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。なお、メルカトル図法等により表された画像(以下、「メルカトル画像」という)でもよい。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。なお、「正距円筒射影画像」は、上述の広視野画像の一例としてエクイレクタングラー(equirectangular)形式の全天球画像である。
【0015】
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ等の広角レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ等の広角レンズ102bによって湾曲した半球画像(後側)となる。そして、撮影装置10は、半球画像(前側)と180度反転された半球画像(後側)とを合成して、図3(c)に示されているような正距円筒射影画像ECを作成する。
【0016】
そして、撮影装置10は、OpenGL ES(Open Graphics Library for Embedded Systems)等のソフトウェアを利用することで、図3(a)に示されているように、球面を覆うように正距円筒射影画像ECを貼り付け、図3(b)に示されているような全天球画像CEを作成する。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。OpenGL ESはあくまで画像処理を実行するソフトウェアの一例であって、他のソフトウェアによって全天球画像CEを作成してもよい。また、全天球画像CEは、静止画であっても動画であってもよい。なお、ここでは撮影装置10が全天球画像を生成する例として説明したが、同様の画像処理又は一部の画像処理の工程を通信制御システム5又は通信端末7,9が実行してもよい。
【0017】
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像が作成される。このように、全天球画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。
【0018】
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、通信端末7,9が全天球画像の一部領域である所定領域(以下、「所定領域画像」という)を湾曲(歪み)の少ない平面画像として表示することで、人間に違和感を与えない表示を行うことができる。これに関して、図5乃至図8を用いて説明する。
【0019】
図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの仮想的な視点の位置に相当するものである。図6において、(a)は図5の立体斜視図、(b)は(a)の状態の所定領域画像がディスプレイに表示されている図、(c)は(a)における仮想カメラICの視点を変更後の所定領域を示した図、(d)は(c)の状態の所定領域画像がディスプレイに表示されている図である。
【0020】
このように生成された全天球画像CEが、立体球CSであるとした場合、図5に示されているように、仮想カメラICは、全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮像領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮像方向と画角を示す画角情報(「領域情報」ともいう)によって特定される。
【0021】
また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。したがって、所定領域Tは、画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる。
【0022】
また、図6(a)の状態から、図6(c)に示されているように、仮想カメラICの仮想的な視点が右側(図面に向かって左側)に移動(「変更」ともいう)されると、これに応じて全天球画像CEにおける所定領域Tが所定領域T'に移動されるため、所定のディスプレイに表示される所定領域画像Qが所定領域画像Q'に変更される。これにより、所定のディスプレイには、図6(b)に示されている画像が、図6(d)に示されている画像に変更表示される。
【0023】
次に、図7及び図8を用いて、画角情報と所定領域Tの画像の関係について説明する。図7は、球座標による三次元ユークリッド空間内の点を示した図である。図8は、所定領域と注目点(中心点)との関係を示した概念図である。
【0024】
ここで、図7で示した中心cpを球面極座標系で表現したときの任意の位置座標を(r,θ,φ)とする。(r,θ,φ)は、それぞれ動径、極角、方位角である。動径rは、全天球画像を含む三次元の仮想空間の原点から任意の点(図8では中心cp)までの距離であり、図8で示した距離fに等しい。
【0025】
また、図8に示すように、仮想カメラICの撮像領域である所定領域Tの中心を、図7の中心cpと考えた場合、一般的に以下の(式1)で示される三角関数が成り立つ。
(L/f)= tan(α/2)・・・(式1)
なお、fは、仮想カメラICから中心cpまでの距離である。Lは、所定領域Tの任意の頂点と中心cpとの距離である(2Lは対角線)。αは画角である。この場合、所定領域Tを特定するための画角情報は、pan(φ)、tilt(θ)、及びfov(α)によって表すことができる。なお、所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。
【0026】
●第1の実施形態
〔第1の通信システムの概略〕
続いて、図9を用いて、第1の実施形態に係る通信システム1aの概略を説明する。図9は、第1の実施形態に係る通信システムの概略図である。
【0027】
図9に示されているように、本実施形態の通信システム1aは、撮影装置10、中継装置3、通信端末7、及び通信端末9a,9bによって構成されている。なお、通信端末9a,9bの総称を「通信端末9」と示す。また、通信端末は、画像等を表示する「表示端末」と示してもよい。
【0028】
このうち、撮影装置10は、上述のように、広視野画像(全天球画像等)を得るためのデジタルカメラである。中継装置3は、撮影装置1への充電やデータ送受信を行なうクレードル(Cradle)の機能を有している。また、中継装置3は、接点を介して撮影装置1とデータ通信を行なうことができると共に、通信ネットワーク100を介して通信制御システム5とデータ通信を行なうことができる。なお、通信ネットワーク100は、例えば、インターネット、LAN(Local Area Network)、(無線)ルータ等を含む。
【0029】
また、通信制御システム5は、例えば、コンピュータであり、通信ネットワーク100を介して、中継装置3、通信端末7,9とデータ通信を行なうことができる。なお、通信制御システム5は、画角情報等を管理するため、「情報管理システム」と示すこともできる。
【0030】
通信端末7,9は、例えば、ノートPC(Personal Computer)等のコンピュータであり、通信ネットワーク100を介して、通信制御システム5とデータ通信を行なうことができる。通信端末7,9には、OpenGL ESがインストールされており、通信制御システム5から受信した全天球画像から所定領域画像(図6参照)を作成する。なお、通信制御システム5は、単一のコンピュータによって構成されてもよいし、複数のサーバコンピュータによって構成されてもよい。
【0031】
更に、撮影装置10及び中継装置3は、工事現場、展示場、教育現場、医療現場等の現地Saで主催者X等によって所定の位置に設置されている。通信端末7は主催者Xによって操作される。通信端末9aは現地Saの遠隔地にいる閲覧者等の参加者Aによって操作される。同様に、通信端末9bは現地Saの遠隔地にいる閲覧者等の参加者Bによって操作される。参加者Aと参加者Bは、同じ場所にいてもよいし、違う場所にいてもよい。
【0032】
通信制御システム5は、撮影装置10から中継装置3を介して得た広視野画像を、通信端末7,9に送信(配信)する。また、通信制御システム5は、各通信端末7,9から各通信端末7,9で表示中の所定領域画像の所定領域を特定するための各画角情報を受信して、各画角情報を通信端末7,9に送信する。なお、広視野画像は動画(広視野動画)であっても静止画(広視野静止画)であってもよい。
【0033】
〔第1の実施形態のハードウェア構成〕
次に、図10乃至図12を用いて、本実施形態の撮影装置10、中継装置3、及び通信端末7,9のハードウェア構成を詳細に説明する。
【0034】
<撮影装置のハードウェア構成>
図10は、撮影装置のハードウェア構成図である。図10に示されているように、撮影装置10は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、入出力I/F116、近距離通信回路117、近距離通信回路117のアンテナ117a、電子コンパス118、ジャイロセンサ119,加速度センサ120、及びネットワークI/F121によって構成されている。
【0035】
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角の撮像が可能な広角レンズ102a,102b(以下区別する必要のないときは、レンズ102と称する。)、及び各レンズ102a,102bに対応させて設けられている二つの撮像素子103a,103bを備えている。
【0036】
また、撮像素子103a,103bは、レンズ102a,102b等による光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の画像センサ、この画像センサの水平又は垂直同期信号や画素クロック等を生成するタイミング生成回路、及びこの撮像素子の動作に必要な種々のコマンドもしくはパラメータ等が設定されるレジスタ群等を有している。なお、撮像ユニット101が広角レンズを2つ備える構成はあくまで一例であって、1つだけ備えていてもよいし、3つ以上備えていてもよい。
【0037】
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスを介して接続している。一方、撮像ユニット101の撮像素子103a,103bは、それぞれ撮像制御ユニット105とシリアルI/Fバス(I2Cバス等)を介して接続している。
【0038】
画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続している。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、入出力I/F116、近距離通信回路117、電子コンパス118、ジャイロセンサ119、加速度センサ120及びネットワークI/F121等も接続される。
【0039】
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、後述する正距円筒射影画像(広視野画像の一例)のデータを作成する。
【0040】
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
【0041】
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置10によっては、ディスプレイ(例えば、近距離通信回路117を用いて撮影装置10と近距離通信を行うスマートフォン等の外部端末のディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
【0042】
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置10には表示部(ディスプレイ)が設けられていないが、表示部を設けてもよい。マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
【0043】
CPU111は、撮影装置10の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。
【0044】
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、及び表示と操作の機能を兼ねたタッチパネル等の総称である。ユーザは、操作部115を操作することで、種々の撮像モードや撮像条件等を入力する。
【0045】
入出力I/F116は、SDカード等の外付けのメディア又はパーソナルコンピュータ等とのインターフェース回路(USBのI/F等)の総称である。入出力I/F116は、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、入出力I/F116を介して外付けのメディアに記録されたり、必要に応じて入出力I/F116を介して外部端末(装置)に送信されたりする。
【0046】
近距離通信回路117は、撮影装置10に設けられたアンテナ117aを介して、NFC(Near Field Communication)、Bluetooth(登録商標)又はWi-Fi等の近距離無線通信技術によって、外部端末(装置)と通信を行う。近距離通信回路117は、正距円筒射影画像のデータを、外部端末(装置)に送信することができる。
【0047】
電子コンパス118は、地球の磁気から撮影装置10の方位を算出し、方位情報を出力する。この方位情報は、Exifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報は、画像の撮像日時及び画像データのデータ容量の各データも含む。
【0048】
ジャイロセンサ119は、撮影装置10の移動に伴う角度の変化(roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。
【0049】
加速度センサ120は、三軸方向の加速度を検出するセンサである。
【0050】
撮影装置10は、電子コンパス118、加速度センサ120等を利用して、自装置(撮影装置10)の姿勢(重力方向に対する角度)を算出する。また、撮影装置10は、加速度センサ120を設けることによって、画像補正の精度が向上する。
【0051】
ネットワークI/F121は、ルータ等を介して、インターネット等の通信ネットワーク100を利用したデータ通信を行うためのインターフェースである。また、撮影装置10のハードウェア構成はここに示すものに限られず、撮影装置10の機能的構成を実現できるものであればよい。また、上記ハードウェア構成の少なくとも一部は、中継装置3又は通信ネットワーク100上に存在していてもよい。
【0052】
<中継装置のハードウェア構成>
図11は、中継装置3のハードウェア構成図である。なお、図11は、中継装置3が、無線通信機能を有したクレードルの場合のハードウェア構成図である。
【0053】
図11に示されているように、中継装置3は、CPU310、ROM302、RAM303、EEPROM304、CMOSセンサ305、バスライン310、通信部313、アンテナ313a、GPS受信部314、及び入出力I/F316を備えている。
【0054】
これらのうち、CPU301は、中継装置3全体の動作を制御する。ROM302は、IPL(Initial Program Loader)等のCPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。
【0055】
EEPROM(Electrically Erasable and Programmable ROM)304は、CPU301の制御にしたがってデータの読み出し又は書き込みを行う。なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。
【0056】
CMOS(Complementary Metal Oxide Semiconductor)センサ305は、CPU301の制御に従って被写体を撮像し画像データを得る個体撮像素子である。
【0057】
通信部313は、アンテナ313aを利用して無線通信信号により、通信ネットワーク100に対する通信を行う。
【0058】
GPS受信部314は、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって中継装置3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信する。
【0059】
入出力I/F316は、撮影装置10の入出力I/F116と電気的に接続されるインターフェース回路(USBのI/F等)のである。入出力I/F316は、無線、有線を問わない。
【0060】
バスライン310は、CPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
【0061】
<通信制御システム、通信端末のハードウェア構成>
図12は、通信制御システム5のハードウェア構成である。なお、通信端末7,9のハードウェア構成は、通信制御システム5と同様であるため、説明を省略する。
【0062】
通信制御システム5は、コンピュータとして、図4に示されているように、CPU501、ROM502、RAM503、SSD504、外部機器接続I/F505、ネットワークI/F506、ディスプレイ507、操作部508、メディアI/F509、バスライン510、CMOSセンサ511、及びスピーカ512を備えている。
【0063】
これらのうち、CPU501は、通信制御システム5全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。
【0064】
SSD504は、CPU501の制御に従って各種データの読み出し又は書き込みを行う。なお、通信端末7,9がスマートフォン等の場合には、SSD504を設けなくてもよい。また、SSD504の代わりに、HDD(Hard Disk Drive)を設けてもよい。
【0065】
外部機器接続I/F505は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、ディスプレイ、スピーカ、キーボード、マウス、USBメモリ、及びプリンタ等である。
【0066】
ネットワークI/F506は、通信ネットワーク100を介してデータ通信をするためのインターフェースである。
【0067】
ディスプレイ507は、各種画像を表示する液晶や有機EL(Electro Luminescence)などの表示部の一種である。
【0068】
操作部508は、種々の操作ボタンや電源スイッチ、シャッターボタン、タッチパネル等の各種指示の選択や実行、処理対象の選択、カーソルの移動等を行うための入力手段である。
【0069】
メディアI/F509は、フラッシュメモリ等の記録メディア509mに対するデータの読み出し又は書き込み(記憶)を制御する。記録メディア509mには、DVDやBlu-ray Disc(登録商標)等も含まれる。
【0070】
CMOSセンサ511は、CPU501の制御に従って被写体を撮像して、画像データを得る撮像手段の一種である。CMOSセンサではなく、CCDセンサを使用してもよい。
【0071】
スピーカ512は、電気信号を物理振動に変えて音楽や音声などの音を生み出す回路である。
【0072】
バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
【0073】
〔第1の実施形態の機能構成〕
続いて、図13乃至図16を用いて、第1の実施形態の機能構成について説明する。
【0074】
<撮影装置の機能構成>
図13に示されているように、撮影装置10は、受付部12、検知部13、撮像部16、集音部17、接続部18、及び記憶・読出部19を有している。これら各部は、図10に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
【0075】
また、撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
【0076】
(撮影装置の各機能構成)
撮影装置1の受付部12は、CPU111に対する操作部115の処理によって実現され、ユーザからの操作入力を受け付ける。
【0077】
検知部13は、主に、CPU111から、電子コンパス118、ジャイロセンサ119、及び加速度センサ120等に対する処理によって実現され、撮影装置10の姿勢を検知することで姿勢情報を得る。
【0078】
撮像部16は、主に、CPU111から、撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111に対する処理によって実現され、風景等を撮像し、撮影画像を得る。
【0079】
集音部17は、主に、CPU111から、音処理ユニット109に対する処理によって実現され、撮影装置10の周囲の音を収音する。
【0080】
接続部18は、主に、CPU111から入出力I/F116に対する処理によって実現され、中継装置3とデータ通信を行う。
【0081】
記憶・読出部19は、主に、CPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。
【0082】
<中継装置の機能構成>
図13に示すように、中継装置3は、通信部31、及び接続部38を有している。これら各部は、図11に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された中継装置3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
【0083】
(中継装置3の各機能構成)
中継装置3の通信部31は、主に、図11に示すCPU301から通信部313に対する処理によって実現され、通信ネットワーク100を介して、撮影装置10と通信制御システム5とのデータ通信を行う。
【0084】
接続部38は、主に、CPU301から入出力I/F316に対する処理によって実現され、撮影装置10とデータ通信を行う。
【0085】
<通信制御システムの機能構成>
次に、図13を用いて、通信制御システム5の各機能構成について詳細に説明する。通信制御システム5は、通信部51、受付部52、作成部53、認証部55及び記憶・読出部59を有している。これら各部は、図12に示されている各構成要素のいずれかが、SSD504からRAM503上に展開された通信制御システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
【0086】
また、通信制御システム5は、図12に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、ユーザ・デバイス管理DB5001、仮想ルーム管理DB5002、及び画角情報管理DB5003が構築されている。
【0087】
(ユーザ・デバイス管理DB)
図14は、ユーザ・デバイス管理DBの概念図である。ユーザ・デバイス管理DB5001はテーブル形式によって構成され、ユーザID(又はデバイスID)、パスワード、名称、ユーザ画像、及びIPアドレスが関連付けて記憶されて管理されている。
【0088】
これらのうち、ユーザIDは、ユーザ(主催者X、参加者A,B)を識別するためのユーザ識別情報の一例である。デバイスIDは、撮影装置10等のデバイスを識別するためのデバイス識別情報の一例である。なお、撮影装置10以外にヘッドマウントディスプレイ等を用いる場合には、ヘッドマウントディスプレイ等もデバイスとして扱われる。
【0089】
名称は、ユーザ又はデバイスの名称である。
【0090】
ユーザ画像は、各ユーザの顔を模式化した画像、ユーザの顔の写真の画像等であり、予め各ユーザによって登録されている。
【0091】
IPアドレスは、ユーザが使用する通信端末7,9、及び撮影装置10等のデバイスの宛先特定情報の一例である。
【0092】
(仮想ルーム管理DB)
図15は、仮想ルーム管理DB5002の概念図である。仮想ルーム管理DB5002はテーブル形式によって構成され、仮想ルームID、仮想ルーム名称、デバイスID、主催者ID、参加者ID、コンテンツID、コンテンツURL(画像、音のコンテンツデータの保存場所情報)、及び画角情報URL(画角情報管理DBの保存場所情報)が関連付けて記憶されて管理されている。
【0093】
これらのうち、仮想ルームIDは、仮想ルームを識別するための仮想ルーム識別情報の一例である。
【0094】
仮想ルーム名称は、仮想ルームの名称であり、ユーザ等によって付される。
【0095】
デバイスIDは、図14のデバイスIDと同意であり、同じレコードの仮想ルームIDで示される仮想ルームに参加したデバイスのIDである。
【0096】
主催者IDは、図14のユーザIDのうち、特に主催者IDを識別するための主催者識別情報の一例であり、同じレコードの仮想ルームIDで示される仮想ルームに参加した主催者のIDである。
【0097】
参加者IDは、図14のユーザIDのうち、特に参加者IDを識別するための参加者識別情報の一例であり、同じレコードの仮想ルームIDで示される仮想ルームに参加した参加者のIDである。
【0098】
コンテンツIDは、画像及び音のコンテンツデータを識別するためのコンテンツ識別情報の一例である。この場合の画像は撮影時に得られた広視野画像であり、音は同じ撮影時に得られた音(音声を含む)である。
【0099】
コンテンツURLは、コンテンツ(広視野画像、音情報)データが保存されている場所を示すコンテンツ保存場所情報の一例である。コンテンツURLには、コンテンツデータと共に録画及び録音された時間も関連付けて保存される。
【0100】
画角情報URLは、図16に示す画角情報管理DB5003が保存されている場所を示す画角保存場所情報の一例である。
【0101】
(画角情報管理DB)
図16は、画角情報管理DB5003の概念図である。画角情報管理DB5003はテーブル形式によって構成され、コンテンツID毎に、ユーザID、IPアドレス、画角情報(pan,tilt,fov)、及びタイムスタンプ(又は再生経過時間)が関連付けて記憶されて管理されている。なお、タイムスタンプは、録画経過時間と示すこともできる。
【0102】
これらのうち、ユーザIDは、図14のユーザIDと同意である。
【0103】
IPアドレスは、図14のIPアドレスと同意である。
【0104】
画角情報(pan,tilt,fov)は、同じレコードのユーザIDで示されるユーザ(主催者、参加者)の通信端末7,9から送られて来た画角情報である。
【0105】
タイムスタンプは、録画時に同じレコードの画角情報が送られて来た時刻を示す。なお、録画終了時には、後述の記憶・読出部59がタイムスタンプを再生経過時間に変換する。また、録画再生時には、後述の記憶・読出部59が最初から再生経過時間として記憶する。「録画再生」は単に「再生」と示しても良い。
【0106】
(通信制御システムの各機能構成)
次に、図13を用いて、通信制御システム5の各機能構成について詳細に説明する。
【0107】
通信制御システム5の通信部51は、主に、図11に示すCPU501からネットワークI/F505に対する処理によって実現され、通信ネットワーク100を介して、他の装置等(中継装置3、通信端末7,9)とのデータ通信を行う。
【0108】
受付部52は、CPU501に対する操作部508の処理によって実現され、ユーザ(ここでは、システム管理者等)からの操作入力を受け付ける。
【0109】
作成部53は、画面作成部としての役割を果たし、主に、CPU501の処理によって実現され、記憶部5000に記憶されているデータ等を用いて、各通信端末7,9に送るための画面を作成する。
【0110】
認証部55は、各ユーザが仮想ルームを利用するのに正当な者であるか等の認証を行う。
【0111】
記憶・読出部59は、主に、CPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。
【0112】
<通信端末7の機能構成>
次に、図13を用いて、通信端末7の機能構成について詳細に説明する。通信端末7は、通信部71、受付部72、表示制御部74、音入出力制御部75、作成部76、接続部78、及び記憶・読出部79を有している。これら各部は、図12に示されている各構成要素のいずれかが、SSD504からRAM503上に展開された通信端末7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
【0113】
通信端末7の通信部71は、主に、図11に示すCPU501からネットワークI/F505に対する処理によって実現され、通信ネットワーク100を介して、他の装置等(通信制御システム5)とのデータ通信を行う。
【0114】
受付部72は、主に、CPU501に対する操作部508の処理によって実現され、ユーザ(ここでは、主催者X)からの操作入力を受け付ける。また、受付部97は、取得部としての役割も果たし、ユーザから広視野画像における所定領域の表示を受け付けた場合に、この所定領域を特定するための画角情報を取得する。
【0115】
表示制御部74は、主に、CPU501の処理によって実現され、通信端末7のディスプレイ507又は外部機器接続I/F505に接続された外付けのディスプレイに対して各種画像を表示させるための制御を行なう。
【0116】
音入出力制御部75は、主に、通信端末7のCPU501の処理によって実現され、外部機器接続I/F505に接続された外付けのマイクから音を集音させるための制御を行なう。なお、通信端末7にマイクが内蔵されている場合には、このマイクから音を集音させるための制御を行う。また、音入出力制御部75は、通信端末7のスピーカ512又は外部機器接続I/F505に接続された外付けのスピーカに対して音を出力させるための制御を行なう。
【0117】
作成部76は、主に、CPU501の処理によって実現され、通信端末7で録画及び録音されたコンテンツデータにナレーションやテロップ等を追加して、教材用等のコンテンツデータを作成する。
【0118】
記憶・読出部79は、主に、CPU501の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。
【0119】
<通信端末9の機能構成>
次に、図13を用いて、通信端末9の各機能構成について詳細に説明する。
【0120】
通信端末9は、通信部91、受付部92、表示制御部94、音入出力制御部95、接続部98、及び記憶・読出部99を有している。これら各部は、図12に示されている各構成要素のいずれかが、SSD504からRAM503上に展開された通信端末9用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
【0121】
また、通信端末9は、図12に示されているRAM503、及びSSD504によって構築される記憶部9000を有している。
【0122】
通信端末9の通信部91は、主に、CPU501からネットワークI/F505に対する処理によって実現され、通信ネットワーク100を介して、他の装置等(通信制御システム5)とのデータ通信を行う。
【0123】
受付部92は、主に、CPU501に対する操作部508の処理によって実現され、ユーザ(ここでは、参加者)からの操作入力を受け付ける。また、受付部92は、取得部としての役割も果たし、ユーザから広視野画像における所定領域の表示を受け付けた場合に、この所定領域を特定するための画角情報を取得する。
【0124】
表示制御部94は、主に、CPU501の処理によって実現され、通信端末9のディスプレイ507又は外部機器接続I/F505に接続された外付けのディスプレイに対して各種画像を表示させるための制御を行なう。
【0125】
音入出力制御部95は、主に、通信端末9のCPU501の処理によって実現され、外部機器接続I/F505に接続された外付けのマイクから音を集音させるための制御を行なう。なお、通信端末7にマイクが内蔵されている場合には、このマイクから音を集音させるための制御を行う。また、音入出力制御部95は、通信端末9のスピーカ512又は外部機器接続I/F505に接続された外付けのスピーカに対して音を出力させるための制御を行なう。
【0126】
接続部98は、主に、CPU501から外部機器接続I/F505に対する処理によって実現され、有線又は無線により接続された外部機器とデータ通信を行う。
【0127】
記憶・読出部99は、主に、CPU501の処理によって実現され、記憶部9000に各種データ(または情報)を記憶したり、記憶部9000から各種データ(または情報)を読み出したりする。
【0128】
〔第1の実施形態の処理又は動作〕
続いて、図17乃至図26を用いて、第1の実施形態の処理又は動作について説明する。なお、以下の処理は、既に、撮影装置10、通信端末7,9が同じ仮想ルームに参加した後の処理である。
【0129】
<通信システムにおけるコンテンツデータの通信処理>
まずは、図17を用いて、通信システム1aにおいてコンテンツデータの通信処理を説明する。図17は、通信システムにおいてコンテンツデータの通信処理を示したシーケンス図である。本実施形態では、撮影装置10、主催者Xの通信端末7、参加者Aの通信端末9a、及び参加者Bの通信端末9bが、同じ仮想ルームに入っている場合について説明する。また、仮想ルームが構築されることで、記憶・読出部79が、仮想ルーム管理DB5002(図15参照)に1レコードを追加して、仮想ルームID、仮想ルーム名称、デバイスID、主催者ID、及び参加者IDが関連付けて管理する。コンテンツID、コンテンツURL、及び画角情報URLは、後ほど記憶される。なお、図18の処理S11~S15は、例えば、1秒間に30回又は60回ほど繰り返して行われる。
【0130】
S11:撮影装置10では、撮像部16が地域Sa内を全天球撮影すると共に集音してコンテンツ(広視野画像、音情報)データを得た後、接続部18が中継装置3にコンテンツデータを送る。また、検知部13は撮影装置10の姿勢を検知し、接続部18はコンテンツデータのメタデータとして姿勢情報も送る。また、この場合、接続部18は、撮影装置10が参加している仮想ルームを識別するための仮想ルームID及び撮影装置10を識別するためのデバイスIDも送る。これにより、中継装置3の接続部38は、コンテンツデータ、仮想ルームID、デバイスIDを取得する。
【0131】
S12:中継装置3では、通信部31が、通信ネットワーク100を介して通信制御システム5に対し、処理S11で接続部38によって取得された、コンテンツデータ、仮想ルームID、及びデバイスIDを送信する。これにより、通信制御システム5では、通信部51が、コンテンツデータ、仮想ルーム及びデバイスIDを受信する。
【0132】
なお、撮影装置10は、中継装置3ではなく通信端末7に対して、コンテンツデータ、仮想ルームID、デバイスID及び姿勢情報を送信してもよい(S11d)。この場合、通信端末7が、通信制御システム5に、コンテンツデータ、仮想ルームID、及びデバイスIDを送信する(S12d)。
【0133】
S13:通信制御システム5では、記憶・読出部59が処理S12で受信された仮想ルームIDに基づいて仮想ルーム管理DB5002を検索することにより、撮影装置10と同じ仮想ルームに参加しているユーザID(主催者ID及び参加者ID)を読み出す。また、記憶・読出部59は、読み出した主催者ID及び参加者IDに基づいてユーザ・デバイス管理DB5001を検索することにより、対応する主催者Xのユーザ画像及び通信端末7のIPアドレスを読み出すと共に、対応する参加者A,Bの各ユーザ画像及び通信端末9a,9b,各IPアドレスを読み出す。そして、通信部51は、通信端末7のIPアドレスを参照し、通信端末7に対して処理S12で受信されたコンテンツデータを送信する。これにより、通信端末7の通信部71は、コンテンツデータを受信する。なお、この際に、通信部51は、通信端末7に対して、同じ仮想ルームに参加しているユーザの各ユーザ画像及びユーザIDが関連付けられた状態で送信してもよい。
【0134】
S14:通信制御システム5の通信部51は、通信端末9aのIPアドレスを参照し、通信端末9aに対して処理S12で受信されたコンテンツデータを送信する。これにより、通信端末9aの通信部91は、コンテンツデータを受信する。なお、この際に、通信部51は、通信端末9aに対して、同じ仮想ルームに参加しているユーザの各ユーザ画像及びユーザIDが関連付けられた状態で送信してもよい。
【0135】
S15:同様に、通信制御システム5の通信部51は、通信端末9bのIPアドレスを参照し、通信端末9bに対して処理S12で受信されたコンテンツデータを送信する。これにより、通信端末9bの通信部91は、コンテンツデータを受信する。なお、この際に、通信部51は、通信端末9bに対して、同じ仮想ルームに参加しているユーザの各ユーザ画像及びユーザIDが関連付けられた状態で送信してもよい。
【0136】
以上の処理により、例えば、通信端末9aでは、表示制御部94が処理S14で受信された広視野画像のうち、予め定められている所定領域(図6(a)参照)を示す所定領域画像(図6(b)参照)を表示させると共に、音入出力制御部95が処理S14で受信された音情報に基づいて音を出力させる。また、受付部92は参加者Aの画面操作を受け付けることで、表示制御部94は予め定められている所定領域T(図6(a)参照)を変更して参加者Aの興味がある物等が表示されている所定領域T'(図6(c)参照)を示す所定領域画像(図6(d)参照)を表示させる。
【0137】
<通信システムにおける録画及び録音を開始する処理>
続いて、図18を用いて、通信システム1aにおいて録画及び録音を開始する処理を説明する。図18は、通信システムにおいて録画及び録音を開始する処理を示すシーケンス図である。
【0138】
S31:まず、主催者Xの通信端末7では、受付部72が主催者Xから録画及び録音の開始の操作を受け付ける。
【0139】
S32:通信端末7では、録画及び録音を開始する前に、通信部71が通信制御システム5に対して、画角情報の共有指示を送信する。この共有指示には、通信端末7が参加している仮想ルームの仮想ルームID、及び撮影装置10のデバイスIDが含まれている。これにより、通信制御システム5の通信部51は、画角情報の共有指示を受信する。
【0140】
S33:通信制御システム5では、記憶・読出部59が、仮想ルーム管理DB5002(図15参照)のコンテンツURL及び画角情報URLを設定する。そして、通信部51が通信端末7に対して、録画開始指示及び画角情報のアップロード要求を送信する。この指示には、通信端末7が録画後のコンテンツデータを保存する場所を示すコンテンツURLを示す情報が含まれている。また、この要求には、画角情報を保続するための画角情報URLを示す情報が含まれている。これにより、通信端末7では、通信部71が、録画開始指示、及び画角情報のアップロード要求を受信する。
【0141】
S34:また、通信部51が通信端末9aに対して、画角情報のアップロード要求を送信する。この要求には、画角情報を保続するためのURLの情報が含まれている。これにより、通信端末9aでは、通信部91が画角情報のアップロード要求を受信する。
【0142】
S35:同様に、通信部51が通信端末9bに対して、画角情報のアップロード要求を送信する。この要求には、画角情報を保続するためのURLの情報が含まれている。これにより、通信端末9bでは、通信部91が画角情報のアップロード要求を受信する。
【0143】
S36:続いて、通信端末7では、記憶・読出部79が、録画部及び録音部としての役割を果たし、図17に示す処理S13で受信されたコンテンツデータの録画及び録音を開始する。なお、図17に示す処理S12dの場合、通信端末7は、処理S13によって通信制御システム5から受信したコンテンツデータではなく、処理S11dによって撮影装置10から受信したコンテンツデータの録画及び録音を開始してもよい。
【0144】
<通信システムにおける画角情報を共有する処理>
続いて、図19を用いて、通信システム1aにおいて画角情報を共有する処理を説明する。図19は、通信システムにおいて画角情報を共有する処理を示すシーケンス図である。
【0145】
S41:通信端末7では、例えば、処理S13で受信された広視野画像の所定領域(図6(a)参照)である所定領域画像(図6(b)参照)を表示中に、受付部72が主催者Xから画角の変更を受け付けると、表示制御部74が同じ広視野画像の変更後の所定領域(図6(c)参照)である所定領域画像(図6(d)参照)を表示させる。この場合、受付部72は、取得部としての役割も果たし、ユーザ(ここでは、主催者X)から広視野画像における所定領域の表示を受け付けた場合に、広視野画像においてディスプレイ507に表示する所定領域を特定するための画角情報(pan,tilt,fov)を取得する。そして、通信部71が、処理S33で受信した画像情報URL(通信制御システム5)に対して、変更後の所定領域を特定するための画角情報を送信する。この画角情報には、送信元である通信端末7の主催者XのユーザIDが含まれている。これにより、通信制御システム5では、通信部51が画角情報を受信する。そして、記憶・読出部79が画角情報管理DB5003(図16参照)に、ユーザID、送信元のIPアドレス、画角情報、タイムスタンプを記憶する。このタイムスタンプは、処理S37によって画角情報が受信された時刻を示す。
【0146】
S42:通信制御システム5では、通信部51が通信端末9aに対して、処理S41で受信した画角情報を送信(転送)する。この画角情報には、主催者XのユーザIDが含まれている。これにより、通信端末9aでは、通信部91が画角情報を受信する。
【0147】
S43:同様に、通信制御システム5では、通信部51が通信端末9bに対して、処理S41で受信した画角情報を送信(転送)する。この画角情報には、主催者XのユーザIDが含まれている。これにより、通信端末9bでは、通信部91が画角情報を受信する。
【0148】
S44:また、通信端末9a及び通信制御システム5でも、処理S41とは独立して処理S41と同様の処理が行われる。なお、この場合に送信されるユーザIDは参加者AのユーザIDである。
【0149】
S45:通信制御システム5では、通信部51が通信端末7に対して、処理S44で受信した画角情報を送信(転送)する。この画角情報には、参加者AのユーザIDが含まれている。これにより、通信端末7では、通信部71が画角情報を受信する。
【0150】
S46:同様に、通信制御システム5では、通信部51が通信端末9bに対して、処理S44で受信した画角情報を送信(転送)する。この画角情報には、参加者AのユーザIDが含まれている。これにより、通信端末9bでは、通信部91が画角情報を受信する。
【0151】
S47:また、通信端末9b及び通信制御システム5でも、処理S41,S44とは独立して処理S41と同様の処理が行われる。なお、この場合に送信されるユーザIDは参加者BのユーザIDである。
【0152】
S48:通信制御システム5では、通信部51が通信端末7に対して、処理S47で受信した画角情報を送信(転送)する。この画角情報には、参加者BのユーザIDが含まれている。これにより、通信端末7では、通信部71が画角情報を受信する。
【0153】
S49:同様に、通信制御システム5では、通信部51が通信端末9bに対して、処理S47で受信した画角情報を送信(転送)する。この画角情報には、参加者BのユーザIDが含まれている。これにより、通信端末9bでは、通信部91が画角情報を受信する。
【0154】
<マップ画像と所定領域画像の表示>
続いて、図20を用いて、録画及び録音時において、マップ画像と所定領域画像を表示する処理を説明する。図20は、マップ画像と所定領域画像を表示する処理を示したフローチャートである。ここでは、参加者Aの通信端末9aでの処理を説明するが、主催者Xの通信端末7及び参加者Bでの通信端末9bの処理も同様である。また、広視野画像のうち、全天球画像を扱う場合について説明する。
【0155】
S111:通信端末9aの表示制御部94は、処理S14によって受信されたコンテンツデータのうちの全天球画像と姿勢情報に基づき、図25に示すようなマップ画像Mを作成する。マップ画像Mは、全天球画像の正距方位射影画像の一例である。この時点では、まだマップ画像Mは表示されていない。マップ画像Mの作成方法に関しては、後ほど詳細に説明する。マップ画像Mは、各通信端末7,9a,9bで表示されている所定領域画像を示す所定領域の画角を視覚的に表した画像である。
【0156】
S112:表示制御部94は、マップ画像M上に、予め定められた画角情報に基づいてガイドアイコン752x,752a,752bを重畳する。ガイドアイコン752xは、通信端末7で表示されている所定領域画像を示す所定領域を特定するための画角情報をマップ画像M上で視覚的に表した画角表示領域の一例である。同様に、ガイドアイコン752a,752bは、それぞれ通信端末9a,9bで表示されている所定領域画像を示す所定領域を特定するための画角情報をマップ画像M上で視覚的に表した画角表示領域の一例である。この時点でも、まだガイドアイコン752x,752a,752bは表示されていない。ガイドアイコン752x,752a,752bの配置方法に関しては、後ほど詳細に説明する。
【0157】
S113:表示制御部94は、図25に示すように、通信端末9aのディスプレイ507上に、表示画面750を表示する。表示画面750には、マップ画像Mを表示するための表示領域751、所定領域画像の表示領域753、及び同じ仮想ルームで通信中の各ユーザのユーザ画像754x,754a,754bが含まれている。また、表示画面750には、通信及び表示画面750の表示を終了するための「終了」ボタン759が含まれている。
【0158】
表示領域751には、マップ画像Mが表示されると共に、マップ画像M上に各ガイドアイコン752x,752a,752bが表示されている。各ガイドアイコン752x,752a,752bの近傍には、ユーザ名(又はユーザID)も表示される。これにより、参加者Aは、各ガイドアイコン752x,752a,752bが、どのユーザの通信端末7,9a,9bで表示されている所定領域画像に係るガイドアイコンであるかを把握し易い。
【0159】
各ユーザ名は、処理S41の前に、通信制御システム5から各通信端末7,9a,9bに対して、ユーザIDと関連付けた状態で送信されている。そのため、通信制御システム5の記憶・読出部59は、ユーザ・デバイス管理DB5001(図14参照)から、同じ仮想ルームに入っている各ユーザのユーザID及びユーザ名(名称)を読み出すことができる。
【0160】
初期状態では、ガイドアイコン752x,752a,752bが、予め定められた同じ状態で表示される。この場合、表示領域753上には、ガイドアイコン752x(752a)に係る画角情報によって特定される所定領域を示す所定領域画像753a1が表示される。
【0161】
また、表示領域753には、マークm1が表示されている。マークm1は、ユーザ(ここでは、参加者A)が、全天球画像内で所定領域を変更することで(図6(a)から図6(c)を参照)、表示領域753内の所定領域画像を変更することができる(図6(b)から図6(d)を参照)旨を示す。
【0162】
ユーザ画像754x,754a,754bは、処理S11の前に、通信制御システム5から各通信端末7,9a,9bに対して、ユーザIDと関連付けた状態で送信されている。そのため、通信制御システム5の記憶・読出部59は、ユーザ・デバイス管理DB5001(図14参照)から、同じ仮想ルームに入っている各ユーザのユーザID及びユーザ画像を読み出すことができる。
【0163】
S114:次に、通信端末9aは、表示画面750の表示を変更する処理を行う。
【0164】
なお、処理S111~S114では、通信端末9aでマップ画像Mと所定領域画像を表示する処理について説明したが、これに限らない。例えば、通信制御システム5において、作成部53がマップ画像Mと所定領域画像を作成し、通信部51が通信端末9aにマップ画像Mと所定領域画像を送信してもよい。
【0165】
(自端末のガイドアイコンの変更)
ここで、まずは、図21を用いて、所定領域画像の変更に応じて、自端末のガイドアイコンの位置(方向)及び大きさを変更する処理を説明する。図21は、所定領域画像の変更に応じて、自端末のガイドアイコンの位置(方向)及び大きさを変更する処理を示すフローチャートである。
【0166】
S131:通信端末9aの受付部92は、利用者Aから自端末(通信端末9a)で所定領域画像735a1の画角を変更するための受け付けを随時行う(S131;NO)。
【0167】
S132:受付部92がカーソルc1等の移動により、利用者Aから所定領域画像の変更を受け付けると(S131;YES)、表示制御部94は、表示領域753内において、図25に示す所定領域画像753a1から、図26に示す所定領域画像753a2へ変更する。また、表示制御部94は、所定領域画像753a2への変更に応じて、自端末のガイドアイコン752aを、図25に示す位置(方向)及び大きさから図26に示す位置(方向)及び大きさに変更する。
【0168】
S133:通信部91は、通信制御システム5に、自端末の変更後の所定領域画像を示す所定領域を特定するための画角情報を送信する。この画角情報には、送信元である利用者AのユーザIDが含まれている。これにより、通信制御システム5の通信部51は、画角情報を受信する。この処理S133は、図19の処理S44に相当する。
【0169】
(他の通信端末のガイドアイコンの変更)
続いて、図22を用い、他の通信端末の画角情報に基づいて、他の通信端末のガイドアイコンの位置(方向)及び大きさを変更する処理を説明する。図22は、他の通信端末の画角情報に基づいて、他の通信端末のガイドアイコンの位置(方向)及び大きさを変更する処理を示すフローチャートである。
【0170】
S151:通信端末9aでは、通信部91が、通信制御システム5から所定の他の通信端末の画角情報の受信の受け付けを随時行う(S151;NO)。
【0171】
S152:そして、通信部91が画角情報を受信した場合には(S151;YES)、表示制御部94は、所定の他の通信端末の画角情報に基づいて、マップ画像M上の所定の他の通信端末のガイドアイコンの位置(方向)及び大きさを変更する。これは、例えば、図19の処理S49に相当する。具体的には、図25に示す通信端末9bのガイドアイコン752bが、図26に示すように変更する。
【0172】
(マップ画像とガイドアイコン)
ここで、図27及び図28を用いて、全天球画像とマップ画像及びガイドアイコンとの関係を説明する。図27は全天球画像とマップ画像及びガイドアイコンとの関係を示す図である。図28は、ガイドアイコンの位置(方向)及び大きさの変更状態を示す図である。
【0173】
図27に示すように、表示制御部94が、全天球画像CEの天頂zの上方向の延長上の所定位置(地球における天井)から天頂zの下方向に全天球画像CEを射影して、円状の正距方位射影画像751pであるマップ画像Mを作成する。また、表示制御部94は、全天球画像CE内において、全天球画像CEの中心cpから各通信端末7,9a,9bで表示されている所定領域に対する画角を示す形状の画角表示領域である立体状(3次元)のガイドアイコン752X,752A,752Bを設定する。
【0174】
ガイドアイコン752X,752A,752Bは、全天球画像CEにおける所定領域の位置の緯度に応じて、全天球画像CEの中心cpから所定領域へのグラデーションで表される。例えば、ガイドアイコン752Xは、赤道(緯度0°)付近の所定領域に対する画角を示しており、グラデーションの表示が行われていない。これに対して、ガイドアイコン752Aは、赤道よりも緯度が低い所定領域に対する画角を示しており、中心cp側の明度が高く、所定領域に近づくにつれて明度が低くなるようなグラデーションの表示が行われる。また、ガイドアイコン752Bは、赤道よりも緯度が高い所定領域に対する画角を示しており、中心cp側の明度が低く、所定領域に近づくにつれて明度が高くなるようなグラデーションの表示が行われる。
【0175】
また、表示制御部94は、全天球画像CEの射影により、各ガイドアイコン752X,752A,752Bもマップ画像M上に射影する。これにより、マップ画像M上には、マップ画像Mの中心cp(天頂z)から各通信端末7,9a,9bで表示されている各所定領域に対する画角を示す平面状(2次元)のガイドアイコン752x,752a,752bを重畳する。
【0176】
これにより、各ガイドアイコン752X,752A,752Bのグラデーションは、各ガイドアイコン752x,752a,752bに反映される。また、ガイドアイコン752x,752a,752bは、平面的なマップ画像Mの中心から各所定領域に対する画角を示す形状となる。この形状は、マップ画像Mの中心cpを一頂点とする三角形であり、この一頂点における内角は各所定領域の画角に応じた角度となる。
【0177】
ここで、図28を用いて、三角形のガイドアイコン751aの位置(方向)及び大きさの変更状態を説明する。図28では、図25に示す所定領域画像753a1から図26に示す所定領域画像753a2への変更に応じて、ガイドアイコン751aの位置(方向)及び大きさが変更された状態が示されている。当初はマップ画像Mの中心cpを一頂点とする三角形において、この一頂点における内角は画角に応じた角度φ1である。そして、図25に示す所定領域画像753a1から図26に示す所定領域画像753a2への変更に応じて、表示制御部94は角度φ1がφ2に変更すると共に、グラデーションも変更する。
【0178】
S115:続いて、受付部72が、参加者Aから表示画面750の「終了」ボタン759の押下による表示終了の操作を受け付けない場合には(NO)、処理S114に戻る。
【0179】
S116:受付部72が、参加者Aから表示画面750の「終了」ボタン759の押下による表示終了の操作を受け付けた場合には(S115;YES)、表示制御部94は、表示画面750の表示を終了すると共に通信も終了する。
【0180】
<通信システムにおける録画及び録音を停止する処理>
続いて、図23を用いて、通信システム1aにおいて録画及び録音を停止する処理を説明する。図23は、通信システムにおいて録画及び録音を停止する処理を示すシーケンス図である。
【0181】
S51:まず、主催者Xの通信端末7では、受付部72が主催者Xから録画及び録音の停止の操作を受け付ける。
【0182】
S52:記憶・読出部79は、コンテンツデータの録画及び録音を停止する。
【0183】
S53:通信部71が、処理S33で受信した所定のコンテンツURL(通信制御システム5)に対して、録画及び録音していたコンテンツデータをアップロード(送信)する。このコンテンツデータには、録画及び録音の開始から終了までの時間(タイムスタンプ)が含まれている。これにより、通信制御システム5では、通信部51がコンテンツデータを受信する。
【0184】
S54:通信制御システム5では、記憶・読出部59が、所定のコンテンツURLに、タイムスタンプと共にコンテンツデータを記憶する。更に、記憶・読出部59が、画角情報管理DB(図16参照)に管理されているタイムスタンプを、録画が停止されたコンテンツデータの総録画時間に合わせて、再生経過時間(録画経過時間)に変換する。
【0185】
S55:通信部51は、通信端末7に対して、録画及び録音の終了通知を送信する。終了通知には、所定のコンテンツURLを示す情報が含まれている。これにより、通信端末7の通信部71は、録画及び録音の終了通知を受信する。
【0186】
S56:同様に、通信部51は、通信端末9aに対して、録画及び録音の終了通知を送信する。終了通知には、所定のコンテンツURLを示す情報が含まれている。これにより、通信端末9aの通信部91は、録画及び録音の終了通知を受信する。
【0187】
S57:同様に、通信部51は、通信端末9bに対して、録画及び録音の終了通知を送信する。終了通知には、所定のコンテンツURLを示す情報が含まれている。これにより、通信端末9bの通信部91は、録画及び録音の終了通知を受信する。
【0188】
なお、処理S55の場合は、必ずしも終了通知に所定のコンテンツURLを含めなくてもよい。
【0189】
<通信システムにおける録画及び録音の再生の処理>
続いて、図24を用いて、通信システム1aにおいて録画及び録音の再生の処理を説明する。図24は、通信システムにおいて録画及び録音の再生の処理を示すシーケンス図である。ここでは、録画時に参加していた参加者Aが、録画及び録音の再生時に通信端末9aを用いて、録画及び録音されているコンテンツデータを再生する。
【0190】
S71:まず、通信端末9aの受付部92が、ユーザAから、ユーザID及びパスワード等の入力によりログイン操作を受け付けると、通信部91が通信制御システム5に対してログイン要求を送信する。この要求には、ユーザAのユーザID及びパスワードが含まれている。これにより、通信制御システム5では、通信部51がログイン要求を受信して、認証部55がユーザ・デバイス管理DB(図14参照)を参照して認証を行う。以降、ログイン認証により、ユーザAが正当なアクセス者であると判断されたとして説明を進める。
【0191】
S72:通信制御システム5では、作成部53が、図30に示すような録画データ選択画面940を作成する。この場合、記憶・読出部59は、処理S71で受信されたユーザIDを検索キーとして、仮想ルーム管理DB5002(図15参照)を検索することにより、対応する全ての仮想ルームID及び仮想ルーム名称並びにコンテンツURLを読み出す。そして、作成部53は、コンテンツURLに記憶されている各コンテンツデータ(タイムスタンプ付き)のうちの画像を用いて各サムネイル941,942,943を作成する。これにより、作成部53は、サムネイル毎に、仮想ルーム名称(「工事現場α」等)及びタイムスタンプの所定の時刻(例えば、録画開始時刻)を示す録画時刻(「2022/10/31 15:00」等)を追加する。
【0192】
S73:通信部51は、通信端末9aに対して、処理S72で作成された選択画面データを送信する。この選択画面データには、各サムネイルに、各サムネイルの作成元の広視野画像を識別するためのコンテンツIDが含まれている。これにより、通信端末9aの通信部91は、選択画面データを受信する。
【0193】
S74:通信端末9aでは、表示制御部94が通信端末9aのディスプレイ507上に、図30に示すような録画データ選択画面940を表示させる。そして、受付部92が、参加者Aから所定のサムネイルの指定(選択)を受け付ける。ここでは、サムネイル941が指定(選択)されたとして説明を続ける。
【0194】
S75:通信部71は、通信制御システム5に対して、選択されたサムネイル941の作成元のコンテンツデータのダウンロード要求を送信する。この要求には、サムネイル941に関連付けられたコンテンツIDが含まれている。これにより、通信制御システム5の通信部51が、コンテンツデータのダウンロード要求を受信する。
【0195】
S76:通信制御システム5では、記憶・読出部59が、処理S75で受信されたコンテンツIDを検索キーとして仮想ルーム管理DB5002(図15参照)を検索し、対応するコンテンツURLからコンテンツデータを読み出す。また、記憶・読出部59が、画角情報URLに記憶されている画角情報管理DB5003(図16参照)から、ユーザID、画角情報及び再生経過時間(録画経過時間)の情報を読み出す。これにより、通信端末9aの通信部91は、コンテンツデータ、及び各ユーザの画角情報を受信する。この画角情報には、ユーザID及び再生経過時間が含まれている。
【0196】
S77:通信端末9aでは、表示制御部94が通信端末9aのディスプレイ507上に録画された画像を表示すると共に音入出力制御部95が再生処理を行う。なお、録画された画面は、図25と同様の表示内容である。
【0197】
なお、上記通信端末9aでの処理は、通信端末7,9bでも同様に行うことができる。
【0198】
〔第1の実施形態の主な効果〕
以上説明したように実施形態によれば、通信端末9aの表示制御部94が、図26に示すようにマップ画像M上に他の通信端末で表示中の所定領域画像(第2の所定領域画像の一例)に関するガイドアイコン752x,752bを重畳して表示させる。これにより、ユーザAに対して、他のユーザX,Bが全天球画像のどの辺りを閲覧しているかを把握し易くすることができるという効果を奏する。
【0199】
また、通信端末9aの表示制御部94が、図26に示すようにマップ画像M上に自端末で表示中の所定領域画像(第1の所定領域画像の一例)に関するガイドアイコン752aを重畳して表示させる。これにより、ユーザAに対して、自分が全天球画像のどの辺りの所定領域を示す所定領域画像を閲覧しているかを把握し易くすることができるという効果を奏する。よって、所定のユーザが、現在、全天球画像のどの辺りの所定領域を示す所定領域画像を閲覧しているかが分からなくなってしまうという課題を解消することができる。
【0200】
更に、図27に示すように、表示制御部94は、地球における天頂から全天球画像を射影することで正距方位射影画像751pを作成する。これにより、任意の点から全天球画像を射影する場合に比べて、各ガイドアイコン752x,752a,752bの左右方向(又は方角)、及び中心cp側の各ガイドアイコン752x,752a,752bの三角形の内角が各所定領域の画角に応じた角度で表示することができるため、閲覧するユーザには分かり易いという効果を奏する。
【0201】
また、各ガイドアイコン752x,752a,752bの上下方向に関しては、表示制御部94がグラデーションで表示するため、閲覧するユーザには分かり易いという効果を奏する。
【0202】
●第2の実施形態
続いて、図面を用いて、第2の実施形態について説明する。
【0203】
〔第2の実施形態の通信システムの概略〕
まずは、図30を用いて、第2の実施形態に係る通信システム1bの概略を説明する。図30は、第2の実施形態に係る通信システムの概略図である。
【0204】
図30に示されているように、本実施形態の通信システム1bは、図9に示す通信システム1aに対して、更にVR(Virtual Reality)ゴーグル8が追加された構成である。なお、ここでは、撮影装置10及び中継装置3は、工事現場、展示場、教育現場、医療現場等の現地Sbで主催者X等によって所定の位置に設置されている。
【0205】
VRゴーグル8は、通信端末9に、有線又は無線により接続されており、通信端末9が受信したコンテンツデータを再生することができる。
【0206】
〔第2の実施形態のハードウェア構成〕
通信システム1bは、VRゴーグル8以外は、第1の実施形態と同様の装置(端末、システム)を有するため、ここでは、VRゴーグル8のハードウェア構成について説明する。
VRゴーグル8は、コンピュータとして、図4に示されているように、CPU801、ROM802、RAM803、外部機器接続I/F805、ディスプレイ807、操作部808、メディアI/F809、バスライン810、スピーカ812、電子コンパス818、ジャイロセンサ819、加速度センサ820を備えている。
【0207】
これらのうち、CPU801は、VRゴーグル8全体の動作を制御する。ROM802は、IPL等のCPU801の駆動に用いられるプログラムを記憶する。RAM803は、CPU801のワークエリアとして使用される。
【0208】
外部機器接続I/F805は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、通信端末9等である。
【0209】
ディスプレイ807は、各種画像を表示する液晶や有機EL(Electro Luminescence)などの表示部の一種である。
【0210】
操作部808は、種々の操作ボタンや電源スイッチ、物理ボタン、ユーザの視線を検知して操作する視線操作回路等の各種指示の選択や実行、処理対象の選択、カーソルの移動等を行うための入力手段である。
【0211】
メディアI/F809は、フラッシュメモリ等の記録メディア809mに対するデータの読み出し又は書き込み(記憶)を制御する。記録メディア809mには、DVDやBlu-ray Disc(登録商標)等も含まれる。
【0212】
スピーカ812は、電気信号を物理振動に変えて音楽や音声などの音を生み出す回路である。
【0213】
電子コンパス818は、地球の磁気からVRゴーグル8の方位を算出し、方位情報を出力する。
【0214】
ジャイロセンサ819は、VRゴーグル8の移動に伴う角度の変化(roll角、Pitch角、Yaw角)を検出するセンサである。
【0215】
加速度センサ820は、三軸方向の加速度を検出するセンサである。
【0216】
バスライン810は、CPU801等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
【0217】
<VRゴーグルの使用イメージ>
続いて、図32及び図33を用いて、VRゴーグル8の使用イメージを説明する。図32及び図33は、VRスコープの使用イメージ図である。
【0218】
ユーザは、通信端末に接続したVRゴーグル8を自分の頭に装着して、VRゴーグル8内のディスプレイ807を覗くと、図32に示されているように、VR画像を見ることができる。また、図33に示されているように、ユーザがVRゴーグル8を装着した状態で頭部を上側に向けると、電子コンパス818、ジャイロセンサ819、加速度センサ820等により、VRゴーグル8は元のVR画像よりも上空側のVR画像を表示する。これにより、ユーザ、あたかも画像で表わされた場所にいるかの様な感覚を体験することができる。
【0219】
〔第2の実施形態の機能構成〕
続いて、図34を用いて、第2の実施形態の機能構成について説明する。
【0220】
図35は、第2の実施形態に係る通信システムの各機能構成図である。
【0221】
なお、第2の実施形態では、第1の実施形態に対して、新たにVRゴーグル8が追加されただけであるため、以下ではVRゴーグル8についてのみ説明する。
【0222】
<VRゴーグルの機能構成>
図35に示すように、VRゴーグル8は、受付部82、検知部83、表示制御部84、音出力制御部85、及び接続部88を有している。これら各部は、図31に示されている各構成要素のいずれかが、RAM803上に展開されたVRゴーグル8用プログラムに従ったCPU801からの命令によって動作することで実現される機能又は手段である。
【0223】
受付部82は、主にCPU801に対する操作部808の処理によって実現され、ユーザ(ここでは、参加者A)からの操作入力を受け付ける。例えば、受付部82は、表示中の所定領域画像の拡大又は縮小の入力を受け付けることができる。また、受付部82は、取得部としての役割も果たし、ユーザから広視野画像における所定領域の表示を受け付けた場合に、この所定領域を特定するための画角情報を取得する。
【0224】
検知部83は、主に、CPU801に対する各センサ(電子コンパス818、ジャイロセンサ819、加速度センサ820)の処理によって実現される。例えば、ユーザがVRゴーグル8を装着した状態で頭部の向きを変更することにより、検知部83が図6(a)から図6(c)のような所定領域の変更を検知する。
【0225】
表示制御部84は、主に、CPU801の処理によって実現され、接続部88を介して外部から取得されたコンテンツ(広視野画像、及び音情報)データに基づいて、VRゴーグル8のディスプレイ807に対して各種画像を表示させるための制御を行なう。
【0226】
音出力制御部85は、主に、CPU801の処理によって実現され、スピーカ812に対して音を出力させるための制御を行なう。
【0227】
〔第2の実施形態の処理又は動作〕
続いて、図35を用いて、第2の実施形態の処理又は動作について説明する。図35は、通信システムにおいてVRコンテンツを共有する処理を示すシーケンス図である。
【0228】
なお、以下の処理は、通信端末7が、処理S36で録画及び録音しておいたコンテンツデータと、記憶部7000の画角情報管理DB7001に記憶された情報を用いて、教材等のVRコンテンツ(VR広視野画像、音情報)を作成する処理について説明する。
【0229】
S201:まず、受付部72が主催者Xによって、既に録画及び録音されたコンテンツデータに対して、ナレーションやテロップ等の入力を受け付ける。これにより、作成部76は、コンテンツデータを作成する。
【0230】
S202:通信部71が、処理S33等で受信した所定のコンテンツURL(通信制御システム5)に対して、録画及び録音していたVRコンテンツデータをアップロード(送信)する。このVRコンテンツデータには、録画及び録音の開始から終了までの再生経過時間が含まれている。これにより、通信制御システム5では、通信部51がVRコンテンツデータを受信する。
【0231】
S203:通信制御システム5では、記憶・読出部59が、所定のコンテンツURLに、再生経過時間と共にVRコンテンツデータを記憶する。
【0232】
S204:通信部51は、通信端末7に対して、VRコンテンツが閲覧可能になった旨を示す閲覧可能通知を送信する。通知には、所定のコンテンツURLを示す情報が含まれている。これにより、通信端末7の通信部71は、閲覧可能通知を受信する。
【0233】
S205:同様に、通信部51は、通信端末9aに対して、閲覧可能通知を送信する。この通知には、所定のVRコンテンツURLを示す情報が含まれている。これにより、通信端末9aの通信部91は、閲覧可能通知を受信する。
【0234】
S206:同様に、通信部51は、通信端末9bに対して、閲覧可能通知を送信する。この通知には、所定のコンテンツURLを示す情報が含まれている。これにより、通信端末9bの通信部91は、閲覧可能通知を受信する。
【0235】
なお、処理S204の場合は、閲覧可能通知に所定のコンテンツURLを含めなくてもよい。
【0236】
以上により、ユーザAが、通信端末9aを用いて、通信制御システム5から、VRコンテンツデータ、画角情報(再生経過時間を含む)を受信する。そして、通信端末9aの表示制御部94は、図36に示すような録画再生画面760を生成する。また、ユーザAは、VRゴーグル8を通信端末9aに接続することで、VRゴーグル8では、接続部88が通信端末9aの接続部98から録画再生画面760のデータを取得して、表示制御部84が、ディスプレイ807上に図36に示すような録画再生画面760を表示させる。即ち、表示制御部94は、表示制御部84を介してディスプレイ807上に録画再生画面760を表示させる。録画再生画面760は、基本的に図25に示す表示画面と同じ画像であり、ナレーション、テロップ等も含まれている。ここでは、利用者Aが録画時に表示していた表示画面750を、再度確認するために、録画の再生時に再生した状態である。なお、参加者Aが、図32から図33に示すような動きをすることで、図36に示す録画再生画面760のうち、表示領域753内の所定領域画像753a1が変更され、これに伴いガイドアイコン752aの位置(方向)及び大きさも変更される。
【0237】
〔第2の実施形態の主な効果〕
以上説明したように実施形態によれば、第1の実施形態の効果に加え、VRコンテンツによる閲覧も可能である。
【0238】
また、VRコンテンツには、ナレーション、テロップ等が含まれているため、ユーザ(ここでは、利用者A)はVRコンテンツを教材としても使用することができる。
【0239】
〔補足〕
以上、実施形態について説明したが、本発明はこうした実施形態何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
【0240】
(1)上記各実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
【0241】
(2)上記各プログラムが記憶されたDVD-ROM等の(非一時的)記録媒体は、プログラム製品(Program Product)として、国内又は国外へ提供されることができる。
【0242】
(3)プロセッサとしてのCPU111,301,501,801は、それぞれ複数であってもよい。
【0243】
(4)上記各実施形態では、マップ画像Mは、全天球画像の正距方位射影画像の一例として説明したが。これに限るものではない。例えば、図3(c)に示すような正距円筒射影画像であってもよい。図37に、マップ画像Mの例であるマップ画像mを示す。図37に示すように、マップ画像m上には、ユーザXの通信端末7で表示されている所定領域画像に係るガイドアイコン852x、ユーザAの通信端末9aで表示されている所定領域画像に係るガイドアイコン852a、及びユーザAの通信端末9bで表示されている所定領域画像に係るガイドアイコン852bが示されている。この場合は、所定領域画像を示す所定領域の形状が、そのままガイドアイコンの形状になる。なお、正距円筒射影画像上で所定領域を表すと、図37に示すように、所定領域はひし形になる。
【0244】
(5)上記各実施形態では、録画及び録音の際に、図19乃至図22に示す処理が実行される場合について説明したが、録画及び録音の際に限らない。
【0245】
〔付記項〕
上記各実施形態に関しては、以下に示すような内容として表すこともできる。
【0246】
〔付記項1〕
全天球画像における所定領域である所定領域画像を表示部に表示する表示端末であって、
前記全天球画像の正距方位射影画像を表示すると共に、前記正距方位射影画像の中心から前記所定領域に対する画角を示す形状の画角表示領域を前記正距方位射影画像上に表示する表示制御部と、
前記所定領域画像の前記所定領域の変更を受け付ける受付部と、
前記受付部による受け付けに基づいて、前記所定領域画像を変更して表示すると共に、前記画角表示領域を変更して表示する、表示端末。
【0247】
〔付記項2〕
前記画角を示す形状は、前記正距方位射影画像の中心を一頂点とする三角形であり、前記一頂点における内角は前記画角に応じた角度である、付記項1に記載の表示端末。
【符号の説明】
【0248】
M マップ画像(正距方位射影画像の一例)
1a,1b 通信システム
3 中継装置
5 通信制御システム(情報管理システムとも示す)
7 通信端末(他の表示端末の一例)
8 VRゴーグル(表示装置の一例)
9 通信端末
9a 通信端末(表示端末の一例)
9b 通信端末(他の表示端末の一例)
10 撮影装置
13 検知部
18 接続部(出力部の一例)
51 通信部(受信部の一例、送信部の一例)
52 受付部
53 作成部
71 通信部(受信部の一例、送信部の一例)
72 受付部(取得部とも示す)
74 表示制御部
75 音入出力制御部
76 作成部
88 接続部
82 受付部(取得部とも示す)
83 検知部
84 表示制御部
85 音出力制御部
91 通信部(受信部の一例)
92 受付部(取得部とも示す)
94 表示制御部
95 音入出力制御部
507 ディスプレイ(表示部の一例)
752x ガイドアイコン(表示領域の一例)
752a ガイドアイコン(表示領域の一例)
752b ガイドアイコン(表示領域の一例)
753a1 所定領域画像(第1の所定領域画像の一例)
753a2 所定領域画像(第1の所定領域画像の一例)
807 ディスプレイ(表示部の一例)
5001 ユーザ・デバイス管理DB
5002 仮想ルーム管理DB
5003 画角情報管理DB
【先行技術文献】
【特許文献】
【0249】
【特許文献1】特開2019-192229号公報
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29
図30
図31
図32
図33
図34
図35
図36
図37