IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 凸版印刷株式会社の特許一覧

特開2024-36721情報提示システム、および情報提示方法
<>
  • 特開-情報提示システム、および情報提示方法 図1
  • 特開-情報提示システム、および情報提示方法 図2
  • 特開-情報提示システム、および情報提示方法 図3
  • 特開-情報提示システム、および情報提示方法 図4
  • 特開-情報提示システム、および情報提示方法 図5
  • 特開-情報提示システム、および情報提示方法 図6
  • 特開-情報提示システム、および情報提示方法 図7
  • 特開-情報提示システム、および情報提示方法 図8
  • 特開-情報提示システム、および情報提示方法 図9
  • 特開-情報提示システム、および情報提示方法 図10
  • 特開-情報提示システム、および情報提示方法 図11
  • 特開-情報提示システム、および情報提示方法 図12
  • 特開-情報提示システム、および情報提示方法 図13
  • 特開-情報提示システム、および情報提示方法 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024036721
(43)【公開日】2024-03-18
(54)【発明の名称】情報提示システム、および情報提示方法
(51)【国際特許分類】
   H04N 7/18 20060101AFI20240311BHJP
   G06T 19/00 20110101ALI20240311BHJP
   G06T 7/00 20170101ALI20240311BHJP
【FI】
H04N7/18 U
G06T19/00 600
G06T7/00 300F
H04N7/18 D
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2022141128
(22)【出願日】2022-09-06
(71)【出願人】
【識別番号】000003193
【氏名又は名称】TOPPANホールディングス株式会社
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100139686
【弁理士】
【氏名又は名称】鈴木 史朗
(74)【代理人】
【識別番号】100169764
【弁理士】
【氏名又は名称】清水 雄一郎
(74)【代理人】
【識別番号】100147267
【弁理士】
【氏名又は名称】大槻 真紀子
(72)【発明者】
【氏名】岸 啓補
【テーマコード(参考)】
5B050
5C054
5L096
【Fターム(参考)】
5B050AA03
5B050BA06
5B050BA09
5B050BA11
5B050BA13
5B050CA08
5B050DA01
5B050EA04
5B050EA19
5B050EA26
5B050FA02
5C054CA04
5C054CC02
5C054CG05
5C054EA01
5C054EA03
5C054EA05
5C054FC12
5C054FD03
5C054FE12
5C054FE22
5C054FF03
5C054HA19
5L096CA05
5L096DA01
5L096FA09
5L096FA67
5L096FA69
5L096JA11
(57)【要約】
【課題】遠隔地のユーザの視界を現地にいる作業者の端末で撮影された画像に限定しなくても、遠隔地のユーザと現地にいる作業者とのコミュニケーションが円滑に行える情報提示システムを提供すること。
【解決手段】現地から離れた遠隔地にいるユーザの視界に関する情報を、現地にいる作業者に提示するための情報提示システムであって、現地で撮影された現地映像のうち、ユーザが使用するユーザ端末に表示する部分を抽出する映像抽出部と、作業者の視野に対応する映像のうち、ユーザ端末に表示する部分に対応する部分を示す視野情報を生成する視野情報生成部と、視野情報に基づく視野情報画像が、作業者の視野に対応する映像に合成された映像を表示する、あるいは視野情報画像が作業者の視界に重畳されるように表示する表示部とを備える情報提示システム。
【選択図】図5
【特許請求の範囲】
【請求項1】
現地から離れた遠隔地にいるユーザの視界に関する情報を、現地にいる作業者に提示するための情報提示システムであって、
前記現地で撮影された現地映像のうち、前記ユーザが使用するユーザ端末に表示する部分を抽出する映像抽出部と、
前記作業者の視野に対応する映像のうち、前記ユーザ端末に表示する部分に対応する部分を示す視野情報を生成する視野情報生成部と、
前記視野情報に基づく視野情報画像が、前記作業者の視野に対応する映像に合成された映像を表示する、あるいは前記視野情報画像が前記作業者の視界に重畳されるように表示する表示部と
を備える情報提示システム。
【請求項2】
前記視野情報生成部は、前記ユーザ端末に表示する部分に含まれる第1の複数の特徴点と、前記作業者の視野に対応する映像に含まれる第2の複数の特徴点とを抽出し、前記第1の複数の特徴点と前記第2の複数の特徴点とを対応付け、該対応付けに基づき、前記視野情報を生成する、請求項1に記載の情報提示システム。
【請求項3】
前記映像抽出部が前記現地映像から抽出する、前記ユーザ端末に表示する部分を決定するためのユーザによる指示を取得するユーザ指示取得部を備える、請求項1に記載の情報提示システム。
【請求項4】
ユーザ操作により指定された位置であって、前記映像抽出部が前記現地映像から抽出した前記ユーザ端末に表示する映像における位置を示すポイント情報を取得するポイント情報取得部を備え、
前記視野情報生成部は、前記ポイント情報が示す位置を、前記作業者の視野に対応する映像における位置に変換し、
前記表示部は、前記視野情報生成部が変換した位置に画像を表示する、請求項1に記載の情報提示システム。
【請求項5】
現地から離れた遠隔地にいるユーザの視界に関する情報を、現地にいる作業者に提示するための情報提示システムによる情報提示方法であって、
前記現地で撮影された現地映像のうち、前記ユーザが使用するユーザ端末に表示する部分を抽出するステップと、
前記作業者の視野に対応する映像のうち、前記ユーザ端末に表示する部分に対応する部分を示す視野情報を生成するステップと、
前記視野情報に基づく視野情報画像が、前記作業者の視野に対応する映像に合成された映像を表示する、あるいは前記視野情報画像が前記作業者の視界に重畳されるように表示するステップと
を有する情報提示方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報提示システム、および情報提示方法に関する。
【背景技術】
【0002】
従来、遠隔作業支援システムでは、遠隔作業を支援するために、現地にいる作業者のウェアラブル端末で撮影された画像を、ウェアラブル端末と遠隔端末とで共有している。さらに、ウェアラブル端末で撮影された画像に対して、遠隔端末からの指示に応じた仮想オブジェクトをウェアラブル端末で撮影された画像に重ねて表示している(例えば、特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特許第6244069号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来の遠隔作業支援システムにおいては、遠隔地のユーザと現地にいる作業者とのコミュニケーションを円滑にするために、遠隔地のユーザの視界は現地にいる作業者の端末で撮影された画像に限定されてしまうという問題がある。
【0005】
本発明は、このような事情に鑑みてなされたもので、遠隔地のユーザの視界を現地にいる作業者の端末で撮影された画像に限定しなくても、遠隔地のユーザと現地にいる作業者とのコミュニケーションが円滑に行える情報提示システム、および情報提示方法を提供する。
【課題を解決するための手段】
【0006】
この発明は上述した課題を解決するためになされたもので、本発明の一態様は、現地から離れた遠隔地にいるユーザの視界に関する情報を、現地にいる作業者に提示するための情報提示システムであって、前記現地で撮影された現地映像のうち、前記ユーザが使用するユーザ端末に表示する部分を抽出する映像抽出部と、前記作業者の視野に対応する映像のうち、前記ユーザ端末に表示する部分に対応する部分を示す視野情報を生成する視野情報生成部と、前記視野情報に基づく視野情報画像が、前記作業者の視野に対応する映像に合成された映像を表示する、あるいは前記視野情報画像が前記作業者の視界に重畳されるように表示する表示部とを備える情報提示システムである。
【0007】
また、本発明の他の一態様は、上述した情報提示システムであって、前記視野情報生成部は、前記ユーザ端末に表示する部分に含まれる第1の複数の特徴点と、前記作業者の視野に対応する映像に含まれる第2の複数の特徴点とを抽出し、前記第1の複数の特徴点と前記第2の複数の特徴点とを対応付け、該対応付けに基づき、前記視野情報を生成する。
【0008】
また、本発明の他の一態様は、上述した情報提示システムであって、前記映像抽出部が前記現地映像から抽出する、前ユーザ記端末に表示する部分を決定するためのユーザによる指示を取得するユーザ指示取得部を備える。
【0009】
また、本発明の他の一態様は、上述した情報提示システムであって、ユーザ操作により指定された位置であって、前記映像抽出部が前記現地映像から抽出した前記ユーザ端末に表示する映像における位置を示すポイント情報を取得するポイント情報取得部を備え、前記視野情報生成部は、前記ポイント情報が示す位置を、前記作業者の視野に対応する映像における位置に変換し、前記表示部は、前記視野情報生成部が変換した位置に画像を表示する。
【0010】
また、本発明の他の一態様は、現地から離れた遠隔地にいるユーザの視界に関する情報を、現地にいる作業者に提示するための情報提示システムによる情報提示方法であって、前記現地で撮影された現地映像のうち、前記ユーザが使用するユーザ端末に表示する部分を抽出するステップと、前記作業者の視野に対応する映像のうち、前記ユーザ端末に表示する部分に対応する部分を示す視野情報を生成するステップと、前記視野情報に基づく視野情報画像が、前記作業者の視野に対応する映像に合成された映像を表示する、あるいは前記視野情報画像が前記作業者の視界に重畳されるように表示するステップとを有する情報提示方法である。
【発明の効果】
【0011】
この発明によれば、遠隔地のユーザの視界を現地にいる作業者の端末で撮影された画像に限定しなくても、遠隔地のユーザと現地にいる作業者とのコミュニケーションが円滑に行える。
【図面の簡単な説明】
【0012】
図1】この発明の第1の実施形態による情報提示システム10の構成例を示す概略ブロック図である。
図2】同実施形態に係るユーザ端末104の構成例を示す概略ブロック図である。
図3】同実施形態に係る中継サーバ103の構成例を示す概略ブロック図である。
図4】同実施形態に係る作業者端末102の構成例を示す概略ブロック図である。
図5】同実施形態に係る情報提示システム10の動作を説明するフローチャートである。
図6】同実施形態に係る情報提示システム10の動作を説明する別のフローチャートである。
図7】同実施形態に係るステップSb3による特徴点の対応付けを説明する図である。
図8】同実施形態に係る視野情報の算出を説明する図である。
図9】同実施形態に係る現地映像、抽出映像、および作業者映像の関係を示す図である。
図10】この発明の第2の実施形態に係る情報提示システム11の構成例を示す概略ブロック図である。
図11】この発明の第3の実施形態に係る情報提示システム12の構成例を示す概略ブロック図である。
図12】同実施形態に係るユーザ端末104aの構成例を示す概略ブロック図である。
図13】同実施形態に係る中継サーバ103aの構成例を示す概略ブロック図である。
図14】同実施形態に係る作業者端末102aの構成例を示す概略ブロック図である。
【発明を実施するための形態】
【0013】
<第1の実施形態>
以下、図面を参照して、本発明の第1の実施形態について説明する。図1は、この発明の第1の実施形態による情報提示システム10の構成例を示す概略ブロック図である。本実施形態における情報提示システム10は、例えば、店舗の顧客であり、自宅にいるユーザが、店舗の販売員である作業者から商品の説明を受けたり、作業者に対して購入する商品のピックアップを依頼したりする際に使用される。また、店舗ではなく、博物館や美術館などの展示物の説明に用いることもできる。また、情報提示システム10は、例えば、遠隔地にいる支援者であるユーザが、工場などの施設にいる作業者に対して、機器の操作、点検を指示したり、レクチャしたりする際にも使用され得る。
【0014】
情報提示システム10は、現地カメラ101、作業者端末102、中継サーバ103、ユーザ端末104を含む。現地カメラ101、作業者端末102、中継サーバ103、ユーザ端末104は、インターネットなどのネットワーク105により通信可能に接続されている。現地カメラ101は、現地(上述の例では、店舗、博物館、美術館、施設など)に設置されている監視カメラなどのカメラである。現地カメラ101は、現地の映像を撮影し、ライブ映像として、ネットワーク105を介して、中継サーバ103に送信する。現地カメラ101は、全天周カメラなど、広視野角のカメラであってもよい。
【0015】
作業者端末102は、現地にいる作業者が使用する端末であり、ウェアラブルデバイス、スマートフォン、タブレット端末などである。作業者端末102は、作業者の視野に対応する映像(作業者映像)に、ユーザ端末104に表示される映像に対応する部分を示す枠(視野情報画像)を合成して表示する。作業者端末102がこの表示に用いる表示手段は、例えば、ビデオシースルー型のヘッドマウントディスプレイ、光学シースルー型のヘッドマウントディスプレイであってもよいし、スマートフォン、タブレット端末などのディスプレイであってもよい。なお、作業者端末102は、光学シースルー型のヘッドマウントディスプレイを備える場合は、ユーザ端末104に表示される映像に対応する部分を示す枠(視野情報画像)を作業者の視界に重畳されるように表示する。また、スマートフォン、タブレット端末などのディスプレイである場合は、作業者の視野に対応する映像(作業者映像)は、スマートフォン、タブレット端末に備えられたカメラが撮影した映像であり、作業者の全視野に対応していなくてもよい。
【0016】
中継サーバ103は、現地カメラ101から受信したライブ映像のうち、一部の画角を抽出して、ユーザ端末104に送信する。また、中継サーバ103は、作業者端末102から受信した作業者映像のうち、ライブ映像からユーザ端末104向けに抽出した部分に対応する部分を検出し、該部分を示す情報(視野情報)を作業者端末102に送信する。
【0017】
ユーザ端末104は、現地から離れた場所にいるユーザが使用する端末であり、ウェアラブルデバイス、スマートフォン、タブレット端末などである。ユーザ端末104は、中継サーバ103がライブ映像からユーザ端末104向けに抽出した映像を表示する。また、ユーザ端末104は、中継サーバ103が抽出する部分(画角)を決めるための方向指示を取得して、中継サーバ103に送信する。
【0018】
この方向指示は、ユーザ端末104が、ヘッドマウントディスプレイを備えていれば、そのヘッドマウントディスプレイの向きを示す情報であってもよいし、スマートフォン、タブレット端末などであれば、そのディスプレイの向きを示す情報であってもよい。あるいは、ユーザが、ユーザ端末104のディスプレイをスワイプあるいはタップするなどして、指示した方向であってもよい。これにより、ユーザは、現地カメラ101によるライブ映像の中の任意の方向の映像をユーザ端末104に表示させることができる。ユーザ端末104が備えるヘッドマウントディスプレイは、没入型ヘッドマウントディスプレイであってもよい。
【0019】
なお、ユーザ端末104と作業者端末102とは、ネットワーク105を介した音声通話が可能であってもよい。これにより、ユーザと作業者とは、それぞれの映像を見ながら、会話により意志を疎通することができる。
【0020】
図2は、本実施形態に係るユーザ端末104の構成例を示す概略ブロック図である。ユーザ端末104は、抽出映像受信部141、抽出映像表示部142、方向指示取得部143、方向指示送信部144を備える。抽出映像受信部141は、中継サーバ103がライブ映像から一部の画角を抽出した映像を受信する。抽出映像表示部142は、抽出映像受信部141が受信した映像を、ユーザ端末104が備えるディスプレイに表示する。
【0021】
方向指示取得部(ユーザ指示取得部)143は、中継サーバ103が現地映像から抽出する画角を決めるためのユーザによる指示(方向指示)を取得する。この方向指示は、ユーザ端末104が備えるジャイロセンサ、加速度センサなどを用いて検出したディスプレイの向きの変化に基づいていてもよいし、ユーザがディスプレイなどをスワイプまたはタップして指示した方向に基づいていてもよい。また、この方向指示には、画角の大きさに関する指示が含まれていてもよい。方向指示送信部144は、方向指示取得部143が取得した方向指示を示す情報を、中継サーバ103に送信する。
【0022】
図3は、本実施形態に係る中継サーバ103の構成例を示す概略ブロック図である。中継サーバ103は、現地映像受信部131、映像抽出部132、抽出映像送信部133、作業者映像受信部134、視野情報生成部135、方向指示受信部136、視野情報送信部137を備える。現地映像受信部131は、現地カメラ101が撮影した現地映像を、現地カメラ101から受信する。映像抽出部132は、現地映像受信部131が受信した現地映像のうち、ユーザ端末104に表示する部分を抽出する。映像抽出部132は、方向指示受信部136から入力された方向指示を示す情報に基づき、抽出する部分を決定する。例えば、方向指示を示す情報が、右向きに3度を示しているときは、映像抽出部132は、それまで抽出していた部分から、右向きに3度分ずらした部分を抽出する部分とする。抽出映像送信部133は、映像抽出部132が抽出した部分(抽出映像)をユーザ端末104に送信する。
【0023】
作業者映像受信部134は、作業者端末102が撮影した作業者映像を、作業者端末102から受信する。視野情報生成部135は、作業者映像受信部134が受信した作業者映像のうち、映像抽出部132が抽出した抽出映像に対応する部分を示す視野情報を生成する。視野情報は、作業者映像のうち、抽出映像に対応する部分の外形線を表す座標のセットであってもよいし、外形線の画像であってもよい。
【0024】
方向指示受信部136は、方向指示を示す情報を、ユーザ端末104から受信する。方向指示受信部136は、受信した方向指示を示す情報を、映像抽出部132に入力する。視野情報送信部137は、視野情報生成部135が生成した視野情報を、作業者端末102に送信する。
【0025】
図4は、本実施形態に係る作業者端末102の構成例を示す概略ブロック図である。作業者端末102は、カメラ部121、作業者映像送信部122、表示部123、視野情報合成部124、視野情報受信部125を備える。カメラ部121は、作業者の視野に対応する映像である作業者映像を撮影する。作業者映像送信部122は、作業者映像を中継サーバ103に送信する。視野情報受信部125は、視野情報を、中継サーバ103から受信する。
【0026】
視野情報合成部124は、作業者映像に、視野情報に基づく視野情報画像を合成する。なお、表示部123が光学シースルー型のヘッドマウントディスプレイである場合は、視野情報合成部124は、視野情報に基づく視野情報画像を生成するのみとし、作業者映像との合成を行わないようにしてもよい。ここで、視野情報画像は、例えば、視野情報が示す抽出映像に対応する部分の枠(外形線)であってもよいし、該部分が強調されるように、該部分以外に対する網掛けなどであってもよい。表示部123は、視野情報に基づく視野情報画像が、作業者の視野に対応する映像に合成された映像を表示する。なお、表示部123が光学シースルー型のヘッドマウントディスプレイである場合は、視野情報画像を表示することで、視野情報画像が作業者の視界に重畳される。
【0027】
図5は、本実施形態に係る情報提示システム10の動作を説明するフローチャートである。まず、現地カメラ101が、現地映像を取得する(ステップSa1)。次に、方向指示取得部143が、方向指示を取得する(ステップSa2)。次に、映像抽出部132が、現地映像からユーザ端末104用の映像を抽出する(ステップSa3)。ここで、映像抽出部132は、抽出する映像の画角を、ステップSa2で取得された方向指示に基づき決定する。
【0028】
次に、抽出映像表示部142が、ステップSa3にて抽出されたユーザ端末104用の映像を表示する(ステップSa4)。次に、カメラ部121が、作業者映像を取得する(ステップSa5)。次に、視野情報生成部135が、視野情報を生成する(ステップSa6)。次に、視野情報合成部124が、視野情報に基づき生成した視野情報画像を作業者映像に合成し、表示部123が該合成結果の映像を表示する(ステップSa7)。以降、終了するまで、ステップSa1からの処理が繰り返される。
【0029】
図6は、本実施形態に係る情報提示システム10の動作を説明する別のフローチャートである。図6のフローチャートは、図5のステップSa6に対応する視野情報生成部135による処理である。まず、視野情報生成部135は、ユーザ端末104用の映像から複数の特徴点を抽出し、該複数の特徴点各々の特徴量を算出する(ステップSb1)。次に、視野情報生成部135は、作業者映像から複数の特徴点を抽出し、該複数の特徴点各々の特徴量を算出する(ステップSb2)。これらの特徴量は、例えば、SIFT(Scale-Invariant Feature Transform)など、回転、スケール変化に対してロバストな特徴量である。
【0030】
次に、視野情報生成部135は、算出した特徴量に基づき、ユーザ端末104用の映像における特徴点と、作業者映像における特徴点とを対応付ける(ステップSb3)。図7は、本実施形態に係るステップSb3による特徴点の対応付けを説明する図である。画像UF1は、ユーザ端末104用の映像を構成するフレームのうちの1つである。画像OF1は、作業者映像を構成するフレームのうちの1つである。画像UF1および画像OF1に付された複数の丸印の各々は、視野情報生成部135が検出した特徴点である。さらに、画像UF1の丸印から画像OF1の丸印への矢印は、特徴量に基づく特徴点の対応付けを示す。このように、特徴量に基づく特徴点の対応付けを行うことで、実空間において同じ点に対応していると推定される特徴点同士を対応付けることができる。
【0031】
図6に戻って、次に、視野情報生成部135は、ユーザ端末104用の映像の外形線に対応する、作業者映像における外形線の座標を、視野情報として、特徴点の対応に基づき算出する(ステップSb4)。図8は、本実施形態に係る視野情報の算出を説明する図である。画像UF2は、ユーザ端末104用の映像を構成するフレームのうちの1つである。画像OF2は、作業者映像を構成するフレームのうちの1つである。画像UF2に付された特徴点p1、p2、p3は、それぞれ画像OF2に付された特徴点p1’、p2’、p3’と対応付けられた特徴点である。まず、視野情報生成部135は、下記の式(1)における変換行列Mを算出する。
【0032】
【数1】
【0033】
なお、式(1)において、「p1x’」、「p1y’」は、特徴点p1’のx座標とy座標である。同様に、「p2x’」、「p2y’」は、特徴点p2’のx座標とy座標である。「p3x’」、「p3y’」は、特徴点p3’のx座標とy座標である。「p1x」、「p1y」は、特徴点p2のx座標とy座標である。「p2x」、「p2y」は、特徴点p2のx座標とy座標である。「p3x」、「p3y」は、特徴点p3のx座標とy座標である。
【0034】
そして、視野情報生成部135は、画像UF2の外形線上の点p0に対して、変換行列Mによる座標変換を行い、画像OF2上の点p0’を得る。この点p0’が、作業者映像における外形線の座標の1つとなる。図8では、画像UF2の外形線上の点p0のみを示したが、視野情報生成部135は、画像UF2の外形線上の複数の点に対して、変換行列Mによる座標変換を行うことで、作業者映像における外形線の座標のセットを、視野情報として算出する。
【0035】
なお、点p0に用いる変換行列Mを求めるための3つの特徴点p0、p1、p2は、画像UF2に含まれる特徴点のうち、点p0に最も近い3つを用いるようにしてもよい。また、3つの特徴点p0、p1、p2が直線上にあることは好ましくない。そこで、視野情報生成部135は、点p0に最も近い3つの特徴点を選択した結果、3つの特徴点が直線上に近いと判定したときは、3つのうちの1つを除き、4番目に近い特徴点を加えるようにしてもよい。このとき、除く1つは、残った3つの特徴点が、直線上から最も離れるようになるものが選択されるようにしてもよい。
【0036】
なお、ここでは、視野情報生成部135が、特徴点3つの対応付けを用いて、アフィン変換の変換行列Mを求める場合を詳述したが、特徴点4つの対応付けを用いて、式(2)で表されるような座標(x,y)を座標(x’,y’)に変換する射影変換を求めて用いるようにしてもよい。射影変換の場合も、特徴点の選択は、アフィン変換の場合と同様である。
【0037】
【数2】
【0038】
なお、ステップSb1において抽出する特徴点は、ユーザ端末104用の映像全体にわたっていなくてもよく、例えば、ユーザ端末104用の映像の外形線から一定の距離以内にあるもののみとしてもよい。また、視野情報生成部135は、ユーザ端末104用の映像の外形線から一定の距離以内にある特徴点として、現地映像に含まれるユーザ端末104用の映像の外形線の外側にある特徴点も検出するようにしてもよい。
【0039】
図9は、本実施形態に係る現地映像、抽出映像、および作業者映像の関係を示す図である。図9において、現地映像LVには、端末104用の映像として抽出される抽出映像UF3が含まれている。そして作業者端末102が表示する、視野情報画像付き作業者映像OF3には、抽出映像UF3の外形線に対応する視野情報画像FVが合成されている。このように、作業者端末102には、ユーザ端末104が表示されている抽出映像の外形線が示されている。このため、作業者は、ユーザの視界を把握することができる。したがって、ユーザが言葉で示したものを作業者が解釈する際に、誤解してしまう恐れを下げることができる。遠隔地のユーザの視界を現地にいる作業者の端末で撮影された画像に限定しなくても、遠隔地のユーザと現地にいる作業者とのコミュニケーションが円滑に行える。
【0040】
<第2の実施形態>
第1の実施形態では、作業者端末102を用いて視野情報画像を表示していたが、作業者端末102に変えて、プロジェクタ106を用いて視野情報画像を、現実世界に投影するようにしてもよい。
【0041】
図10は、この発明の第2の実施形態に係る情報提示システム11の構成例を示す概略ブロック図である。図10において、図1の各部分に対応する部分には、同一の符号を付し、説明を省略する。図10に示すように、情報提示システム11は、現地カメラ101、中継サーバ103、ユーザ端末104、プロジェクタ106を備え、これらはネットワーク105により通信可能に接続されている。
【0042】
プロジェクタ106は、図1におけるシースルー型のヘッドマウントディスプレイを備える作業者端末102と同様の構成であるが、視野情報画像をヘッドマウントディスプレイに表示する代わりに、現実世界に投影する。これにより、作業者の位置に関係なく、視野情報画像が作業者の視界に重畳される。
【0043】
<第3の実施形態>
第1の実施形態では、作業者端末102は、視野情報画像を表示していたが、第3の実施形態では、ユーザが示した位置を示す画像をさらに表示する。図11は、この発明の第3の実施形態に係る情報提示システム12の構成例を示す概略ブロック図である。図11において、図1の各部分に対応する部分には、同一の符号を付し、説明を省略する。図11に示すように、情報提示システム12は、現地カメラ101、作業者端末102a、中継サーバ103a、ユーザ端末104aを備え、これらはネットワーク105により通信可能に接続されている。
【0044】
作業者端末102a、中継サーバ103a、ユーザ端末104aは、図1の作業者端末102、中継サーバ103、ユーザ端末104と同様であるが、ユーザが示した位置を示す画像を作業者端末102aがさらに表示するための機能を有する。
【0045】
図12は、本実施形態に係るユーザ端末104aの構成例を示す概略ブロック図である。図12において、図2の各部に対応する部分には同じ符号を付し、説明を省略する。図12に示すようにユーザ端末104aは、図2のユーザ端末104の構成に加えて、ポイント情報取得部145、ポイント情報送信部146を備える。
【0046】
ポイント情報取得部145は、ユーザ操作により指定された位置であって、抽出映像表示部142が表示する抽出映像における位置(ポイント)を示すポイント情報を取得する。ユーザ端末104aが、スマートフォン、あるいはタブレット端末であれば、このユーザ操作は、ディプレイへのタップであってよい。また、ユーザ端末104aが、ヘッドマウントディスプレイを備えている場合は、このユーザ操作は、操作スティックによる操作、視線入力などであってもよい。なお、ユーザ操作により、抽出映像における位置だけでなく、作業者端末102aに表示させる画像、あるいは文字などのアノテーションも指定するようにし、ポイント情報が、該アノテーションを示す情報を含むようにしてもよい。また、ポイント情報は、複数の位置により領域を示す情報であってもよい。
【0047】
ポイント情報送信部146は、ポイント情報取得部145が取得したポイント情報を中継サーバ103aに送信する。
【0048】
図13は、本実施形態に係る中継サーバ103aの構成例を示す概略ブロック図である。図13において、図3の各部に対応する部分には同じ符号を付し、説明を省略する。図13に示すように中継サーバ103aは、図3の中継サーバ103とは、ポイント情報受信部138をさらに備える点と、視野情報生成部135、視野情報送信部137に変えて視野情報生成部135a、視野情報送信部137aを備える点が異なる。
【0049】
ポイント情報受信部138は、ユーザ端末104aからポイント情報を受信する。視野情報生成部135aは、視野情報生成部135と同様であるが、さらに、視野情報の生成に用いた変換と同様にして、ポイント情報が示す位置を作業者映像上の位置に変換する。視野情報送信部137aは、視野情報送信部137と同様であるが、さらに、視野情報生成部135aが変換したポイント情報を作業者端末102aに送信する。
【0050】
図14は、本実施形態に係る作業者端末102aの構成例を示す概略ブロック図である。図14において、図4の各部に対応する部分には同じ符号を付し、説明を省略する。図14に示すように作業者端末102aは、図4の作業者端末102とは、視野情報受信部125、視野情報合成部124に変えて視野情報受信部125a、視野情報合成部124aを備える点が異なる。
【0051】
視野情報受信部125aは、視野情報受信部125と同様であるが、さらに、変換されたポイント情報を受信する。視野情報合成部124aは、視野情報合成部124と同様であるが、さらに、作業者映像に対して、変換されたポイント情報が示す位置に、ユーザが当該位置を指定したことを表す画像(例えば、矢印、指など)を合成する。なお、ポイント情報が、画像を示す情報を含む場合は、視野情報合成部124aは、該情報が示す画像を合成する。
【0052】
このようにすることで、作業者は、作業者映像における、ユーザが指定した位置を把握することができる。
【0053】
なお、上記の各実施形態において、映像抽出部132、視野情報生成部135、135aは、中継サーバ103、103aが備え、視野情報合成部124、124aは、作業者端末102、102aあるいはプロジェクタ106が備えるとしたが、これに限らない。例えば、映像抽出部132を、現地カメラ101あるいはユーザ端末104が備えていてもよい。また、視野情報合成部124、124aを中継サーバ103、103aが備えていてもよい。また、視野情報生成部135、135aを作業者端末102が備えていてもよい。
【0054】
また、図2図3図4図12図13図14におけるユーザ端末104、104a、中継サーバ103、103a、作業者端末102、102aの各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりユーザ端末104、104a、中継サーバ103、103a、作業者端末102、102aを実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
【0055】
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
【0056】
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
【符号の説明】
【0057】
10、11、12 情報提示システム
101 現地カメラ
102、102a 作業者端末
103、103a 中継サーバ
104、104a ユーザ端末
105 ネットワーク
106 プロジェクタ
121 カメラ部
122 作業者映像送信部
123 表示部
124、124a 視野情報合成部
125、125a 視野情報受信部
131 現地映像受信部
132 映像抽出部
133 抽出映像送信部
134 作業者映像受信部
135、135a 視野情報生成部
136 方向指示受信部
137、137a 視野情報送信部
138 ポイント情報受信部
141 抽出映像受信部
142 抽出映像表示部
143 方向指示取得部
144 方向指示送信部
145 ポイント情報取得部
146 ポイント情報送信部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14