IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社日立製作所の特許一覧

特許7691896映像表示システム、映像表示装置、および映像表示方法
<>
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図1
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図2
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図3
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図4
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図5
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図6
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図7
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図8
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図9
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図10
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図11
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図12
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図13
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図14
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図15
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図16
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図17
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図18
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図19
  • 特許-映像表示システム、映像表示装置、および映像表示方法 図20
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-06-04
(45)【発行日】2025-06-12
(54)【発明の名称】映像表示システム、映像表示装置、および映像表示方法
(51)【国際特許分類】
   G09G 5/00 20060101AFI20250605BHJP
   G06F 3/01 20060101ALI20250605BHJP
   G06T 19/00 20110101ALI20250605BHJP
   G09G 5/38 20060101ALI20250605BHJP
   G09G 5/37 20060101ALI20250605BHJP
【FI】
G09G5/00 550C
G06F3/01 510
G06T19/00 600
G09G5/38
G09G5/37 320
【請求項の数】 15
(21)【出願番号】P 2021152509
(22)【出願日】2021-09-17
(65)【公開番号】P2023044464
(43)【公開日】2023-03-30
【審査請求日】2024-01-25
(73)【特許権者】
【識別番号】000005108
【氏名又は名称】株式会社日立製作所
(74)【代理人】
【識別番号】110001689
【氏名又は名称】青稜弁理士法人
(72)【発明者】
【氏名】鵜飼 竜志
(72)【発明者】
【氏名】大内 敏
【審査官】佐藤 嘉純
(56)【参考文献】
【文献】特開2015-060071(JP,A)
【文献】特開2018-032155(JP,A)
【文献】特開2016-019199(JP,A)
【文献】特開2014-199527(JP,A)
【文献】特開2020-123260(JP,A)
【文献】特開2018-092299(JP,A)
【文献】特開2021-043752(JP,A)
【文献】米国特許出願公開第2020/0005543(US,A1)
【文献】中国特許出願公開第102214000(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G09G 5/00
G06F 3/01
G06T 19/00
G09G 5/38
G09G 5/37
(57)【特許請求の範囲】
【請求項1】
映像表示システムにおいて、
特徴点位置認識部と、
座標処理部と、
映像表示処理部と、を備え、
前記特徴点位置認識部は、撮像部で撮影した撮像画像を基に対象物の特徴点の位置を認識し、
前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、ジャイロセンサおよび加速度センサの少なくともひとつを備えるセンサ部が示すセンサ情報を基に前記撮像部の動きを検出し、映像の表示位置を前記撮像部の動きに基づいて補正し、
前記映像表示処理部は、前記基準座標系に基づいて映像を表示する際に、補正された映像の表示位置に映像を表示させる、ことを特徴とする映像表示システム。
【請求項2】
請求項1記載の映像表示システムにおいて、
前記座標処理部は、前記撮像画像と表示する映像の位置関係に関する座標変換情報に基づいて、前記撮像画像中の第一の基準座標系を第二の基準座標系に変換し、
前記映像表示処理部は、前記第二の基準座標系に基づいて映像を表示させる、ことを特徴とする映像表示システム。
【請求項3】
請求項1記載の映像表示システムにおいて、
前記座標処理部は、前記基準座標系を補正して補正座標系を決定することにより映像の表示位置を前記撮像部の動きに基づいて補正し、
前記映像表示処理部は、前記補正座標系における所定の位置にコンテンツを表示させる、ことを特徴とする映像表示システム。
【請求項4】
請求項1記載の映像表示システムにおいて、
前記映像を表示する映像表示部、前記映像表示処理部、前記撮像部、前記センサ部、前記特徴点位置認識部、および前記座標処理部は、ウェアラブルな映像表示装置内に有する、ことを特徴とする映像表示システム。
【請求項5】
請求項1記載の映像表示システムにおいて、前記ジャイロセンサは角速度を計測し、前記加速度センサは加速度を計測する、ことを特徴とする映像表示システム。
【請求項6】
請求項1記載の映像表示システムにおいて、
前記座標処理部は、前記基準座標系を決定した後の前記撮像部の動きに基づいて、前記映像の表示位置を補正する、ことを特徴とする映像表示システム。
【請求項7】
請求項1記載の映像表示システムにおいて、
前記座標処理部は、前記特徴点の位置を基に基準座標系を決定した時刻から、所定時間以上経過した後、再度前記特徴点の位置を基に基準座標系を決定及び更新する、ことを特徴とする映像表示システム。
【請求項8】
請求項1記載の映像表示システムにおいて、
前記特徴点位置認識部は、前記座標処理部が第一の特徴点の位置を基に基準座標系を決定した時刻T1から所定時間以上経過した時刻T2において、前記第一の特徴点と、前記第一の特徴点とは異なる第二の特徴点と、の位置を認識し、
前記座標処理部は、時刻T2に前記特徴点位置認識部が認識した前記第二の特徴点の位置を基に基準座標系を決定及び更新し、
前記特徴点位置認識部は、時刻T2から所定時間以上経過した時刻T3において、前記第二の特徴点の位置を認識し、
前記座標処理部は、時刻T3に前記特徴点位置認識部が認識した前記第二の特徴点の位置を基に基準座標系を決定及び更新する、ことを特徴とする映像表示システム。
【請求項9】
請求項1記載の映像表示システムにおいて、
前記特徴点は、前記撮像画像に写っている対象物のエッジ若しくは隅、または前記撮像画像のうち色相、明度、および彩度の少なくとも一つの変化が所定以上ある点、またはあらかじめ定めた所定の物体である、ことを特徴とする映像表示システム。
【請求項10】
請求項1記載の映像表示システムにおいて、
入力部と、
前記撮像画像に重ねて映像を表示する映像表示部と、
前記入力部に入力されたコマンドを認識するコマンド認識部と、を備え、
前記撮像画像に重ねて所定の映像を表示した後、前記コマンド認識部が所定のコマンドを認識すると、前記特徴点位置認識部は、前記撮像画像の前記所定の映像の場所、該場所の近傍、該映像が示す場所、該映像が示す場所の近傍のうちいずれかを特徴点として該特徴点の位置を認識する、ことを特徴とする映像表示システム。
【請求項11】
請求項3記載の映像表示システムにおいて、
前記所定の位置は、利用者の前方から所定の角度以上離れた位置、あるいは、利用者の前方を基準としたときに前記特徴点より離れた位置である、ことを特徴とする映像表示システム。
【請求項12】
映像を表示する映像表示装置において、
対象物を撮影して撮像画像を取得する撮像部と、
ジャイロセンサおよび加速度センサの少なくともひとつにより前記撮像部の動きを検出するセンサ部と、
特徴点位置認識部と、
座標処理部と、
映像表示処理部と、
映像を表示する映像表示部と、を備え、
前記特徴点位置認識部は、前記撮像画像を基に前記対象物の特徴点の位置を認識し、
前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、前記撮像部の動きに基づいて前記映像表示部が表示する映像の位置の補正情報を生成し、
前記映像表示処理部は、前記基準座標系と前記補正情報に基づいて、前記映像の表示位置を決定し、
前記映像表示部は、決定された表示位置に映像を表示する、
ことを特徴とする映像表示装置。
【請求項13】
所望のコンテンツを表示する映像表示方法であって、
カメラで撮影した画像中の物体の特徴点の位置を認識する第1のステップ、
前記特徴点に基づいて基準座標系を決定する第2のステップ、
ジャイロセンサおよび加速度センサの少なくともひとつにより前記カメラの動きを検知する第3のステップ、
前記基準座標系に基づいて前記コンテンツを表示する際に、前記カメラの動きに基づいて前記コンテンツの表示位置を補正する第4のステップ、
を実行する映像表示方法。
【請求項14】
請求項13記載の映像表示方法において、
前記補正は、前記基準座標系を補正座標系に補正する処理、および、前記コンテンツの座標を補正する処理の少なくとも一つを含む、
映像表示方法。
【請求項15】
請求項13記載の映像表示方法において、
前記カメラと前記カメラの動きを検知するセンサは、利用者が装着する映像表示装置に備え付けられており、
前記利用者が前記物体を視認する際に、前記コンテンツが同時に表示される、
映像表示方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は映像を表示する技術に関し、特に現実空間に仮想空間の映像を重畳する技術に関する。
【背景技術】
【0002】
現実空間に仮想空間の映像を重畳することで利用者に情報を提示する、ヘッドマウントディスプレイ(HMD)などの映像表示装置及び映像表示システムが知られている。工場などでは、作業工程などのコンテンツを見ながら作業を行うケースがあるが、作業対象の近くにディスプレイなどを配置することが難しい場合がある。そのようなとき、ヘッドマウントディスプレイなどの映像表示装置を使用すれば、作業者は映像表示装置に表示される作業指示などを参照しながら作業を行うことができ、作業効率を改善することができる。
【0003】
特許文献1には、頭部装着型表示装置において、ユーザから見易い位置に仮想空間を配置してユーザの見たい画像を快適に選択表示することについて記載がある。
【0004】
特許文献2には、カメラの取得画像に基づいて撮影画像に含まれる特徴点の三次元位置を算出する構成について記載がある。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2020-123260号公報
【文献】特開2008-304269号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
利用者が作業指示などのコンテンツを見ながら作業を行う場合、現実空間と仮想空間の位置関係が重要である。利用者が頭部を回転若しくは移動させた場合に、現実空間と仮想空間の位置関係が変わってしまうと、利用者は違和感を覚える場合や、誤った作業指示を受領する場合がある。
【0007】
特許文献1に記載された頭部装着型表示装置では、利用者の腰部に対する頭部の差分回転量を算出し、頭部の差分回転量に応じて仮想空間に表示する表示コンテンツを変更することで、現実空間と仮想空間の位置関係を合わせている。しかしながら、利用者の動きを基にコンテンツの表示位置を決定しているため、頭部が回転していなくても経時変化によりコンテンツがドリフトしてしまう場合がある。
【0008】
また、特許文献2ではSLAM(Simultaneous Localization and Mapping)により自己位置推定と環境地図作成を行う情報処理装置が開示されているが、SLAMは計算処理に多大な時間を要するため、SLAMを利用して現実空間を認識して現実空間と仮想空間の位置関係を合わせた場合では利用者の頭部の回転に映像表示装置の映像変更が追従できない、換言すれば遅延が発生するという問題がある。
【0009】
本発明は、上記課題を解決すべくなされたものであり、本発明の目的は、利用者の動きに対する映像追従の遅延が少なく、現実空間と仮想空間の位置精度の高い重畳が可能な技術を提供することにある。
【課題を解決するための手段】
【0010】
本発明の好ましい一側面は、映像表示システムにおいて、特徴点位置認識部と、座標処理部と、映像表示処理部と、を備え、前記特徴点位置認識部は、撮像部で撮影した撮像画像を基に対象物の特徴点の位置を認識し、前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、センサ部が示すセンサ情報を基に前記撮像部の動きを検出し、映像の表示位置を前記撮像部の動きに基づいて補正し、前記映像表示処理部は、前記基準座標系に基づいて映像を表示する際に、補正された映像の表示位置に映像を表示させる、ことを特徴とする映像表示システムである。
【0011】
本発明の好ましい他の一側面は、映像を表示する映像表示装置において、対象物を撮影して撮像画像を取得する撮像部と、前記撮像部の動きを検出するセンサ部と、特徴点位置認識部と、座標処理部と、映像表示処理部と、映像を表示する映像表示部と、を備え、前記特徴点位置認識部は、前記撮像画像を基に前記対象物の特徴点の位置を認識し、前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、前記撮像部の動きに基づいて前記映像表示部が表示する映像の位置の補正情報を生成し、前記映像表示処理部は、前記基準座標系と前記補正情報に基づいて、前記映像の表示位置を決定し、前記映像表示部は、決定された表示位置に映像を表示する、ことを特徴とする映像表示装置である。
【0012】
本発明の好ましい他の一側面は、所望のコンテンツを表示する映像表示方法であって、カメラで撮影した画像中の物体の特徴点の位置を認識する第1のステップ、前記特徴点に基づいて基準座標系を決定する第2のステップ、前記カメラの動きを検知する第3のステップ、前記基準座標系に基づいて前記コンテンツを表示する際に、前記カメラの動きに基づいて前記コンテンツの表示位置を補正する第4のステップ、を実行する映像表示方法である。
【発明の効果】
【0013】
本発明によれば、利用者の動きに対する映像追従の遅延が少なく、現実空間と仮想空間の位置精度の高い重畳が可能な技術を提供できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
【図面の簡単な説明】
【0014】
図1】実施例に係る映像表示装置の機能ブロックの一例を示すブロック図。
図2】実施例に係る映像表示装置のハードウェア構成の一構成例を示すブロック図。
図3】実施例の映像表示装置の一例と利用者を示す模式図。
図4】実施例の映像表示装置の例を示す斜視図。
図5】実施例1に係る現実空間と座標系の関係の一例を示す模式図。
図6】実施例1のコンテンツ表示に係るフローチャートの一例を示す流れ図。
図7】実施例1のコンテンツ表示に係る別のフローチャートの一例を示す流れ図。
図8】実施例に係る特徴点の例を示す模式図。
図9】実施例に係る映像表示処理部による表示コンテンツの決定方法の一例を示す模式図。
図10】実施例に係る映像表示処理部による表示コンテンツの決定方法の別の一例を示す模式図。
図11】実施例に係る映像表示装置が表示する表示コンテンツの位置の例を示す模式図。
図12】実施例2に係る特徴点と基準座標系の一例を示した模式図。
図13】実施例2のコンテンツ表示に係るフローチャートの一例を示した流れ図。
図14】実施例3に係る映像表示装置の機能ブロックの一例を示したブロック図。
図15】実施例3に係る映像表示装置の一例を示した斜視図。
図16】実施例3の基準座標系決定に至るフローチャートの一例を示した流れ図。
図17】実施例3に係る現実空間にマーカーを重畳表示する様子の一例を示す模式図。
図18】実施例の映像表示装置を活用した第4の実施例である遠隔作業支援システムの構成図。
図19】遠隔作業支援システムの映像情報伝送システム概要例を示すブロック図。
図20】実施例4に係る遠隔作業支援システムの一例を示す模式図。
【発明を実施するための形態】
【0015】
以下、本発明の実施例について、図面を用いて詳細に説明する。なお、以下の説明は、本発明の一実施形態を説明するためのものであり、本発明の範囲を制限するものではない。従って、当業者であればこれらの各要素又は全要素をこれと同等なものに置換した実施形態を採用することが可能であり、これらの実施形態も本発明の範囲に含まれる。
【0016】
以下に説明する実施例の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、重複する説明は省略することがある。
【0017】
同一あるいは同様な機能を有する要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、複数の要素を区別する必要がない場合には、添字を省略して説明する場合がある。
【0018】
本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。
【0019】
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。
【0020】
本明細書で引用した刊行物、特許および特許出願は、そのまま本明細書の説明の一部を構成する。
【0021】
本明細書において単数形で表される構成要素は、特段文脈で明らかに示されない限り、複数形を含むものとする。
【0022】
実施例の代表的な一例を示せば以下の通りである。すなわち、映像表示システムは、撮像部と、センサ部と、特徴点位置認識部と、座標処理部と、映像表示処理部とを備える。前記特徴点位置認識部は前記撮像部で撮影した画像を基に対象物の特徴点の位置を認識し、前記座標処理部は、前記特徴点の位置を基に基準座標系を決定すると共に、前記センサ部が示す情報を基に、前記撮像部の前記基準座標系に対する相対ずれを補正して補正座標系あるいは補正座標を決定する。前記映像表示処理部は、前記補正座標系における所定の位置にコンテンツを表示する、あるいは、前記基準座標系における補正された所定の位置にコンテンツを表示する、構成を備える。ここで相対ずれとは、位置のずれおよび角度のずれの両者を含む概念である。
【実施例1】
【0023】
本実施例において映像表示装置100は、例えばヘッドマウントディスプレイやヘッドアップディスプレイやスマートフォンやタブレット等、映像を表示する機能を有する装置である。
【0024】
図1は、本実施例の映像表示装置100の機能ブロックの一例を示す図である。映像表示装置100は、撮像部101と、センサ部102と、特徴点位置認識部103と、座標処理部104と、映像表示処理部105と、映像表示部106と、コントローラー107とを有する。
【0025】
撮像部101は、映像表示装置100の周辺環境の撮像を行う。センサ部102は、映像表示装置100の動きを検出する。ここで動きとは位置の変位と角度の変化(回転)の両方を含む概念とする。特徴点位置認識部103は、撮像部101が撮像した画像の中から特徴点の位置を認識する。座標処理部104は、映像表示装置100が表示する映像の座標系の処理を行う。映像表示処理部105は、映像表示装置100が表示する映像の表示処理を行う。映像表示部106は、映像の表示を行う。コントローラー107は、映像表示装置100全体を統括的に制御する。各部の詳細は後述する。
【0026】
図2は、本実施例の映像表示装置100のハードウェア構成の一構成例を示す図である。映像表示装置100は、カメラ111と、センサ112と、ディスプレイ113と、CPU(Central Processing Unit)114と、RAM(Random Access Memory)115と、記憶媒体116とを有する。
【0027】
図2で示した一構成例において、映像表示装置100は撮像部101としてカメラ111を備えている。カメラ111の構成は、特許文献2等に記載の公知の構成で良い。
【0028】
また、センサ部102としてセンサ112を備えている。センサ112は、カメラ111の動きを検知するため、例えばユーザの頭部の動きを検知する。また、映像表示部106はディスプレイ113を備えている。センサ部102やディスプレイ113の構成は、特許文献1等に記載の公知の構成で良い。
【0029】
ディスプレイ113の表示方式は、外界からの視覚情報も受け取ることができる透過型ディスプレイでも、映像情報のみを映し出す非透過型ディスプレイでもよいが、以下では、現実空間に重畳させて画像を視認するため、透過型ディスプレイとして説明する。ディスプレイ113は、両眼用に2つ備えてもよいし、片眼用に1つ備えてもよい。
【0030】
CPU114は、記憶媒体116またはRAM115に格納されているプログラムを実行する。具体的には、CPU114がプログラムを実行することにより、映像表示装置100のコントローラー107や、特徴点位置認識部103、座標処理部104、映像表示処理部105等、各部の機能が実現される。
【0031】
記憶媒体116は、CPU114が実行するプログラムおよび実行に必要な各種パラメータ・データを格納するための媒体である。
【0032】
RAM115は、ディスプレイ113で表示するための画像および各種情報を格納するための記憶媒体である。また、RAM115は、CPU114が使用するプログラムやデータの一時保管領域としても機能する。映像表示装置100は、CPU114とRAM115と記憶媒体116をそれぞれ複数有する構成でもよい。
【0033】
なお、映像表示装置100のハードウェア構成は、図2に示す構成に限定されない。例えばCPU114、記憶媒体116、RAM115を映像表示装置100とは別体として設けるようにしてもよい。その場合、映像表示装置100は汎用のコンピューター(例えばサーバーコンピューターやパーソナルコンピューター、スマートフォン等)を用いて実現するようにしてもよい。
【0034】
例えば、カメラ111、センサ112、ディスプレイ113を利用者が装着するウェアラブルなヘッドマウントディスプレイに実装し、CPU114、RAM115、記憶媒体116は遠隔地のサーバにて構成し、ヘッドマウントディスプレイとサーバをネットワークで接続して構成してもよい。
【0035】
また、複数のコンピューターをネットワークで接続して、映像表示装置100の各部の機能を各コンピューターが分担することもできる。一方で、映像表示装置100の機能の1つ以上を、専用のハードウェアを用いて実現することもできる。
【0036】
図3は、本実施例の映像表示装置100の一例と利用者700を示す図である。図3に示す映像表示装置100は、利用者700が自身の頭部に装着して利用可能なヘッドマウントディスプレイ(スマートグラスとも称する)である。
【0037】
図4は、本実施例の映像表示装置100の実装形態の一例を示す図である。映像表示装置100は、カメラ111とセンサ112を備えており、本例ではセンサ112としてジャイロセンサを用いている。ジャイロセンサは映像表示装置100の動きを検知できる。
【0038】
ディスプレイ113は、眼鏡のレンズ部に内蔵される。透過型ディスプレイの場合、利用者700はディスプレイ113を透過して外界を視認すると同時に、映像表示部106がディスプレイ113に投影する映像を視認することができる。カメラ111は利用者の前方を撮影し、カメラ画像は利用者が視認する外界にほぼ重なる。次に、本実施例の映像表示装置100の動作を詳細に説明する。
【0039】
図5は、本実施例の現実空間と座標系の関係の一例を示す図である。後に詳細に説明する。
【0040】
図6は、本実施例の映像表示装置100が実行するコンテンツ表示に係るフローチャートの一例を示す図である。
【0041】
はじめに、映像表示装置100はカメラ画像を取得する(S101)。映像表示装置100のコントローラー107は撮像部101に対して撮像のコマンドを送付し、撮像部101はコマンドに従って撮像し、撮像部101は撮像した画像をコントローラー107に送信する。
【0042】
図3および図4に示したように、映像表示装置100が備えているカメラ111は、利用者700が映像表示装置100を頭部に装着した際に、利用者700の前方を撮影できるように映像表示装置100に取り付けられている。従って、映像表示装置100はカメラ111の撮影画像を取得することで、利用者700の前方の現実空間における状況を画像として取得することが可能である。すなわち、カメラ111が撮影した画像には、現実空間において利用者の前方に位置している物体131が撮影されている(図5(a))。物体131としては、例えば利用者700が操作する分電盤(の操作パネル)などが想定される。
【0043】
次に、映像表示装置100は特徴点の位置の認識を行う(S102)。映像表示装置100のコントローラー107は特徴点位置認識部103に撮像部101から受領した撮像画像とコマンドを送付し、特徴点位置認識部103は撮像画像から特徴点132の位置を認識し、認識結果をコントローラー107に送信する(図5(a))。特徴点132の詳細については後述するが、特徴点位置認識部103がコントローラー107から受領した撮像画像の内部において、特徴的な点が特徴点132である。また、特徴点132の位置とは、撮像画像内のどの位置に特徴点132があるかを表す。
【0044】
次に、映像表示装置100は基準座標系の決定を行う(S103)。映像表示装置100のコントローラー107は座標処理部104に特徴点位置認識部103から受領した特徴点の位置とコマンドを送付し、座標処理部104は特徴点の位置を基に基準座標系を決定し、座標系情報をコントローラー107に送信する。
【0045】
図5(a)では、特徴点132の位置を基準とし、紙面下方向にx軸133を設定し、紙面右方向にy軸134を設定している。しかしながら本実施例はこれに限られず、特徴点132の位置から所定の方向に所定の距離だけずれた位置をx軸133及びy軸134の原点としてもかまわないし、2つの軸が直交しない座標系を設定してもかまわないし、極座標系を設定してもかまわない。以下では図5(a)のように特徴点132の位置を基準とし、紙面下方向にx軸133を設定し、紙面右方向にy軸134を設定したとして説明を行う。
【0046】
また、座標処理部104は撮像部101の撮像画像と、映像表示部106が表示する映像の位置関係に関する情報を事前に備えている。つまり、撮像部101が撮影する画像の画角及び方向及び回転角と、映像表示部106が表示する映像の画角及び方向及び回転角を基に、撮像部101の撮影画像内における所定の位置及び方向が、映像表示部106が表示する映像内において如何なる位置及び方向に対応するかに関する情報を事前に備えている。これにより、撮像画像内の座標と映像内の座標は相互に変換が可能である。かかる位置関係に関する情報は、撮像部101と映像表示部106の仕様に基づいて事前に定めることができる。撮像画像内の第一の座標系と映像内の第二の座標系を変換するための情報を、便宜的に座標変換情報ということがある。
【0047】
該位置関係に関する情報を基に、座標処理部104は座標変換情報を用いて、撮像画像内に設定した第一の基準座標系を映像表示部106が表示する映像内における第二の基準座標系に換算する。座標処理部104は映像表示部106が表示する映像内における第二の基準座標系に関する情報をコントローラー107に送信する。具体的には、例えば映像表示部106が表示する映像内における第二の基準座標系の原点及び方向に関する情報である。
【0048】
上記の説明では、座標処理部104は撮像画像内で第一の基準座標系を設定した後、映像表示部106が表示する映像内における第二の基準基準座標系に換算するとして説明したが、本実施例はこれに限られない。座標処理部104は座標変換情報を用いて、特徴点132の位置が、映像表示部106が表示する映像内の如何なる位置に該当するかを計算し、該位置を基準として、映像表示部106が表示する映像内において第二の基準基準座標系を設定してもよい。これにより、座標処理部104における処理を軽減することが可能である。特徴点132の位置の認識及び基準座標系の決定は、撮像画像全体を利用して現実空間全体の空間認識を行わなくてよいため、高速な位置の認識及び基準座標系の決定が可能である。
【0049】
以上のように、撮像画像内に設定した第一の基準座標系を映像表示部106が表示する映像内における第二の基準座標系に換算する。換算した座標系に基づいて撮像画像内に表示するコンテンツ(オブジェクト)を位置決めすることで、撮像画像内の物体とコンテンツとの位置関係を定めることができる。この結果、現実空間の物体と仮想空間のコンテンツの位置関係を定めることができる。ただし、これはカメラ111の視野が固定されていることが前提である。
【0050】
次に、映像表示装置100は所定時間経過するまで所定時間経過したかの判断を繰り返す(S104)。換言すれば、所定時間経過するまで待機する。具体的には例えば、コントローラー107は、座標処理部104から座標系情報を受領してからの経過時間を計測し、該経過時間が所定の時間を超過しているか否かを所定の間隔で判定し、該経過時間が所定の時間を超過するまで繰り返す。
【0051】
別の方法としては、コントローラー107はループカウンターを備えており、ループカウンターが所定の値を超過しているかを判断し、判断毎にループカウンターの値を所定の値ずつ増加させ、ループカウンターが所定の値を超過するまで繰り返す。
【0052】
別の方法としては、コントローラー107は時刻を取得し、該時刻が所定の時刻から所定の時刻だけ経過した時刻を超過しているか否かを所定の間隔で判定し、取得した時刻が所定の時刻から所定の時刻だけ経過した時刻を超過するまで繰り返す。
【0053】
一般に、時間の経過とともにユーザの頭や体が移動するため、カメラ111が動く。第一および第二の基準座標系を決定したステップS103の時点では、撮像画像内の物体とカメラ視点の現実空間の物体の位置関係は対応している。すなわち、撮像画像内の物体の特徴点に規定された第一の基準座標系はカメラ視点の現実空間の物体の特徴点に規定された座標系と等価である。よって第一の基準座標系に基づいて定めた第二の基準座標系に従って表示領域を表示すれば、現実空間の所望の位置にコンテンツを表示できる。
【0054】
しかし、カメラ111の視野が移動すると、ステップS103の時点の撮像画像内の物体と現時点のカメラ視点の現実空間の物体の位置関係は対応しなくなる。すなわち、ステップS103で決定された第一の基準座標系は現実空間の物体の特徴点に規定された座標系と等価ではなくなる。したがって、現実空間の物体と第二の基準座標系に基づく表示領域の位置関係がずれてしまうので補正が必要となる。
【0055】
例えば頭の動きに映像を追従させるため、修正は例えば1秒間に複数回行う。具体的には、30回/秒や60回/秒程度であり、多いほど追従性の観点では好ましいが、処理負荷のため高速にできない場合は、数回/秒でも用途によっては許容される。よって、S104(およびS110)の所定時間はこれらを考慮して定める。
【0056】
基準座標系の修正のため、映像表示装置100はセンサ情報の取得を行う(S105)。映像表示装置100のコントローラー107はセンサ部102に対してセンサ情報取得のコマンドを送付し、センサ部102はコマンドに従ってセンサ情報を取得し、センサ部102はセンシングしたセンサ情報をコントローラー107に送信する。
【0057】
図4に示した映像表示装置100の一例では、映像表示装置100はセンサ112としてジャイロセンサを備えており、ジャイロセンサは映像表示装置100の角速度を計測する。ジャイロセンサはコントローラー107に計測した角速度データを送信する。
【0058】
図4に示した映像表示装置100の一例では、映像表示装置100はセンサ112としてジャイロセンサを備えているとしたが、本実施例はこれに限られない。例えば、映像表示装置100はセンサ112として加速度センサを備えており、加速度センサは映像表示装置100の加速度を計測し、加速度センサはコントローラー107に計測した加速度データを送信するとしてもよい。
【0059】
次に、映像表示装置100は相対ずれ量の認識及び補正座標系の決定を行う(S106)。映像表示装置100のコントローラー107は座標処理部104にセンサ部102から受領したセンサ情報とコマンドを送付し、座標処理部104は相対ずれ量135の認識及び補正座標系の決定を行い、座標系情報をコントローラー107に送信する。
【0060】
一つの例では、S105のセンサ情報は、S103以降の時系列データ(例えばS103以降どのように角速度が変化したかの時系列データ)である。あるいは、センサ情報の値が短時間の間はほぼ一定と仮定して、S105のタイミングにおけるデータでもよい。いずれのデータを用いても、S103の時点以降の相対ずれ量135を計算することができる。
【0061】
つまり、座標処理部104はコントローラー107から受領したセンサ情報を基に、現実空間における特徴点132の位置と映像表示装置100の位置関係が、映像表示装置100の移動により、基準座標系を決定した時から如何程ずれているかを計算する。
【0062】
本実施例の別の観点では、座標処理部104はコントローラー107から受領したセンサ情報を基に、現実空間における特徴点132の位置と映像表示装置100の位置関係が、映像表示装置100の移動により、前回座標系情報を算出した時から如何程ずれているかを計算する。
【0063】
図5(b)に示すように、前回座標系情報を算出した時からのずれ量を、基準座標系を決定した時から積算することで、基準座標系を決定した時からの相対ずれ量135を算出することが可能である。
【0064】
図4に示した映像表示装置100の一例では、座標処理部104はコントローラーから角速度データを受領する。いま、角速度がほぼ一定と仮定して、S105のタイミングにおける角速度データを用いるとする。前回座標系情報を算出した時から経過した時刻をΔT、角速度をωとすると、前回座標系情報を算出した時からの角度ずれ量はΔT×ωである。前回座標系情報を算出した時からの角度ずれ量を、基準座標系を決定した時から積算することで、第一の基準座標系を決定した時からの角度ずれ量を算出することが可能である。
【0065】
座標処理部104は、認識した相対ずれ量135を基に、補正座標系の決定を行う。具体的には、座標処理部104は相対ずれと撮像部101の撮像画像との関係に関する情報を事前に備えている。つまり、現実空間における相対ずれが撮像部101の撮像画像内において、如何なる方向の如何なる距離もしくは角度に対応するかに関する情報を事前に備えている。かかる情報は、撮像部101の仕様や、センサ部102の仕様に基づいて定めることができる。該情報及び相対ずれ量を基に、座標処理部104は第一の基準座標系を相対ずれ量に相当する量だけシフト又は回転させ第一の補正座標系を決定する。これにより、映像表示装置100が移動した場合においても、第一の補正座標系は現実空間では略移動しない座標系となる。
【0066】
図5(c)に示した例では、x軸133及びy軸134によって決定された第一の基準座標系に対して、相対ずれ量135だけシフトした、x’軸136及びy’軸137を第一の補正座標系として決定する。
【0067】
座標処理部104は座標変換情報を用いて、撮像画像内に設定した第一の補正座標系を映像表示部106が表示する映像内における第二の補正座標系に換算する。座標処理部104は映像表示部106が表示する映像内における第二の補正座標系情報をコントローラー107に送信する。
【0068】
上記の説明では、前回座標系情報を算出した時からのずれ量を、基準座標系を決定した時から積算することで、基準座標系を決定した時からの相対ずれ量を算出したが、本実施例はこれに限られない。座標処理部104は、前回座標系情報を算出した時からのずれ量を相対ずれ量とし、前回座標系情報を算出した時の基準座標系若しくは補正座標系と、相対ずれ量から、補正座標系を決定する構成とすることも可能である。すなわち、前回のS106による補正座標系の決定からの差分を次のS106で補正する。これによりずれ量の積算が不要となり、処理を軽減することが可能である。
【0069】
上記の説明では、座標処理部104は撮像画像内で第一の補正座標系を設定した後、座標変換情報により映像表示部106が表示する映像内における第二の補正座標系に換算するとして説明したが、本実施例はこれに限られない。座標処理部104は、座標変換情報を用いて、相対ずれ量が、映像表示部106が表示する映像内の如何なる方向及び距離に該当するかを計算し、映像表示部106が表示する映像内において第二の補正座標系を設定してもよい。これにより、座標処理部104における処理を軽減することが可能である。
【0070】
以上説明したように、カメラ111が撮像した撮像画像内の特徴点に基づいて第一の基準座標系を設定し、これに対応した第二の基準座標系を映像表示部106が表示する映像内に設定する。センサ112による信号に基づいてカメラ111の位置や角度変位に起因する相対ずれ量を計算する。図5に示したように、相対ずれ量135は撮像画像内の物体(代表的には基準点)のずれに相当する。この相対ずれ量に基づいて第二の基準座標系を補正する。映像表示部106が表示するコンテンツの位置は補正された第二の基準座標系に基づいて定まるので、第二の基準座標系を撮像画像内の物体のずれに追従するように補正して第二の補正座標系とすることで、利用者700が認知する撮像画像内の物体とコンテンツの相対的位置関係の変化を抑圧することができる。
【0071】
相対ずれ量の認識及び補正座標系の決定は、現実空間全体の空間認識を行わなくてよいため、高速な相対ずれ量の認識及び補正座標系の決定が可能である。なお、基準座標系の決定(S103)自体を高頻度で繰り返すことでも撮像画像内の物体とコンテンツの相対的位置関係の変化を抑圧することができるが、この場合は基準座標系の決定のための処理の負荷が大きくなるという問題がある。
【0072】
次に、映像表示装置100は表示コンテンツの決定を行う(S107)。映像表示装置100のコントローラー107は映像表示処理部105に座標処理部104から受領した座標系情報とコマンドを送付し、映像表示処理部105は映像表示装置100が表示する表示コンテンツの決定を行い、表示コンテンツをコントローラー107に送信する。表示コンテンツの決定については、後に図9で説明する。
【0073】
映像表示処理部105は、コントローラー107から受領した座標系情報を基に、第二の補正座標系を基準として表示するコンテンツの位置を決定する。映像表示装置100が移動した場合においても、第二の補正座標系は現実空間では略移動しない座標系であるから、映像表示装置100の移動に略影響されない映像表示が可能である。
【0074】
次に、映像表示装置100はコンテンツの表示を行う(S108)。映像表示装置100のコントローラー107は映像表示部106に映像表示処理部105から受領した表示コンテンツとコマンドを送付し、映像表示部106は該表示コンテンツを表示する。
【0075】
次に、映像表示装置100は終了コマンドの有無を判定する(S109)。終了コマンドとしては例えば、映像表示装置100の図示しない入力部から入力された情報、若しくは該情報を認識した情報が利用可能である。例えば、映像表示装置100は入力部としてマイクを備え、マイクは利用者700からの音声命令を受信し、映像表示装置100は該音声命令を認識し、所定の命令を認識した場合は終了コマンドが有ると判断する映像表示装置100を構成することが可能である。終了コマンドがある場合には、映像表示装置100はフローを終了する。
【0076】
終了コマンドがない場合、映像表示装置100は所定時間経過するまで所定時間経過したかの判断を繰り返す(S110)。換言すれば、所定時間経過するまで待機する。所定時間経過後、映像表示装置100はセンサ情報の取得(S105)からフローを繰り返す。これにより、所定の時間間隔で、センサ情報に基づく相対ずれ量の認識による補正座標系の決定を繰り返すことができ、映像表示装置100が移動し続ける場合においても、継続して座標系の補正を行うことができ、継続して映像表示装置100の移動に略影響されない映像表示が可能となる。
【0077】
図7は、本実施例のコンテンツ表示に係る別のフローチャートの一例を示した図である。図6との差分について説明する。映像表示装置100は、S110において所定時間経過するまで所定時間経過したかの判断を繰り返した後、所定回数経過したかの判断を行う(S111)。具体的には例えば、コントローラー107はループカウンターを備えており、判断の度にループカウンターを所定の値だけ増加させるとともに、ループカウンターが所定の値を超過しているか否かを判断する。
【0078】
本実施例の別の観点では、映像表示装置100は前回基準座標系を決定してから所定の時間経過しているか否かを判断し、所定の時間経過している場合には所定回数経過したものと見做す。映像表示装置100は所定回数経過したと判断した場合にはカメラ画像の取得(S101)から繰り返し、所定回数経過したと判断しない場合にはセンサ情報の取得(S105)から繰り返す。
【0079】
これにより、映像表示装置100は、所定回数ごとや所定の時間ごとにカメラ画像を利用した基準座標系の決定を行うことができ、例えばカメラ111が動かなかった場合でも、信号の経時的なドリフト等が生じることがある。このような信号ドリフトに対しても、映像重畳の位置精度を向上させることが可能となる。基準座標系の更新は、例えば1回/秒程度の頻度で行うことができる。
【0080】
図8は、本実施例に係る特徴点132の例を示す図である。図8では、物体131の一例として分電盤131Aを示している。特徴点132としては、例えば物体131の頂点151A~151Dを利用することが可能である。
【0081】
本実施例の別の観点では、特徴点132としては、例えば物体131の辺152A~152Dを利用することが可能である。本実施例の別の観点では、特徴点132としては、物体131の中心153若しくは物体131の重心を利用することが可能である。本実施例の別の観点では、特徴点132としては、物体131の内部にある物体154の所定の位置を利用することが可能である。例えば、物体154の頂点154Aや物体154の辺154Bなどを利用することが可能である。
【0082】
本実施例の別の観点では、特徴点132としては、物体131に記載されている文字列155の所定の位置155Aを利用することが可能である。所定の位置155Aとしては、例えば文字列155の所定の文字数目の文字のうち、一番上の箇所、一番下の箇所、一番右の箇所、一番左の箇所などを利用することが可能である。
【0083】
本実施例の別の観点では、特徴点132としては、所定の記号156を利用することが可能である。所定の記号は予め決まった記号でもよいし、未知の記号でもよい。記号156は1次元コードや2次元コードなどでもよい。特徴点132としては、物体131が予め備えている物体131の構成物でもよいし、物体131に貼り付けられた物体でもよい。
【0084】
以上のように特徴点は予め定義しておくことができ、カメラ111が撮像した撮像画像内から、特徴点位置認識部103が特徴点の色(例えば色相、明度、および彩度)や形状に基づいて公知の手法により抽出することができる。
【0085】
図9は、本実施例に係る映像表示処理部105による表示コンテンツの決定方法の一例を示す図である。図9では説明のために、利用者700から見た現実空間と仮想空間を合わせて表記している。物体131は現実空間に位置する物体である。座標処理部104は撮像画像内にx’軸136及びy’軸137を第一の補正座標系として決定し、映像表示部106が表示する映像内における第二の補正座標系に換算する。
【0086】
いま、理解を助けるための具体的な例として、物体131は現実空間にある物体例えば分電盤などである。この例では、カメラ111の視野は物体131を認識できる程度あればよい。この例では、物体131の右側にコンテンツ162、例えば分電盤の操作マニュアルを表示したい場合を説明する。
【0087】
映像表示処理部105は、コントローラー107から受領した座標系情報を基に、第二の補正座標系を基準として表示するコンテンツの位置を決定する。具体的には、映像表示装置100は例えば以下のようにして表示コンテンツの位置を決定する。
【0088】
映像表示処理部105は仮想空間におけるコンテンツを予め図示しない仮想空間記憶部に格納する。仮想空間記憶部としては例えばRAM115を利用することが可能である。仮想空間記憶部に記憶された仮想空間161には複数のコンテンツの画像が、それぞれ仮想空間161内の所定の位置に位置決めされて収納されている。
【0089】
すなわち、仮想空間に関しては、物体131に対してどの場所にどのコンテンツを表示するかのマップを持っている。具体的には、この例では物体131と仮想空間161の相対的位置関係があらかじめ定められており、コンテンツ162が物体131の右側に位置するように定められている。コンテンツの位置は、例えば第二の座標系に従った座標で示すことができる。仮想空間161のサイズは任意であり大きさに制限はない。なお、現実空間に関してはマップを持っておらず、カメラ画像を基に第一の基準座標系が生成できればよい。
【0090】
図9の例では、仮想空間161に3つのコンテンツ162A~162Cが左右方向に位置をずらして収納されている。仮想空間161の保存形式は、例えば、ビットマップイメージなどの画像ファイルである。一般的な例では映像表示部106が表示できる画角が小さいので、ここで、映像表示装置100で表示可能な領域は仮想空間161のうち、表示領域163に位置するコンテンツだけであり、その表示領域163の位置は映像表示処理部105により決定される。図9の例では、表示領域163はコンテンツ162Aの一部に重なっており、映像表示装置100は表示領域163内のコンテンツ162Aの一部を表示することができる。
【0091】
表示領域163の位置は、例えば頭の動きに連動して第二の座標系の座標で定められる。このようにカメラの動きに合わせて、表示領域を仮想空間の中から切り出して映像を表示する。頭部の方向を変えることで、視線方向に配置されたコンテンツを見る手法については、例えば特許文献1等に記載の公知技術を採用してよい。
【0092】
すでに説明したように、本実施例では第二の基準座標系自体の補正を行う方式を示したが、第二の基準座標系における表示領域163の座標やコンテンツの座標を補正しても同様の効果がある。この場合には、第二の基準座標系を補正する場合とシフト量は同じで方向を逆向きにシフトさせるように、コンテンツ等の座標を補正すればよい。
【0093】
座標処理部104は撮像画像内にx’軸136及びy’軸137を第一の補正座標系として決定した後、仮想空間161内において、x’軸136及びy’軸137が如何なる位置及び如何なる方向に該当するか計算し、仮想空間161内における第二の補正座標系として座標系情報をコントローラー107に送信する。即ち座標系情報は、例えば、仮想空間161若しくは表示領域163のうち少なくとも一方が第二の補正座標系の如何なる位置及び如何なる方向に該当するかを表す。
【0094】
映像表示処理部105はコントローラー107から仮想空間161内における第二の補正座標系に関する座標系情報を受領し、該第二の補正座標系において所定の位置に表示領域163を設定する。
【0095】
映像表示処理部105は、表示領域163内にある情報を表示コンテンツとしてコントローラー107に送信する。第二の補正座標系は現実空間では略移動しない座標系であるから、映像表示装置100が表示するコンテンツは、映像表示装置100の移動に略影響されない。すなわちコンテンツがあたかも現実空間に貼りついているかのように利用者700が知覚する、映像表示が可能である。また、事前にコンテンツを仮想空間記憶部に記憶させておくため、映像表示処理部105が表示コンテンツを決定するたびに仮想空間の一部若しくは全体の描画が不要となり、表示コンテンツの決定の速度を速める、つまり高速化を図ることが可能である。
【0096】
現実空間に重畳させてコンテンツを視認する透過型ディスプレイでは、以上のようにして利用者が物体を視認する際に、表示コンテンツを同時に表示することができる。以上の説明では、基準座標系、補正座標系とも撮影画像内の物体上に規定されるので、基本的に二次元座標系でよい。仮想空間の座標系も同様である。
【0097】
図10は、本実施例に係る映像表示処理部105による表示コンテンツの決定方法の別の一例を示す図である。図10では説明のために、利用者700から見た現実空間と仮想空間を合わせて表記している。映像表示処理部105は、映像表示装置が表示するコンテンツ171の補正座標系における座標に関する情報を事前に備えている。例えば、映像表示処理部105は、分電盤の右端から5度の位置に操作マニュアルというコンテンツを表示するといった内容の情報を備えている。この情報は第二の補正座標系の座標として示すことができる。映像表示処理部105は、コンテンツ171の少なくとも一部が表示領域163に重なっていることを認識した場合、表示コンテンツとしてコンテンツ171を描画し、該表示コンテンツをコントローラー107に送信する。
【0098】
第二の補正座標系は現実空間では略移動しない座標系であるから、映像表示装置100は、映像表示装置100の移動に略影響されない、すなわちコンテンツがあたかも現実空間に貼りついているかのように利用者700が知覚する、映像表示が可能である。例えば、補正座標系が分電盤に貼りついている場合、補正座標系における座標を指定することで、分電盤に貼りついたようにコンテンツを表示できる。また、仮想空間全体の情報を仮想空間記憶部に記憶しなくてよいため、記憶部の使用量削減及び低コスト化を実現可能である。
【0099】
図11は本実施例に係る映像表示装置100が表示する表示コンテンツの位置の例を示す図である。表示コンテンツの表示位置は、以下の方法で物体との位置関係を第一の補正座標系で定め、座標変換情報で第二の補正座標系の座標に変換してあらかじめ決めておくことができる。仮想空間161のコンテンツ162の位置と表示領域163の位置を第二の補正座標系で定めておけば、重なった部分が表示される。
【0100】
アイポイント180は、映像表示装置100を利用する利用者700の目の位置を示す。また、利用者700が正面を向き正面を見た時に利用者が視認する物体131上の点を中心点181とし、物体131の端を端182とする。
【0101】
映像表示装置100は、例えば表示コンテンツ184が物体131と重ならないように表示する。具体的には、表示コンテンツ184の端183が、物体の端182に対して、中心点181と反対側となるように表示コンテンツ184を表示する。これにより、表示コンテンツ184により利用者700が物体131を認識しにくくなることを防ぐことができ、物体131の視認性を向上させることが可能である。本実施例の別の観点では、中心点181は物体131の中心とすることも可能である。
【0102】
本実施例の別の観点では、アイポイント180と中心点181を結ぶ線分と、アイポイント180と表示コンテンツの端183を結ぶ線分とがなす角度θが所定の角度以上となるように表示コンテンツを表示する。例えば、映像表示装置100は、角度θが2.5度以上となるように表示コンテンツを表示する。これにより利用者700が正面を見ている場合に映像表示装置100は弁別視野の範囲を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を向上させることができる。
【0103】
本実施例の別の観点では、映像表示装置100は角度θが15度以上となるように表示コンテンツを表示する。これにより映像表示装置100は有効視野を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を更に向上させることができる。
【0104】
本実施例の別の観点では、映像表示装置100は角度θが30度以上となるように表示コンテンツを表示する。これにより映像表示装置100は安定注視野を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を更に向上させることができる。
【0105】
本実施例の別の観点では、映像表示装置100は角度θが50度以上となるように表示コンテンツを表示する。これにより映像表示装置100は誘導視野を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を更に向上させることができる。
【0106】
本実施例によれば、撮像部101の撮像画像を基にした基準座標系の決定及びセンサ部102からのセンシング情報を基にした補正座標系の決定を行い、該補正座標系に基づき表示コンテンツの決定を行うため、位置精度の高い映像表示が可能な映像表示装置100を提供可能である。また、高速な特徴点の位置や相対ずれ量の認識、及び基準座標系や補正座標系の決定、表示コンテンツの決定が可能であるため、映像表示装置100の動きに対して遅延の少ない重畳映像を表示可能な映像表示装置100を提供可能である。
【実施例2】
【0107】
実施例2では、時間変化と共に基準座標系を決定する際の特徴点が変更可能な構成とした。なお、実施例2において、前述した実施例との相違点を主に説明し、前述した実施例と同じ構成には同じ符号を付し、それらの説明は省略する。
【0108】
図12は、本実施例に係る特徴点と基準座標系の一例を示した図である。
【0109】
図13は、本実施例のコンテンツ表示に係るフローチャートの一例を示した図である。以下、図7と異なる部分を主に説明する。
【0110】
図13に示したフローにおいて、S111で所定回数経過したことが判断された場合は特徴点の位置の認識(S202)及び基準座標系の決定(S203)を繰り返し行うが、異なる時刻において特徴点の位置の認識(S202)及び基準座標系の決定(S203)を行う時刻を時刻T1、時刻T2、及び時刻T3とする。ここで時刻T2は時刻T1より後の時刻であり、時刻T3は時刻T2より後の時刻である。
【0111】
なお、特徴点の位置の認識(S202)と基準座標系の決定(S203)が行われる時刻には当然時間差があるが、本実施例では特徴点の位置の認識(S202)及び基準座標系の決定(S203)の時間差には特に言及せず、両者のステップを実行する代表的な時刻として時刻T1等と呼ぶこととする。
【0112】
図12(a)に示すように、時刻T1のS202において、特徴点位置認識部103は特徴点200の位置を認識する。また時刻T1のS203において、座標処理部104は特徴点200の位置を基に基準座標系のx軸202A及びy軸203Aを決定する。
【0113】
時刻T2のS202において、特徴点位置認識部103は特徴点200及び特徴点201の位置を認識し、特徴点200及び特徴点200とは異なる特徴点201の位置の認識結果をコントローラー107に送信する。なお本例では、2つの特徴点を認識するが、3つ以上としてもよい。
【0114】
図12(b)に示すように、時刻T2のS203において、コントローラーは特徴点200及び特徴点201の位置の認識結果を座標処理部104に送信する。座標処理部104は特徴点200及び特徴点201の位置の差異204を検出し、時刻T1において決定した基準座標系のx軸202A及びy軸203A、若しくは時刻T2の直前に座標処理部104が決定した補正座標系のx’軸及びy’軸と、特徴点201を基準とした基準座標系のx軸202B及びy軸203Bが略一致するように、特徴点201を基準として基準座標系のx軸202B及びy軸203Bを決定する。
【0115】
図12(c)に示すように、時刻T3のS202において、特徴点位置認識部103は特徴点201の位置を認識する。また時刻T3のS203において、座標処理部104は特徴点201の位置を基に基準座標系のx軸202B及びy軸203Bを決定する。
【0116】
本実施例によれば、映像表示装置100は基準座標系を決定するための特徴点を変更することができる。これにより、映像表示装置100が移動するにつれて、撮像部101が撮像する画像において特徴点が画像の範囲外に出てしまう場合においても、撮像部101が撮像する画像に写っている別の特徴点を利用して基準座標系を決定することができるようになる。従って、映像表示装置100が大きく移動する場合においても、位置精度の高い映像表示が可能な映像表示装置100を提供可能である。
【実施例3】
【0117】
実施例3では、利用者700がコマンドで特徴点を示すことが可能な構成とした。なお、実施例3において、前述した実施例との相違点を主に説明し、前述した実施例と同じ構成には同じ符号を付し、それらの説明は省略する。
【0118】
図14は、本実施例に係る映像表示装置100の機能ブロックの一例を示す図である。映像表示装置100は、入力部301と、コマンド認識部302と、を備える。
【0119】
図15は、本実施例に係る映像表示装置100の一例を示す図である。映像表示装置100は、入力部301としてマイク310を備える。
【0120】
図16は、本実施例の基準座標系の決定に至るフローチャートの一例を示した図である。
【0121】
はじめに、映像表示装置100は、マーカーを表示する(S301)。コントローラー107は、映像表示処理部105にコマンドを送信する。映像表示処理部105はコマンドに従い、表示コンテンツにマーカーを描画し、該表示コンテンツをコントローラー107に送信する。
【0122】
図17は、本実施例に係る現実空間にマーカーを重畳表示する様子の一例を示す図である。映像表示装置100が表示する映像領域320の一部にマーカー321を表示する。図16ではマーカーとして「+」の記号を利用する例とした。
【0123】
次に、映像表示装置100は特徴点を指定するコマンドの有無を判定する(S302)。入力部301は入力部に入力された情報をコントローラー107に送信する。コントローラーは入力部から入力された情報をコマンド認識部302に送信する。コマンド認識部302はコントローラーから受信した情報に所定のコマンドが存在するか否かを検出する。コマンド認識部302は検出結果をコントローラー107に送信する。
【0124】
入力部301としてマイク310を備える映像表示装置の例では、コマンド認識部302は、例えばマイクがセンシングした音の情報に、利用者700が発した所定の文字列、例えば「特徴点セット」が含まれているか検出する。所定の文字列が含まれている場合、コマンド認識部302は特徴点を指定するコマンド有りとして認識結果をコントローラー107に送信する。
【0125】
コントローラー107は、コマンド認識部302から、特徴点を指定するコマンド有りとの認識結果を受領するまで繰り返す。
【0126】
次に、映像表示装置100は、マーカーを非表示にする(S303)。コントローラー107は、映像表示処理部105にコマンドを送信する。映像表示処理部105はコマンドに従い、表示コンテンツにマーカーを描画しないように動作を変更し、該表示コンテンツをコントローラー107に送信する。
【0127】
次に、映像表示装置100はカメラ画像を取得する(S101)。
【0128】
次に、映像表示装置100は特徴点の位置の認識を行う(S304)。コントローラー107はマーカー321の所定の位置322を特徴点位置認識部103に送信し、特徴点位置認識部103はカメラ画像のうちマーカーの位置322を特徴点とする。そして該特徴点のカメラ画像内における位置を認識する。
【0129】
上記ではマーカーの位置322を特徴点としたが、本発明はこれに限られない。例えばマーカーの近傍を特徴点とすることも可能である。例えば、カメラ画像のうちマーカーの位置を中心として所定の画素範囲の中に存在する物体を特徴点とすることも可能である。これにより、マーカーの位置に物体がない場合でも特徴点を設定することが可能となる。
【0130】
本発明の別の観点では、例えばマーカーが示す場所若しくはその近傍を特徴点とすることも可能である。例えばマーカーとして矢印を表示し、矢印の先端若しくはその近傍を特徴点とすることも可能である。これにより。マーカーが物体に重なることを避けることができ、視認性の向上を図ることが可能となる。
【0131】
上記のフローが本実施例に係る映像表示装置100の特徴点の位置の認識フローであり、特徴点の位置の認識(S304)以降は図7等のS104の実行以降を実行する。
【0132】
本実施例によれば、利用者700がコマンドで特徴点を示すことが可能であり、利用者700の意図に合わせた基準座標系の決定が可能となる。また、映像表示装置100が特徴点を決定しづらい場合においても、利用者の意図により特徴点を指定することができ、安定して位置精度の高い映像表示が可能な映像表示装置100を提供可能である。
【実施例4】
【0133】
実施例4は、作業員が組み立てや製造、検査、保守、点検などを行っている工場、現場の遠隔作業支援システム450に活用した一実施例である。
【0134】
図18は本実施例に係る映像表示装置100を活用した遠隔作業支援システム450の例を示す一構成図である。
【0135】
作業員701は、本実施例の映像表示装置100を携帯し、工場ラインの製品組み立てや検査等を行っている。映像表示装置100は、前述のような空間上にバーチャルイメージを投影し、作業手順書や、図面、チェックリストなど作業支援のためのコンテンツを表示している。本発明の実施例では、作業員701の手作業の邪魔にならない視界上の範囲表示も空間位置座標を決めることで、常に映像を表示することが可能で使い勝手が大幅に向上する技術を搭載しても良い。例えば視線方向中心から水平±10°~±75°、垂直-60°~-90°は表示しないように、自動、もしくは作業員701側若しくは管理者420側で設定が可能で、手元、足元にコンテンツが表示されることなく、安全に手元、足元の視野確保と確認が可能で、動き回る点検作業や組立作業においても安心、安全に作業を進めることができる。
【0136】
映像表示装置100は図示しない通信手段を備えており、Wi-Fi(商標)、LTE(商標)、5G、6G、有線、光などローカル、パブリック無線などのネットワーク401を介して、遠隔地にいる管理者420の遠隔管理装置410と接続され、情報共有を行っている。作業員701はエッジ端末であるタブレット、スマートフォン、HMD、PC(Personal Computer)などの映像表示装置100を所有し、ネットワーク401を通じてデータの授受を実施する。ネットワーク401を経て、作業者周辺のカメラ402の映像、センサ403のデータ、装置404の状態等のセンシングデータなどをエッジサーバ407や管理者420に伝送する。エッジサーバ407や管理者420は各種情報をもとに状況認識、判断、予測(特に危険、異常、異常行動などの予知)を実施する。また、このようにして異常状態を認識した時などに、エッジサーバ407や管理者420は映像表示装置100などの表示映像や音声、指示信号を通して作業指示や注意喚起を作業員701に伝える。
【0137】
また、作業員701が図面や作業工程での疑問を問い合わせ、作業工程のチェックミスなどを自動的に判別する図示しない作業管理システムを組み込む場合、作業員701もしくは管理者420は、リアルタイムに現場の状況に対応した表示コンテンツをエッジ端末などの映像表示装置100にて表示することが可能である。さらには、作業指示、文字入力、手書き入力などの作業指示をサポートするコンテンツも管理者420から表示し、作業員701の疑問、質問、悩みを表示コンテンツにより解消することができる。このとき、表示コンテンツは上述の作業員701の視線の絶対座標位置もしくは、コンテンツにより作業員701の視線の邪魔にならないような絶対座標もしくは相対座標配置で表示され、この場合は作業手元や歩行の邪魔にならない位置へ表示されるため、より快適な遠隔作業支援システム450を提供できる。
【0138】
このように現実空間に仮想空間の映像を重畳することで利用者に情報を提示するヘッドマウントディスプレイなどの使い勝手の良い映像表示装置100及び遠隔作業支援システム450が提供できる。工場などでは、作業工程などのコンテンツを見ながら作業を行うケースがあるが、作業対象の近くにディスプレイや図面や作業工程表などの紙媒体を配置することが難しい場合、あるいは高所などの両手を必要とする作業がある。そのようなとき、ヘッドマウントディスプレイなどの映像表示装置100と上述の遠隔作業支援システム450を使用すれば、作業員701は映像表示装置100に表示される作業指示などを参照しながら作業を行うことができ、上述の使い勝手に優れた遠隔作業支援システム450を活用することで、安心安全かつ作業効率を改善することができる。
【0139】
管理者420は作業員701と同一のネットワーク401の内部に位置していてもかまわないし、インターネットを介した別の場所に位置していてもかまわない。また、上述のエッジサーバ407のうち、少なくとも一部はクラウドサーバ408であってもよい。遠隔作業支援システム450は、エッジサーバ407が備えていてもよいし、クラウドサーバ408は備えていてもよい。
【0140】
図19は、本実施例の遠隔作業支援システム450に組み込まれている、映像伝送システムの概略構成図例である。例えば、作業員701の作業環境を観察するカメラ402に 4K, 30fps性能のカメラを活用する。カメラからPC431への情報伝送は USB 3.0が利用される。またPC431からWi-Fi6ルータ432 (IEEE 802.11ax, 9.6Gbps) を活用し映像情報を伝送する。また、Wi-Fi6ネットワーク433を介して遠隔側に位置する管理者420に映像情報、音声、センサ情報などを双方向または片方向重点的に通信する機能を有する。遠隔管理側に設置されたWi-Fiルータ434を活用しPC435へ接続する。例えば、Wi-Fi ルータ434からPC435へへの接続は1000BASE-T (IEEE 802.3ab)とし、情報を授受する構成とする。これにより、映像情報、音声情報を200ms以内の低遅延によりスムーズに通信可能となる。
【0141】
以上のように高速低遅延で4K映像情報と音声情報を、最低限2本以上を送信可能な遠隔作業支援システム450を図19の情報伝送システムで実現し、かつ同時に上述の発明による映像コンテンツの空間表示を100ms以内で実現できる。このため、トータルの遅延量は300ms以下となり、人間が遅延を感じる遅延時間300ms以下を実現できる。これにより、低遅延300ms以下の4K映像伝送システムを構築でき、使い勝手が向上した遠隔作業支援システム450を実現できる。
【0142】
図20は遠隔作業支援システム450の一例を示す図である。作業員701は映像表示装置100を携行している。映像表示装置100は図示しないカメラを備えている。カメラは作業員701の前方を撮影しており、その撮影画像はネットワーク401を介して管理者420の遠隔管理装置410に伝送される。遠隔管理装置410はカメラ映像を表示し、管理者420はその表示映像460を視認する。
【0143】
カメラが撮影した画像には少なくとも物体131が撮影されている。表示映像460は例えばタッチ操作若しくは手書き入力が可能なタブレットなどに表示されている。管理者420は表示画像を認識し、作業員701への指示をタッチ操作若しくは手書き入力において入力する。例えば作業員701が作業を行うべき所定の位置を丸印や矢印などで示すことで入力する。入力された指示はネットワーク401を介して映像表示装置100に伝送され、映像表示装置100はその指示を表示する。
【0144】
カメラが撮影した映像は、作業員701の動きなどにより動的に変化していることがある。その場合には、遠隔作業支援システム450は図示しない指示位置認識部を備えており、指示位置認識部はカメラが撮影した映像に写っている物体131を認識すると共に、利用者が入力した指示の位置と物体131の相対位置を認識し、映像表示装置100が表示すべき指示の位置を物体131との相対位置としてネットワーク401を介して伝送する。映像表示装置100は物体131との相対位置を基に、指示を表示する。映像表示装置100が表示する映像の表示処理は映像表示処理部105が行う。即ち、本実施例では撮像部101の撮像画像を基にした基準座標系の決定及びセンサ部102からのセンシング情報を基にした補正座標系の決定を行い、該補正座標系に基づき表示コンテンツの決定を行うため、高い位置精度で、映像表示装置100は指示を表示可能である。
【0145】
なお、映像表示装置100が表示する指示の位置は、物体131の上に重なるように重畳表示されてもよいし、物体131と重ならないように表示してもよい。例えば、図17で示したように映像表示装置100は、表示コンテンツ184が物体131と重ならないように表示してもよい。
【0146】
上記では作業員701が作業を行うべき所定の位置を丸印や矢印などで示すことで入力としたが、本発明はこれに限られない。例えば、遠隔管理装置410はマイク及び音声認識部を備えており、管理者420は音声により作業員701への指示を発し、マイクが管理者420の音声を収集し、収集した音声を音声認識部が認識をし、認識した指示を入力としてもよい。
【0147】
本実施例の別の観点では、管理者420は前述のように音声により指示を入力すると共に、表示映像460が表示されているタブレットなどで指示を表示する位置に関しても入力し、映像表示装置100は表示する位置に指示を表示するように構成してもよい。
【0148】
以上の説明では管理者420は音声により指示を入力するとしたが、本発明はこれに限られない。例えば、エッジサーバ407若しくはクラウドサーバ408若しくは遠隔管理装置410若しくは遠隔作業支援システム450が備えるデータベースから、所定の指示を取得し、取得した指示を入力としてもよい。
【実施例5】
【0149】
上記実施例では、表示領域163の位置を利用者700の頭部の方向に合わせて決めることを想定した。この場合、仮想空間は現実空間に固定される。ただし、特許文献1記載のように、表示領域163の位置を利用者700の頭部と腰部の動きの差分に基づいて決めることもできる。この場合利用者700から見ると、仮想空間は常に腰部の方向に合わせて移動する。
【0150】
上記実施例によれば、少ない処理量で利用者の頭部の動きに対する映像追従の遅延が少なく、現実空間と仮想空間の位置精度の高い重畳が可能となるため、消費エネルギーが少なく、炭素排出量を減らし、地球温暖化を防止、持続可能な社会の実現に寄与することができる。
【0151】
なお、本発明は前述した実施例に限定されるものではなく、発明の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を有するものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
【0152】
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
【0153】
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDメモリーカード、DVD等の記録媒体に格納することができる。
【0154】
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
【符号の説明】
【0155】
100:映像表示装置、101:撮像部、102:センサ部、103:特徴点位置認識部、104:座標処理部、105:映像表示処理部、106:映像表示部、107:コントローラー、111:カメラ、112:センサ、113:ディスプレイ、114:CPU、115:RAM、116:記憶媒体、121:ジャイロセンサ、122:加速度センサ、131:物体、131A:分電盤、132:特徴点、133:x軸、134:y軸、135:相対ずれ量、136:x’軸、137:y’軸、151:頂点、152:辺、153:中心、154:物体、154A:頂点、154B:辺、155:文字列、155A:所定の位置、156:記号、161:仮想空間、162:コンテンツ、163:表示領域、171:コンテンツ、180:アイポイント、181:中心点、182:端、183:端、184:表示コンテンツ、200:特徴点、201:特徴点、202:x軸、203:y軸、204:位置の差異、301:入力部、302:コマンド認識部、310:マイク、320:映像領域、321:マーカー、322:位置、401:ネットワーク、402:カメラ、403:センサ、404:装置、407:エッジサーバ、408:クラウドサーバ、410:遠隔管理装置、420:管理者、450:遠隔作業支援システム、460:表示映像、700:利用者、701:作業員
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20