(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024174424
(43)【公開日】2024-12-17
(54)【発明の名称】視界調整システム、視界調整装置および視界調整方法
(51)【国際特許分類】
G06F 3/01 20060101AFI20241210BHJP
【FI】
G06F3/01 510
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2023092237
(22)【出願日】2023-06-05
(71)【出願人】
【識別番号】000233491
【氏名又は名称】株式会社日立システムズ
(74)【代理人】
【識別番号】110000198
【氏名又は名称】弁理士法人湘洋特許事務所
(72)【発明者】
【氏名】深澤 祐介
(72)【発明者】
【氏名】仲村柄 真人
(72)【発明者】
【氏名】壷内 将之
(72)【発明者】
【氏名】小原 清弘
(72)【発明者】
【氏名】菊地 克朗
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA64
5E555BA02
5E555BA08
5E555BB02
5E555BB08
5E555BC04
5E555BE17
5E555CA42
5E555CB48
5E555CB66
5E555CC04
5E555DA08
5E555DB18
5E555DB44
5E555DC09
5E555DC31
5E555DD01
5E555EA22
5E555FA00
(57)【要約】
【課題】利用者の視点と異なる位置から適切に撮像する技術を提供する。
【解決手段】
視界調整システムであって、利用者の視点と異なる位置から撮像して画像を取得する画像取得部と、画像に含まれる物体を検出し、所定の対象物か否か判定する対象物特定部と、所定の対象物が画像内に含まれるか否かを対象物ごとに利用者に知らせる通知出力指示部と、を備えることを特徴とする。
【選択図】
図1
【特許請求の範囲】
【請求項1】
利用者の視点と異なる位置から撮像して画像を取得する画像取得部と、
前記画像に含まれる物体を検出し、所定の対象物か否か判定する対象物特定部と、
所定の前記対象物が前記画像内に含まれるか否かを前記対象物ごとに前記利用者に知らせる通知出力指示部と、
を備えることを特徴とする視界調整システム。
【請求項2】
請求項1に記載の視界調整システムであって、
前記画像内に含まれない前記対象物の検出状態に応じて、前記対象物が前記画像内に含まれるよう前記利用者の動作を誘導する誘導部、
を備えることを特徴とする視界調整システム。
【請求項3】
請求項2に記載の視界調整システムであって、
前記対象物には、少なくとも、人間の手または所定の図形のいずれかが含まれる、
ことを特徴とする視界調整システム。
【請求項4】
請求項2に記載の視界調整システムであって、
前記対象物には、少なくとも、所定の図形が含まれ、
前記誘導部は、所定の前記図形が前記画像で未検出の場合には、該図形を示して前記利用者の動作を誘導する、
ことを特徴とする視界調整システム。
【請求項5】
請求項2に記載の視界調整システムであって、
前記対象物には、少なくとも、人間の手および所定の図形が含まれ、
前記誘導部は、所定の前記図形が前記画像で未検出であって、前記人間の手を検出済みの場合には、前記利用者の腕を移動させるよう誘導する、
ことを特徴とする視界調整システム。
【請求項6】
請求項5に記載の視界調整システムであって、
前記誘導部は、前記利用者の腕の移動を検出した場合であって、所定の前記図形が前記画像で未検出のままである場合には、前記利用者を後方へ移動するよう誘導する、
ことを特徴とする視界調整システム。
【請求項7】
請求項2に記載の視界調整システムであって、
前記対象物には、少なくとも、人間の手および所定の図形が含まれ、
前記誘導部は、前記人間の手および前記図形を検出済みの場合であって、前記図形が前記画像からフレームアウトした場合には、前記画像取得部の位置を移動させるよう誘導する、
ことを特徴とする視界調整システム。
【請求項8】
請求項2に記載の視界調整システムであって、
前記対象物には、少なくとも、人間の手および所定の図形が含まれ、
前記誘導部は、前記人間の手および前記図形を検出済みの場合であって、前記図形が前記人間の手により遮られた場合には、前記利用者の腕を所定の方向に移動させるよう誘導する、
ことを特徴とする視界調整システム。
【請求項9】
請求項8に記載の視界調整システムであって、
前記誘導部が前記利用者の腕を移動させるよう誘導する方向は、前記利用者の体の左右中心方向である、
ことを特徴とする視界調整システム。
【請求項10】
利用者の視点と異なる位置から撮像した画像を受け付ける画像受付部と、
前記画像に含まれる物体を検出し、所定の対象物か否か判定する対象物特定部と、
所定の前記対象物が前記画像内に含まれるか否かを前記対象物ごとに前記利用者に知らせる情報を前記利用者が装着する装置に出力させる通知出力指示部と、
を備えることを特徴とする視界調整装置。
【請求項11】
情報処理装置を用いる視界調整方法であって、
前記情報処理装置は、
利用者の視点と異なる位置から撮像して画像を取得する画像取得ステップと、
前記画像に含まれる物体を検出し、所定の対象物か否か判定する対象物特定ステップと、
所定の前記対象物が前記画像内に含まれるか否かを前記対象物ごとに前記利用者に知らせる通知出力指示ステップと、
を実施することを特徴とする視界調整方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、視界調整システム、視界調整装置および視界調整方法に関するものである。
【背景技術】
【0002】
特許文献1には、「画像信号が入力され、該画像信号に基づく画像から表示装置の表示領域に応じた画像範囲を有する表示画像を生成する画像処理装置であって、前記画像信号に基づく画像における関心物体の位置である関心位置を算出する関心位置算出部と、前記関心位置と前記画像範囲とに基づいて、前記関心位置が前記画像範囲から外れる確度を表すフレームアウト確度を算出するフレームアウト確度算出部と、前記フレームアウト確度に基づいて、前記画像信号に基づく画像に施す改変処理の処理変数を決定する改変変数決定部と、決定した前記処理変数に基づいて前記画像信号に基づく画像に前記改変処理を施して前記表示画像の信号を生成する画像変更部と、を具備することを特徴とする画像処理装置」と記載されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記技術では、関心物体のフレームアウトを防ぐように誘導するために、撮影した画像を加工することが可能であるが、撮像装置が利用者の視点と略同一であることを前提とするものである。また、撮像した画像を利用者が確認しながら撮像装置の視界を調整する前提である。これに対し、利用者の視点と異なる位置から撮像している画像を確認することなく適切に対象物を撮像することは難しい。
【0005】
本発明の目的は、利用者の視点と異なる位置から適切に撮像する技術を提供することにある。
【課題を解決するための手段】
【0006】
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明に係る視界調整システムは、利用者の視点と異なる位置から撮像して画像を取得する画像取得部と、前記画像に含まれる物体を検出し、所定の対象物か否か判定する対象物特定部と、所定の前記対象物が前記画像内に含まれるか否かを前記対象物ごとに前記利用者に知らせる通知出力指示部と、を備える。
【0007】
また、上記の視界調整システムにおいては、前記画像内に含まれない前記対象物の検出状態に応じて、前記対象物が前記画像内に含まれるよう前記利用者の動作を誘導する誘導部、を備えるものであってもよい。
【0008】
また、上記の視界調整システムにおいては、前記対象物には、少なくとも、人間の手または所定の図形のいずれかが含まれるものであってもよい。
【0009】
また、上記の視界調整システムにおいては、前記対象物には、少なくとも、所定の図形が含まれ、前記誘導部は、所定の前記図形が前記画像で未検出の場合には、該図形を示して前記利用者の動作を誘導するものであってもよい。
【0010】
また、上記の視界調整システムにおいては、前記対象物には、少なくとも、人間の手および所定の図形が含まれ、前記誘導部は、所定の前記図形が前記画像で未検出であって、前記人間の手を検出済みの場合には、前記利用者の腕を移動させるよう誘導するものであってもよい。
【0011】
また、上記の視界調整システムにおいては、前記誘導部は、前記利用者の腕の移動を検出した場合であって、所定の前記図形が前記画像で未検出のままである場合には、前記利用者を後方へ移動するよう誘導するものであってもよい。
【0012】
また、上記の視界調整システムにおいては、前記対象物には、少なくとも、人間の手および所定の図形が含まれ、前記誘導部は、前記人間の手および前記図形を検出済みの場合であって、前記図形が前記画像からフレームアウトした場合には、前記画像取得部の位置を移動させるよう誘導するものであってもよい。
【0013】
また、上記の視界調整システムにおいては、前記対象物には、少なくとも、人間の手および所定の図形が含まれ、前記誘導部は、前記人間の手および前記図形を検出済みの場合であって、前記図形が前記人間の手により遮られた場合には、前記利用者の腕を所定の方向に移動させるよう誘導するものであってもよい。
【0014】
また、上記の視界調整システムにおいては、前記誘導部が前記利用者の腕を移動させるよう誘導する方向は、前記利用者の体の左右中心方向であってもよい。
【0015】
また、本願に係る別の実施態様に係る視界調整装置は、利用者の視点と異なる位置から撮像した画像を受け付ける画像受付部と、前記画像に含まれる物体を検出し、所定の対象物か否か判定する対象物特定部と、所定の前記対象物が前記画像内に含まれるか否かを前記対象物ごとに前記利用者に知らせる情報を前記利用者が装着する装置に出力させる通知出力指示部と、を備える。
【0016】
また、本願に係る別の実施態様に係る視界調整方法は、情報処理装置を用いる視界調整方法であって、前記情報処理装置は、利用者の視点と異なる位置から撮像して画像を取得する画像取得ステップと、前記画像に含まれる物体を検出し、所定の対象物か否か判定する対象物特定ステップと、所定の前記対象物が前記画像内に含まれるか否かを前記対象物ごとに前記利用者に知らせる通知出力指示ステップと、を実施する。
【0017】
本発明によると、利用者の視点と異なる位置から適切に撮像する技術を提供することができる。ただし、上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
【図面の簡単な説明】
【0018】
【
図1】第一の実施形態に係る視界調整システムの構成例を示す図である。
【
図2】ウェアブル端末の外観およびカメラ視界の例を示す図である。
【
図3】対象物記憶部に格納されるデータ構造の例を示す図である。
【
図4】ウェアラブル端末のハードウェア構成を示す図である。
【
図10】第二の実施形態に係る視界調整システムの構成例を示す図である。
【
図11】第二の実施形態に係る視界調整処理のフローの例を示す図である。
【発明を実施するための形態】
【0019】
以下に、本発明に係る第一の実施形態を適用した視界調整システム1の実施形態について、図面を参照して説明する。
【0020】
図1は、本発明の第一の実施形態に係る視界調整システム1の構成例を示す図である。本実施形態において想定する視界調整システム1においては、ウェアラブル端末100が含まれる。該システムにおいては、利用者10は、ウェアラブル端末100を身体(例えば眼鏡型装置、いわゆるスマートグラス等である場合には、顔)に装着した状態で操作対象物500に対して所定の操作を行う。例えば、操作対象物500のメンテナンス作業や、設置作業、利用操作等の作業を行う。操作対象物500には、様々なものが当てはまる。必ずしも操作を行う対象でなくともよく、例えば調理の場面では食材や、内装工事の場面では建築材、ゲーム実況等の動画配信者の場合にはゲーム装置の設置されている環境内のインテリア等、教育の場面では答案用紙等であってもよい。
【0021】
ウェアラブル端末100は、利用者10が身体の一部に着脱可能に取り付け可能な計算機全般を含む、いわゆるウェアラブルデバイスとも呼ばれる装置である。望ましくは、ウェアラブル端末100は、利用者に装着され、利用者の視野と同方向を撮像した画像情報を取得可能であり、利用者の知覚する音声情報を得ることができる。スマートグラスは、そのようないわゆるウェアラブルデバイスの一つであり、装着時に利用者の両手が拘束されにくいものであるため、操作性向上を狙う利用者の支援をより効率よく行うことができる。
【0022】
なお、ウェアラブル端末100は、利用者10が所有する端末であってもよいし、利用者10が属する組織から利用者に貸与される端末であってもよい。
【0023】
図2は、ウェアブル端末の外観およびカメラ視界の例を示す図である。ウェアラブル端末100は、利用者10の目400の視野410をなるべく遮らず装着できる眼鏡型装置である。また、ウェアラブル端末100の一部(例えば、右目側のつるの端部)には、利用者10の目400の視野410方向に、視野410とは異なる視点で撮像するカメラ17が設けられている。
【0024】
すなわち、カメラ17の視点は、利用者10の左右の目の視点のいずれとも異なる位置(例えば、右目側数センチメートル程度)にオフセットされているといえる。そのため、利用者10が見える視界と、カメラ17が撮像する画像の視界との間には相違があり、利用者10の視点から見えるものがカメラ17では撮像できない、あるいはその逆の事態も発生する。
【0025】
また、カメラ17が撮像した画像をリアルタイムにウェアラブル端末100単体では見ることができない。つまり、カメラ17の視界や対象物の映り込み具合を利用者10はリアルタイムには確認できない。
【0026】
ウェアラブル端末100は、記憶部110と、表示制御部120と、画像処理部150と、音声出力部160と、通信部170と、を含む。
【0027】
表示制御部120は、通知表示部121を含む。通知表示部121は、ウェアラブル端末100の装着者すなわち利用者10に対して、透過型のディスプレイを介して表示を行う。いわば、通知表示部121は、利用者向けの表示部であり、例えば視覚表示情報を眼鏡の装着者側に近いレンズ面に像を投影させることで装着者にレンズ越しで重畳させて情報を表示させる。
【0028】
記憶部110は、対象物記憶部111を含む。対象物記憶部111は、オブジェクト検出を行う対象物の情報を格納する。
【0029】
図3は、対象物記憶部のデータ構造を示す図である。対象物記憶部111には、対象物識別子111aと、対象物名称111bと、対象物代理アイコン111cと、対象物情報111dと、が含まれる。
【0030】
対象物識別子111aは、カメラ17で撮像した画像からオブジェクト検出を行う対象物を識別する情報である。対象物名称111bは、対象物の名称情報である。対象物代理アイコン111cは、対象物が検知されたか否かの結果を表示する際に用いるアイコン画像情報を特定する情報である。対象物情報111dは、オブジェクト検出を行うためのモデル情報等の情報である。例えば、対象物がAR(Augmented Reality:拡張現実)マーカーであれば、ARマーカーを検出するためのモデル情報が対象物情報111dに格納される。なお、ここで、モデルとは、いわゆる深層学習等の機械学習を行った学習済みモデルを指し、画像に対象物が含まれるか検出・識別することができる。また、対象物が人間の手であれば、手を検出するためのモデル情報が対象物情報111dに格納される。なお、対象物には、少なくとも、人間の手または所定の図形(上記のARマーカ等)のいずれかが含まれる。また、モデルは、対象物が人間の手あるいは所定の図形、あるいは所定の機器等のいずれであっても予め対象物記憶部111において対象物情報111dとして指定されたオブジェクト検出を行うことができるものであってもよい。
【0031】
図1の説明に戻る。画像処理部150には、画像取得部151と、対象物特定部152と、通知出力指示部153と、誘導部154と、が含まれる。画像取得部151は、ウェアラブル端末100により取得した外部の画像、すなわち利用者の視野方向かつ利用者の視点と異なる位置から撮像して画像を取得する。
【0032】
対象物特定部152は、画像に含まれる物体を検出し、所定の対象物か否か判定する。ここで、対象物特定部152は、対象物記憶部111に含まれる対象物を検出するようにしてもよい。対象物特定部152による検出には、画像処理による公知の物体検知の仕組み(物体の類似を判定するアルゴリズムによる解析や、機械学習を行った学習済みモデル(畳み込みニューラルネットワーク)等による各種の検知方法)を採用することができる。
【0033】
通知出力指示部153は、所定の前記対象物が前記画像内に含まれるか否かを前記対象物ごとに前記利用者に知らせる。具体的には、通知出力指示部153は、通知表示部121にて表示する画面情報を生成し、通知表示部121に受け渡す。
【0034】
誘導部154は、画像内に含まれない前記対象物の検出状態に応じて、対象物が画像内に含まれるよう利用者の動作を誘導する。例えば、誘導部154は、所定の図形が画像上で未検出の場合には、該図形を示して利用者の動作を誘導する。また、誘導部154は、所定の図形が画像上で未検出であって、人間の手を検出済みの場合には、利用者の腕を移動させるよう誘導する。また、誘導部154は、利用者の腕の移動を検出した場合であって、所定の図形が画像上で未検出のままである場合には、利用者を後方へ移動するよう誘導する。また、誘導部154は、人間の手および図形を検出済みの場合であって、図形が画像からフレームアウトした場合には、画像取得部の位置を移動させるよう誘導する。また、誘導部154は、人間の手および図形を検出済みの場合であって、図形が人間の手により遮られた場合には、利用者の腕を所定の方向に移動させるよう誘導する。なお、誘導部154が利用者の腕を移動させるよう誘導する方向は、カメラ17の視点からみた利用者の体の左右中心方向が望ましい。
【0035】
音声出力部160は、出力対象の音声情報を音声読み上げや音声の再生等により出力する、いわゆるスピーカーあるいはDAC(Digital Analog Converter)である。通信部170は、他の装置との通信を制御する。具体的には、通信部170は、例えばBluetooth(登録商標)、無線LAN(Local Area Network)、NFC(Near Field Communication)等による近距離電波通信を制御するものであることが望ましい。しかし、通信部170は、5Gネットワークあるいは4Gネットワーク等の携帯電話通信網に参加するもの、あるいはUSB(Universal Serial Bus)等の所定の有線通信を制御するものであってもよい。
【0036】
図4は、ウェアラブル端末100のハードウェア構成を示す図である。ウェアラブル端末100は、プロセッサ11と、メモリ12と、ストレージ13と、透過ディスプレイ15と、通信装置16と、カメラ17と、各装置をつなぐバスと、を少なくとも備える。また、他に、ウェアラブル端末100は、接触入力装置を備えるものであってもよい。なお、接触入力装置は、例えば眼鏡型のウェアラブルデバイスの場合には、眼鏡のつる部分への接触をクリック入力として受け付け、接触状態で摺動させる方向をスクロール入力として受け付けるものであってよいが、これに限られるものではない。
【0037】
プロセッサ11はCPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の演算装置であり、メモリ12又はストレージ13に記録されたプログラムに従って処理を実行する。ウェアラブル端末100では、メモリ12又はストレージ13上に読み出されたプログラムに従って動作するプロセッサ11により処理が行われる。画像処理部150、画像取得部151、対象物特定部152、通知出力指示部153、誘導部154は、プロセッサ11がプログラムを実行することにより各々の機能を実現する。
【0038】
メモリ12は、RAM(Random Access Memory)又はフラッシュメモリ等の記憶装置であり、プログラムやデータが一時的に読み出される記憶エリアとして機能する。ストレージ13は、書き込み及び読み出し可能な記憶装置である。記憶部110は、メモリ12又はストレージ13によりその機能が実現される。なお、記憶部110は、通信装置16を介して接続される記憶装置によってその機能が実現されてもよい。
【0039】
透過ディスプレイ15は、出力を行うためのインターフェースを提供する装置であり、ディスプレイに出力を行う。より具体的には、透過ディスプレイ15は、装着者から視認可能なようにレンズ面に画像を投影するプロジェクション装置、あるいはレンズ面に応じて設けられた半透過型のディスプレイ装置等の表示装置である。しかし、これに限定されるものではなく、例えば利用者10の網膜に結像させる光を照射可能な表示装置であってもよい。
【0040】
通信装置16は、ウェアラブル端末100を外部の装置と通信接続するためのインターフェースである。例えば、通信装置16は、Bluetooth、NFC等、あるいは無線LAN等に参加する所定の周波数帯域(例えば、2.4GHz(ギガヘルツ)あるいは5.2~5.6GHz帯)の電波を利用できるアンテナを用いて無線通信を行う。また、通信装置16は、5Gネットワークあるいは4Gネットワーク等の携帯電話通信網に参加する所定の電波を利用できるアンテナを用いて無線通信を行うものであってもよいし、あるいは有線LANや光ファイバーによる有線通信網による有線通信を行うものであってもよい。
【0041】
カメラ17は、ウェアラブル端末100を装着した利用者の視野を含む画像情報を取得する。
【0042】
なお、ウェアラブル端末100の各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、ウェアラブル端末100の各構成要素の処理は、1つのプログラムで実現されてもよいし、複数のプログラムで実現されてもよい。また、ウェアラブル端末100の画像処理部150は、ハードウェア(ASIC、GPUなど)により構築されてもよい。
【0043】
上記したウェアラブル端末100の表示制御部120は、透過ディスプレイ15によって実現される。また、音声出力部160は、図示しないスピーカー装置により実現される。また、通信部170は、通信装置16により実現される。
【0044】
以上が、ウェアラブル端末100のハードウェア構成である。
【0045】
[動作の説明]次に、本実施形態における視界調整システム1の動作を説明する。
図5は、本実施形態における視界調整処理のフローの例を示す図である。視界調整処理は、ウェアラブル端末100の電源が投入されるか、開始指示を受け付けると、開始される。
【0046】
まず、ウェアラブル端末100の画像取得部151は、カメラ17を制御して画像を取得する(ステップS101)。ここで、取得する画像は、静止画あるいは短い所定の間隔で取得した連続する静止画を含んで構成される動画(例えば、60fps)である。
【0047】
そして、対象物特定部152は、ステップS101にて取得した画像に映り込んでいる所定のオブジェクトを検出する(ステップS102)。この際、対象物特定部152は、画像処理による公知の物体検知の仕組み(物体の類似を判定するアルゴリズムによる解析や、機械学習を行った学習済みモデル(畳み込みニューラルネットワーク)等による各種の検知方法により対象物を推定する。
【0048】
そして、対象物特定部152は、オブジェクトごとに対象物か否か判定する(ステップS103)。具体的には、対象物特定部152は、対象物記憶部111に格納されている対象物を特定し、ステップS102にて検出したオブジェクトごとに対象物であるか否か判定する。
【0049】
そして、通知出力指示部153は、映り込んでいる対象物の代理アイコンを強調表示させる(ステップS104)。具体的には、通知出力指示部153は、ステップS103にて対象物と判定されたオブジェクトについて、対象物に相当するアイコンの色を検知されたことを知らせるために注意を惹くように(例えば、アイコンを緑表示する)画面情報を生成し、通知表示部121に画面情報を表示させる。オブジェクトが検出されない対象物については、通知出力指示部153は、対象物に相当するアイコンを標準色(例えば、白)表示する画面情報を生成し、通知表示部121に画面情報を表示させる。なお、アイコンで表示することに加えて、音声出力部160から所定の音声(メッセージ読み上げ音声、あるいは対象物ごとに異なるビープ音等)を出力するようにしてもよい。
【0050】
例えば、通知出力指示部153は、検出されていないオブジェクトが手であり、対象物である場合には、手を示す所定のアイコン図形を画面右上に白表示するよう画面情報を構成する。通知出力指示部153は、検出されたオブジェクトがARマーカーであり、対象物である場合には、ARマーカーを示す所定のアイコン図形を画面右上に緑表示するよう画面情報を構成する。
【0051】
そして、誘導部154は、全ての対象物が画像に映り込んでいるか否か判定する(ステップS105)。具体的には、誘導部154は、対象物記憶部111に格納されている対象物を特定し、特定された全ての対象物が対象物特定部152により映り込んでいると判定されたか否かを判定する。全ての対象物が画像に映り込んでいる場合(ステップS105にて「Yes」の場合)には、誘導部154は、視界調整処理を終了させる。
【0052】
全ての対象物が画像に映り込んでいない場合(ステップS105にて「No」の場合)には、誘導部154は、誘導処理を開始する(ステップS106)。誘導処理の具体的な内容は、後述する。
【0053】
以上が、視界調整処理である。視界調整処理によれば、撮像範囲に対象物が含まれているか否かを透過ディスプレイ15上のアイコンにより利用者10に表示することができるため、利用者の視点と異なる位置から適切に撮像することができる。
【0054】
図6は、誘導処理の出力例を示す図である。誘導処理の例として、
図6では、ARマーカーと手を検出した後に、手によりARマーカーが遮られた場合の誘導例を示す。
【0055】
手のアイコン650は、手630が映り込んでいることから、透過ディスプレイ15において緑表示されるアイコンである。ARマーカーのアイコン640は、ARマーカー620が映り込んでいることから、透過ディスプレイ15において緑表示されるアイコンである。左上図は、ARマーカー620と、手630の両方が映り込んでおり、いずれのアイコンも緑表示されている状態を示す。
【0056】
右下図は、ARマーカー620が移動した手630´により遮られた状態を示す。つまり、ARマーカー620が映り込まなくなった状態である。この状態では、ARマーカーのアイコン640´は、透過ディスプレイ15において白表示されるアイコンである。また、透過ディスプレイ15には、「ARマーカーを遮っています 腕を左へずらしてください」との誘導メッセージが誘導部154により表示される。なお、誘導メッセージで腕を移動させる方向を提示する際には、誘導部154は、カメラ17の視点からみた利用者10の体の左右中心方向を提示するようにしてもよい。カメラ17の視点と利用者10の視差の関係で、体の左右中心方向へ手を動かす動作には無理がないためである。
【0057】
図7は、誘導処理の出力例を示す図である。誘導処理の例として、
図7では、ARマーカーと手を検出した後に、カメラ17が(利用者10の右側に)ずれた場合の誘導例を示す。
【0058】
手のアイコン650は、手630が映り込んでいることから、透過ディスプレイ15において緑表示されるアイコンである。ARマーカーのアイコン640は、ARマーカー620が映り込んでいることから、透過ディスプレイ15において緑表示されるアイコンである。左上図は、ARマーカー620と、手630の両方が映り込んでおり、いずれのアイコンも緑表示されている状態を示す。
【0059】
右下図は、ARマーカー620が移動したカメラによりフレームアウトした状態を示す。つまり、ARマーカー620が映り込まなくなった状態である。この状態では、ARマーカーのアイコン640´は、透過ディスプレイ15において白表示されるアイコンである。また、透過ディスプレイ15には、「カメラ位置を戻してください」との誘導メッセージが誘導部154により表示される。これは、誘導部154がARマーカー620のフレームアウトを検知することにより実現する。
【0060】
図8は、誘導処理の出力例を示す図である。誘導処理の例として、
図8では、ARマーカーと手をどちらも未検出の状態から、ARマーカーが検出された場合の誘導例を示す。
【0061】
手のアイコン650´は、手の一部635しか映り込んでいないことから、透過ディスプレイ15において白表示されるアイコンである。ARマーカーのアイコン640´は、ARマーカー620が映り込んでいないことから、透過ディスプレイ15において白表示されるアイコンである。左上図は、ARマーカー620と、手630の両方とも映り込んでおらず、いずれのアイコンも白表示されている状態を示す。透過ディスプレイ15には、「(ARマーカーの図形を示す画像)のようなARマーカーを探してください」との誘導メッセージが誘導部154により表示される。
【0062】
右下図は、ARマーカー620が映り込んだ状態を示す。つまり、ARマーカー620が映り込むようになった状態である。この状態では、ARマーカーのアイコン640は、透過ディスプレイ15において緑表示されるアイコンである。
【0063】
図9は、誘導処理の出力例を示す図である。誘導処理の例として、
図9では、手を認識した後に、ARマーカーの検出のための誘導を行う場合の誘導例を示す。
【0064】
手のアイコン650は、手630が映り込んでいることから、透過ディスプレイ15において緑表示されるアイコンである。ARマーカーのアイコン640´は、ARマーカー620が映り込んでいないことから、透過ディスプレイ15において白表示されるアイコンである。左上図は、手630のみが映り込んでおり、手のアイコン650のみ緑表示されている状態を示す。この場合、透過ディスプレイ15には、「腕を左下へずらしてください」との誘導メッセージが誘導部154により表示される。つまり、ARマーカーが未検出であって、人間の手を検出済みの場合に相当し、誘導部154は、利用者10の腕を移動させるよう誘導する。
【0065】
右上図は、手630が移動した状態を示す。この状態では、ARマーカーのアイコン640´は、透過ディスプレイ15において白表示されるアイコンである。また、透過ディスプレイ15には、「一歩後ろへ下がってください」との誘導メッセージが誘導部154により表示される。これは、誘導部154が手630の移動を検知することにより実現する。つまり、利用者の腕の移動を検出した場合であって、ARマーカーが未検出のままである場合に相当し、誘導部154は、利用者10を後方へ移動するよう誘導する。
【0066】
右下図は、利用者10が後方へ移動した状態を示す。つまり、手630とARマーカー620とが両方映り込むようになった状態である。この状態では、手のアイコン650は、手630が映り込んでいることから、透過ディスプレイ15において緑表示されるアイコンである。また、ARマーカーのアイコン640は、透過ディスプレイ15において緑表示されるアイコンである。
【0067】
以上が、誘導処理の例である。誘導処理によれば、撮像した画像を見ることなく、対象物の映り込みを誘導することができる。そのため、利用者の視点と異なる位置から適切に撮像することができるといえる。
【0068】
以上が、第一の実施形態に係る視界調整システム1である。第一の実施形態によれば、利用者の視点と異なる位置から適切に撮像することができる。
【0069】
本発明は、上記の第一の実施形態に制限されない。上記の第一の実施形態は、本発明の技術的思想の範囲内で様々な変形が可能である。例えば、上記の第一の実施形態においては、ウェアラブル端末100は眼鏡型ウェアラブル端末を想定しているが、これに限られない。例えば、頭部をより広く覆うヘルメット型のウェアラブル端末であってもよいし、片眼のみに取り付けるウェアラブル端末であってもよい。
【0070】
図10は、このような変形例のうち、第二の実施形態に係る視界調整システムの構成例を示す図である。第二の実施形態においては、ウェアラブル端末100において物体検知や誘導の演算を行うのではなく、ネットワークを介して視界調整装置200において行うことで、ウェアラブル端末100に必要な演算能力を低く抑えることができる。これは、特に視界調整システム1においてウェアラブル端末100を複数運用する場合には、全体としてのハードウェアコスト、ウェアラブル端末100のソフトウェアアップデート管理等の運用コストの削減効果が期待できる。
【0071】
第二の実施形態に係る視界調整システム1´は、基本的に第一の実施形態に係る視界調整システム1と略同様であるが、一部相違がある。以下、相違点を中心に説明する。
【0072】
ウェアラブル端末100´は、対象物記憶部111と、対象物特定部152と、通知出力指示部153と、誘導部154を備える必要はない。しかし、通信部170は、視界調整装置200と各種の通信経路を経由して通信可能である。この通信経路は、Bluetooth、NFC、無線LAN等の近距離電波通信、5Gネットワークあるいは4Gネットワーク等の携帯電話通信網、あるいはUSB等の所定の通信線のいずれかまたはこれらに相当するものであってよい。
【0073】
視界調整装置200には、記憶部210と、画像処理部220と、通信部230と、が含まれる。記憶部210は、対象物記憶部211を含む。対象物記憶部211は、オブジェクト検出を行う対象物の情報を格納する。対象物記憶部211は、第一の実施形態における対象物記憶部111と同様のデータ構造を備える。
【0074】
画像処理部220には、画像受付部221と、対象物特定部222と、通知出力指示部223と、誘導部224と、が含まれる。画像受付部221は、ウェアラブル端末100´から送信された画像を受け付ける。対象物特定部222と、通知出力指示部223と、誘導部224とは、それぞれ基本的に対象物特定部152と、通知出力指示部153と、誘導部154と同様の処理を行う。
【0075】
通信部230は、ウェアラブル端末100´等の他の装置との通信を制御する。具体的には、通信部230は、例えばBluetooth、無線LAN、NFC等による近距離電波通信を制御するものであることが望ましい。しかし、通信部230は、5Gネットワークあるいは4Gネットワーク等の携帯電話通信網に参加するもの、あるいはUSB等の所定の有線通信を制御するものであってもよい。
【0076】
図11は、第二の実施形態に係る視界調整処理のフローの例を示す図である。第二の実施形態に係る視界調整処理のフローの例のうち、第一の実施形態に係る視界調整処理のフローの例と番号が共通する処理は、同内容の処理である。
【0077】
まず、ウェアラブル端末100´の画像取得部151は、カメラ17を制御して画像を取得し、視界調整装置200へ送信する(ステップS101´)。
【0078】
そして、視界調整装置200の画像受付部221は、送信された画像を受信する(ステップS201)。そして、対象物特定部222は、ステップS201にて取得した画像に映り込んでいる所定のオブジェクトを検出する(ステップS102)。そして、対象物特定部222は、オブジェクトごとに対象物か否か判定する(ステップS103)。
【0079】
そして、通知出力指示部223は、映り込んでいる対象物の代理アイコンを強調表示させて通知表示部121に画面情報を表示させる指示を送信する(ステップS104)。これを受けて、通知表示部121は、代理アイコンの表示を強調表示へと変更する(ステップS202)。
【0080】
例えば、通知出力指示部223は、検出されていないオブジェクトが手であり、対象物である場合には、手を示す所定のアイコン図形を画面右上に白表示するよう画面情報を構成する。通知出力指示部223は、検出されたオブジェクトがARマーカーであり、対象物である場合には、ARマーカーを示す所定のアイコン図形を画面右上に緑表示するよう画面情報を構成する。
【0081】
そして、誘導部224は、全ての対象物が画像に映り込んでいるか否か判定する(ステップS105)。具体的には、誘導部224は、対象物記憶部211に格納されている対象物を特定し、特定された全ての対象物が対象物特定部222により映り込んでいると判定されたか否かを判定する。全ての対象物が画像に映り込んでいる場合(ステップS105にて「Yes」の場合)には、誘導部224は、視界調整処理を終了させる。
【0082】
全ての対象物が画像に映り込んでいない場合(ステップS105にて「No」の場合)には、誘導部224は、ウェアラブル端末100´に対する誘導処理を開始する(ステップS106)。誘導処理の具体的な内容は、前述と同様である。
【0083】
以上が、第二の実施形態に係る視界調整システム1´における視界調整処理である。視界調整処理によれば、撮像範囲に対象物が含まれているか否かを透過ディスプレイ15上のアイコンにより利用者10に表示することができるため、利用者の視点と異なる位置から適切に撮像することができる。
【0084】
なお、視界調整装置200は、例えばサーバー装置、パーソナルコンピューター、いわゆるスマートフォンやタブレット端末、携帯電話装置を含む情報処理装置であり、他の装置と通信可能な処理装置である。
【0085】
視界調整装置200は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置16と、各装置をつなぐバスと、を少なくとも備える。
【0086】
画像処理部220、画像受付部221、対象物特定部222、通知出力指示部223、誘導部224は、プロセッサ11がプログラムを実行することにより各々の機能を実現する。
【0087】
記憶部210は、メモリ12又はストレージ13によりその機能が実現される。なお、記憶部210は、通信装置16を介して接続される記憶装置によってその機能が実現されてもよい。通信部230は、通信装置16によって実現される。
【0088】
なお、視界調整装置200の各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、視界調整装置200の各構成要素の処理は、1つのプログラムで実現されてもよいし、複数のプログラムで実現されてもよい。また、視界調整装置200の画像処理部220は、ハードウェア(ASIC、GPUなど)により構築されてもよい。
【0089】
なお、ウェアラブル端末100、視界調整装置200のそれぞれの構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
【0090】
以上が、第二の実施形態に係る視界調整システム1´である。第二の実施形態に係る視界調整システム1´によれば、利用者の視点と異なる位置から適切に撮像するのみならず、ウェアラブル端末100に必要な演算能力を低く抑えることができる。これは、特にウェアラブル端末100´を複数運用する場合には、全体としてのハードウェアコスト、ウェアラブル端末100´のソフトウェアアップデート管理等の運用コストの削減効果が期待できる。
【0091】
以上、第一の実施形態および第二の実施形態を用いて説明した。上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。
【0092】
以上、本発明について、実施形態を中心に説明した。
【符号の説明】
【0093】
1・・・視界調整システム、10・・・利用者、100・・・ウェアラブル端末、110・・・記憶部、111・・・対象物記憶部、120・・・表示制御部、121・・・通知表示部、150・・・画像処理部、151・・・画像取得部、152・・・対象物特定部、153・・・通知出力指示部、154・・・誘導部、160・・・音声出力部、170・・・通信部。