IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特許7448029処理装置、処理システム、処理方法及びプログラム
<>
  • 特許-処理装置、処理システム、処理方法及びプログラム 図1
  • 特許-処理装置、処理システム、処理方法及びプログラム 図2
  • 特許-処理装置、処理システム、処理方法及びプログラム 図3
  • 特許-処理装置、処理システム、処理方法及びプログラム 図4
  • 特許-処理装置、処理システム、処理方法及びプログラム 図5
  • 特許-処理装置、処理システム、処理方法及びプログラム 図6
  • 特許-処理装置、処理システム、処理方法及びプログラム 図7
  • 特許-処理装置、処理システム、処理方法及びプログラム 図8
  • 特許-処理装置、処理システム、処理方法及びプログラム 図9
  • 特許-処理装置、処理システム、処理方法及びプログラム 図10
  • 特許-処理装置、処理システム、処理方法及びプログラム 図11
  • 特許-処理装置、処理システム、処理方法及びプログラム 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-03-04
(45)【発行日】2024-03-12
(54)【発明の名称】処理装置、処理システム、処理方法及びプログラム
(51)【国際特許分類】
   G06T 7/30 20170101AFI20240305BHJP
【FI】
G06T7/30
【請求項の数】 10
(21)【出願番号】P 2022555006
(86)(22)【出願日】2020-10-06
(86)【国際出願番号】 JP2020037885
(87)【国際公開番号】W WO2022074739
(87)【国際公開日】2022-04-14
【審査請求日】2023-03-31
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100103894
【弁理士】
【氏名又は名称】家入 健
(72)【発明者】
【氏名】辻 聡
(72)【発明者】
【氏名】安倍 次朗
【審査官】千葉 久博
(56)【参考文献】
【文献】特開2019-95876(JP,A)
【文献】特開2011-215956(JP,A)
【文献】特開2011-39727(JP,A)
【文献】特開2004-348575(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/30
(57)【特許請求の範囲】
【請求項1】
表示対象を撮影する撮影手段により取得された画像データが入力される画像データ入力手段と、
前記画像データが取得された際の画像データ取得情報が入力される画像データ取得情報入力手段と、
前記表示対象を走査する走査手段により取得された三次元データが入力される三次元データ入力手段と、
前記画像データ取得情報における前記撮影手段の位置撮影方向及び撮影時の画角に基づいて、前記三次元データにおける視点の位置及び視線方向を決定し、前記視線方向に直交した面に前記三次元データを投影した視点画像を生成する視点画像生成手段と、
前記画像データと前記視点画像とをマッチングし、前記視点画像において、前記画像データに対応する対象領域を抽出する対象領域抽出手段と、
前記対象領域を表示するためのパラメータを生成する三次元データ表示パラメータ生成手段と、
を備えた処理装置。
【請求項2】
前記三次元データを前記パラメータに従って表示する表示手段をさらに備えた、
請求項1に記載の処理装置。
【請求項3】
前記表示手段は、前記画像データと並べて、前記三次元データを表示する、
請求項2に記載の処理装置。
【請求項4】
前記表示手段は、前記画像データと同期させて、前記三次元データを表示する、
請求項2または3に記載の処理装置。
【請求項5】
前記表示手段が前記対象領域を表示する表示画面の画面設定情報を保持する画面設定保持手段をさらに備え、
前記パラメータは、前記画面設定情報を含む、
請求項2~4のいずれか1項に記載の処理装置。
【請求項6】
前記対象領域は、前記視線方向に直交した水平方向の範囲及び鉛直方向の範囲、並びに、前記視線方向に沿った奥行方向の範囲を含む、
請求項1~5のいずれか1項に記載の処理装置。
【請求項7】
前記画像データを保持する画像データ保持手段をさらに備え、
前記画像データは、前記画像データ保持手段から、前記画像データ入力手段に入力される、
請求項1~6のいずれか1項に記載の処理装置。
【請求項8】
前記表示対象を走査する前記走査手段により前記三次元データを取得する三次元データ取得装置と、
請求項1~7のいずれか1項に記載の処理装置と、
を備えた処理システム。
【請求項9】
表示対象を撮影する撮影手段により取得された画像データを入力させ、
前記画像データが取得された際の画像データ取得情報を入力させ、
前記表示対象を走査する走査手段により取得された三次元データを入力させ、
前記画像データ取得情報における前記撮影手段の位置撮影方向及び撮影時の画角に基づいて、前記三次元データにおける視点の位置及び視線方向を決定させ、前記視線方向に直交した面に前記三次元データを投影した視点画像を生成させ、
前記画像データと前記視点画像とをマッチングさせ、前記視点画像において、前記画像データに対応する対象領域を抽出させ、
前記対象領域を表示させるためのパラメータを生成させる、
処理方法。
【請求項10】
表示対象を撮影する撮影手段により取得された画像データを入力させ、
前記画像データが取得された際の画像データ取得情報を入力させ、
前記表示対象を走査する走査手段により取得された三次元データを入力させ、
前記画像データ取得情報における前記撮影手段の位置撮影方向及び撮影時の画角に基づいて、前記三次元データにおける視点の位置及び視線方向を決定させ、前記視線方向に直交した面に前記三次元データを投影した視点画像を生成させ、
前記画像データと前記視点画像とをマッチングさせ、前記視点画像において、前記画像データに対応する対象領域を抽出させ、
前記対象領域を表示させるためのパラメータを生成させる、
ことをコンピュータに実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、処理装置、処理システム、処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体に関する。
【背景技術】
【0002】
特許文献1には、位置認識システムが記載されている。特許文献1の位置認識システムは、LiDAR(Light Detection and Ranging)等の三次元スキャナで取得した点群データに対して、視点と視線方向ベクトルを付帯した二次元画像を複数抽出する。そして、抽出した二次元画像と、対象物のカメラ画像との間で特徴点マッチングをすることで、カメラ画像に対応する対象物の点群データ上での位置を特定する。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2018-077837号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1の位置認識システムでは、点群データを様々な視点・画角から画像データ化したデータをあらかじめ用意し、それと画像データのマッチングを行っている。よって、点群画像生成による記憶領域の圧迫といった問題を引き起こす。今後、ドローンやクローラー(地上走行ロボット)による監視形態が広がると、取得するデータ量は増大し、この問題はより顕著になる。
【0005】
本開示の目的は、このような課題を解決するためになされたものであり、記憶領域の使用量を抑えつつ、画像データと三次元データとを表示する際の視認性を向上させることができる処理装置、処理システム、処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体を提供することにある。
【課題を解決するための手段】
【0006】
本開示に係る処理装置は、表示対象を撮影する撮影手段により取得された画像データが入力される画像データ入力手段と、前記画像データが取得された際の画像データ取得情報が入力される画像データ取得情報入力手段と、前記表示対象を走査する走査手段により取得された三次元データが入力される三次元データ入力手段と、前記画像データ取得情報における前記撮影手段の位置及び撮影方向に基づいて、前記三次元データにおける視点の位置及び視線方向を決定し、前記視線方向に直交した面に前記三次元データを投影した視点画像を生成する視点画像生成手段と、前記画像データと前記視点画像とをマッチングし、前記視点画像において、前記画像データに対応する対象領域を抽出する対象領域抽出手段と、前記対象領域を表示するためのパラメータを生成する三次元データ表示パラメータ生成手段と、備える。
【0007】
また、本開示に係る処理システムは、前記表示対象を走査する前記走査手段により前記三次元データを取得する三次元データ取得装置と、上記記載の処理装置と、を備える。
【0008】
さらに、本開示に係る処理方法は、表示対象を撮影する撮影手段により取得された画像データを入力させ、前記画像データが取得された際の画像データ取得情報を入力させ、前記表示対象を走査する走査手段により取得された三次元データを入力させ、前記画像データ取得情報における前記撮影手段の位置及び撮影方向に基づいて、前記三次元データにおける視点の位置及び視線方向を決定させ、前記視線方向に直交した面に前記三次元データを投影した視点画像を生成させ、前記画像データと前記視点画像とをマッチングさせ、前記視点画像において、前記画像データに対応する対象領域を抽出させ、前記対象領域を表示させるためのパラメータを生成させる。
【0009】
また、本開示に係るプログラムは、表示対象を撮影する撮影手段により取得された画像データを入力させ、前記画像データが取得された際の画像データ取得情報を入力させ、前記表示対象を走査する走査手段により取得された三次元データを入力させ、前記画像データ取得情報における前記撮影手段の位置及び撮影方向に基づいて、前記三次元データにおける視点の位置及び視線方向を決定させ、前記視線方向に直交した面に前記三次元データを投影した視点画像を生成させ、前記画像データと前記視点画像とをマッチングさせ、前記視点画像において、前記画像データに対応する対象領域を抽出させ、前記対象領域を表示させるためのパラメータを生成させる、ことをコンピュータに実行させる。
【発明の効果】
【0010】
本開示によれば、記憶領域の使用量を抑えつつ、画像データと三次元データとを表示する際の視認性を向上させることができる処理装置、処理システム、処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体を提供することができる。
【図面の簡単な説明】
【0011】
図1】実施形態1に係る処理装置を例示したブロック図である。
図2】実施形態1に係る別の処理装置を例示したブロック図である。
図3】実施形態1に係る処理装置において、画像データ入力部に入力される画像データを例示した図である。
図4】実施形態1に係る処理装置において、画像データ取得情報入力部に入力される画像データ取得情報を例示した図である。
図5】実施形態1に係る処理装置において、三次元データ入力部に入力される三次元データを例示した図である。
図6】実施形態1に係る処理装置において、三次元データを取得する三次元データ取得装置を例示した図である。
図7】実施形態1に係る処理装置において、視点画像生成部が生成した視点画像及び対象領域抽出部が抽出した対象領域を例示した図である。
図8】実施形態1に係る処理装置において、画像データ及び対象領域を例示した図である。
図9】実施形態1に係る別の処理装置において、表示部を例示した図である。
図10】実施形態1に係るさらに別の処理装置を例示したブロック図である。
図11】実施形態1に係る処理装置を用いた処理方法を例示したフローチャート図である。
図12】実施形態1に係る別の処理装置を用いた処理方法を例示したフローチャート図である。
【発明を実施するための形態】
【0012】
以下、実施形態について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
【0013】
(実施形態1)
実施形態1に係る処理装置を説明する。図1は、実施形態1に係る処理装置を例示したブロック図である。図1に示すように、処理装置10は、画像データ入力部11と、画像データ取得情報入力部12と、三次元データ入力部13と、視点画像生成部14と、対象領域抽出部15と、三次元データ表示パラメータ生成部16と、を備えている。画像データ入力部11、画像データ取得情報入力部12、三次元データ入力部13、視点画像生成部14、対象領域抽出部15、及び、三次元データ表示パラメータ生成部16は、それぞれ、画像データ入力手段、画像データ取得情報入力手段、三次元データ入力手段、視点画像生成手段、対象領域抽出手段、及び、三次元データ表示パラメータ生成手段としての機能を有している。
【0014】
処理装置10は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、インターフェイス部(I/F)等からなるマイクロコンピュータを含むハードウェアで構成されてもよい。CPU等は、視点画像生成部14、対象領域抽出部15、三次元データ表示パラメータ生成部16として機能し、データ生成処理、データ抽出処理及び制御処理等を行う。なお、データ表示機能としてデータ表示処理を行ってもよい。ROMは、CPUによって実行されるデータ生成プログラム、データ抽出プログラム、データ表示プログラム及び制御プログラム等を記憶する。RAMは、画像データ及び三次元データ等の各種のデータを記憶する。インターフェイス部(I/F)は、外部と信号の入出力を行う。CPU、ROM、RAM及びインターフェイス部は、データバスなどを介して相互に接続されている。
【0015】
図2は、実施形態1に係る別の処理装置を例示したブロック図である。図2に示すように、処理装置10aは、表示部17をさらに備えている。表示部17は、表示手段としての機能を有している。以下で、処理装置10及び処理装置10aの各構成を説明する。
【0016】
<画像データ入力部>
図3は、実施形態1に係る処理装置10において、画像データ入力部11に入力される画像データを例示した図である。図3に示すように、画像データ入力部11には、画像データ20が入力される。画像データ20は、表示対象を撮影する撮影手段により取得されたデータである。撮影手段は、例えば、カメラである。その場合には、画像データ20は、カメラで撮像した静止画像のデータである。画像データ20は、カメラで撮影された動画の1フレームでもよい。画像データ20は、表示対象の画像を含んでいる。表示対象は、例えば、監視対象とされる施設等である。
【0017】
画像データ入力部11は、例えば、後述する画像データ保持部から画像データ20を入力されてもよい。画像データ入力部11は、カメラ等の撮影手段から直接、画像データ20を入力されてもよい。
【0018】
<画像データ取得情報入力部>
図4は、実施形態1に係る処理装置10において、画像データ取得情報入力部12に入力される画像データ取得情報を例示した図である。図4に示すように、画像データ取得情報入力部12には、画像データ取得情報が入力される。画像データ取得情報は、画像データ入力部11に入力される画像データ20が取得された際の情報である。画像データ取得情報は、例えば、撮影手段の位置21、撮影方向22、及び、撮影時の画角23を含んでいる。撮影方向22は、撮影方向を示す撮影方向ベクトルとして表すことができる。撮影時の画角23は、例えば、鉛直方向の画角23を含む。撮影手段が地面などの基準面に対して平行でない場合には、画像データ取得情報は、傾きセンサの情報を含んでもよい。
【0019】
画像データ取得情報入力部12は、後述する画像データ取得情報保持部から画像データ取得情報を入力されてもよい。画像データ取得情報入力部12は、カメラ等の撮像手段から直接、画像データ取得情報を入力されてもよい。
【0020】
<三次元データ入力部>
図5は、実施形態1に係る処理装置10において、三次元データ入力部13に入力される三次元データを例示した図である。図5に示すように、三次元データ入力部13には、三次元データ30が入力される。三次元データ30は、表示対象を走査する走査手段により取得されたデータである。走査手段は、例えば、LiDAR等の三次元データを取得する三次元データ取得装置である。その場合には、三次元データは、点群データである。
【0021】
図6は、実施形態1に係る処理装置10において、三次元データを取得する三次元データ取得装置を例示した図である。図6に示すように、三次元データ取得装置は、LiDAR40でもよい。LiDAR40は、測定対象OBに対してレーザ光等のビームLBをスキャンさせることにより、測定対象OBの形状を点群データとして取得することができる。よって、LiDAR40は、測定対象OBまでの距離及び測定対象OBの形状を測定することができる。点群データは、少なくとも座標値及び輝度値を含む。
【0022】
例えば、ToF(Time of Flight)方式のLiDAR40の原理は、以下のとおりである。すなわち、LiDAR40は、レーザ光等のビームLBを発光する発光部EMと、ビームLBが測定対象OBで反射した反射光RBを検出する検出部DEと、を備えている。LiDAR40は、ビームLBを所定の画角で測定対象OBに対してスキャンさせながら、測定対象OBで反射した反射光RBを検出する。そして、LiDAR40は、ビームLBが測定対象OBに到達するまでの時間t1と、反射光RBが検出部DEに到達するまでの時間t2を用いて、測定対象OBまでの距離Dを、D=(t2-t1)/2×(光の速さ)から算出する。これにより、LiDAR40は、スキャンした範囲におけるスキャンデータとして、測定対象OBまでの距離を含んだ座標値及び輝度値を有する点群データを取得することができる。
【0023】
三次元データ30は、LiDAR40により取得された表示対象の形状データを含み、さらに、輝度情報等の付帯情報を含んでもよい。複数の位置から複数の三次元データ30を取得した場合には、複数の三次元データ30を統合しておくことが望ましい。例えば、監視対象の施設内の複数地点から三次元データ30を取得した場合には、事前に位置合わせを行い、統合しておくことが望ましい。三次元データ30は、世界座標系に変換するためのパラメータと対応付けられてもよい。
【0024】
三次元データ入力部13は、後述する三次元データ保持部等の記憶装置から三次元データ30を入力されてもよい。三次元データ入力部13は、LiDAR40等の三次元データ取得装置から直接、三次元データ30を入力されてもよい。
【0025】
<視点画像生成部>
図7は、実施形態1に係る処理装置10において、視点画像生成部14が生成した視点画像及び対象領域抽出部15が抽出した対象領域を例示した図である。図7に示すように、視点画像生成部14は、視点画像34を生成する。視点画像34を生成するために、視点画像生成部14は、まず、画像データ取得情報における撮影手段の位置21及び撮影方向22に基づいて、三次元データ30における視点の位置31及び視線方向32を決定する。そして、視点画像生成部14は、視線方向32に直交した面33に三次元データ30を投影する。視点画像34は、面33に三次元データ30を投影したものである。このようにして、視点画像生成部14は、視点画像34を生成する。複数の三次元データ30が統合されていない状態で入力された場合には、画像データ20が撮影された位置21に近く、撮影方向22のデータが含まれる三次元データを選択してもよい。
【0026】
<対象領域抽出部>
図8は、実施形態1に係る処理装置10において、画像データ20及び対象領域35を例示した図である。図7及び図8に示すように、対象領域抽出部15は、視点画像34において、画像データ20に対応する対象領域35を抽出する。対象領域35を抽出するために、対象領域抽出部15は、まず、画像データ20と視点画像34とをマッチングする。例えば、対象領域抽出部15は、画像データ20と視点画像50との間で、特徴点F1~F6及びG1~G6のマッチングを行う。具体的には、対象領域抽出部15は、画像データ20における特徴点F1~F6に特徴が類似する特徴点G1~G6を視点画像34から抽出する。そして、対象領域抽出部15は、画像データ20に相当する対象領域35を三次元データ30から抽出する。図7及び図8に示すように、対象領域35は、視線方向32に直交した水平方向の範囲及び鉛直方向の範囲、並びに、図7に示すように、視線方向32に沿った奥行方向の範囲を含む。マッチングは、例えば、特徴点マッチングなどの手法で行う。
【0027】
<三次元データ表示パラメータ生成部>
三次元データ表示パラメータ生成部16は、三次元データ30のうち、対象領域35の範囲を表示するためのパラメータを生成する。具体的には、三次元データ表示パラメータ生成部16は、対象領域35を表示部17に表示するパラメータを生成する。パラメータは、画像データ取得情報、表示部17が対象領域35を表示する表示画面の画面設定の情報、対象領域35の範囲の情報が含まれる。
【0028】
パラメータは、例えば、GUI(Graphical User Interface)画面の幅、GUI画面の高さ、世界座標系における撮影手段及び走査手段等のセンサの座標、撮影手段の撮影方向ベクトル、走査手段の視線方向ベクトル、センサの上方向を示すベクトル、奥行方向の表示範囲(手前側)、奥行方向の表示範囲(奥側)、画面の高さが焦点となす角度(Field of View:FOV)を含む。パラメータは、点群ライブラリ(Point Cloud Library:PCL)のカメラパラメータを含んでもよい。
【0029】
世界座標系におけるセンサの座標において、世界座標系は、何らかの範囲内に存在するもの共通の座標系のことである。例えば、インフラ施設内に設置する全てのセンサ(LiDAR、カメラ)共通の座標系である。また、例えば、地球全体で共通の座標系(緯度、経度、高度を含む)である。
【0030】
LiDAR40は、一般的に測定した地点を原点とするローカル座標系で三次元データ30を取得する。施設の複数個所で測定した場合には、それらの三次元データ30の座標系は互いに異なるが、GPS(Global Positioning Syste)やビーコンの活用により、各LiDAR40のローカル座標系を世界座標系に変換することが好ましい。
【0031】
カメラもGPSやビーコンとの連携により世界座標系で撮影位置を把握できることが好ましい。特定のLiDAR40の位置を原点とした世界座標系を用いてもよく、その場合には、三次元データ30であれば、各LiDAR40が取得した三次元データ30同士を位置合わせすることができるし、各三次元データ30を世界座標系のデータに変換することができる。
【0032】
FOVにおいて、LiDAR40の場合には、焦点がLiDAR40の座標系の原点としてもよい。
【0033】
以下に、パラメータ及びパラメータの取得手段の例を示す。すなわち、GUI画面の幅及び高さは、表示システム設定から取得してもよい。世界座標系における撮影手段及び走査手段等のセンサの座標は、GPS等の世界座標系を扱えるようにする手段から取得してもよい。撮影手段の撮影方向ベクトルは、カメラ等の撮影手段の撮影方向から取得してもよい。走査手段の視線方向ベクトルは、撮影方向ベクトルから取得してもよい。センサの上方向を示すベクトルは、LiDAR40の測定時の姿勢、取得した点群データの推定(地面を抽出し、それに対して鉛直な方向とする、等)から取得してもよい。奥行方向の表示範囲(手前)は、点群データから生成した点群画像とカメラ画像でマッチングを行い、点群画像の対象領域に相当する点群データの中でLiDAR40から最も奥行き方向の座標が小さいものを抽出することにより取得してもよい。奥行方向の表示範囲(奥)は、上記と同様にして、LiDARから最も奥行き方向の座標が大きいものを抽出することにより取得してもよい。画面の高さが焦点となす角度は、カメラ画像のFOVから取得してもよい。
【0034】
<表示部>
図9は、実施形態1に係る別の処理装置10aにおいて、表示部17を例示した図である。図9に示すように、表示部17は、三次元データ30をパラメータに従って表示する。具体的には、表示部17は、三次元データ30のうち、対象領域抽出部15が抽出した対象領域35を表示する。表示部17は、画像データ20と並べて、三次元データ30を表示してもよい。
【0035】
また、表示部17は、画像データ20と同期させて、三次元データ30を表示してもよい。例えば、撮影手段により撮影された動画の所定のフレームが所定の間隔で画像データ入力部11に入力される場合に、表示部17は、所定のフレームの画像データ20を表示させるタイミングに同期させて、画像データ20に対応した対象領域35を表示させてもよい。
【0036】
図10は、実施形態1に係るさらに別の処理装置を例示したブロック図である。図10に示すように、処理装置10bは、さらに、画像データ保持部11aと、画像データ取得情報保持部12aと、三次元データ保持部13aと、画面設定保持部18と、を備えてもよい。画像データ保持部11a、画像データ取得情報保持部12a、三次元データ保持部13a、及び、画面設定保持部18は、それぞれ、画像データ保持手段、画像データ取得情報保持手段、三次元データ保持手段、及び、画面設定保持手段としての機能を有している。
【0037】
なお、処理装置10bは、画像データ保持部11a、画像データ取得情報保持部12a、三次元データ保持部13a、及び、画面設定保持部18のいくつかだけを備えてもよい。また、画像データ保持部11a、画像データ取得情報保持部12a、三次元データ保持部13a、及び、画面設定保持部18は、それぞれ、単体で機能する記憶装置として、処理装置10とは独立して設けられてもよい。また、処理装置10bは、表示部17をさらに備えてもよい。
【0038】
<画像データ保持部>
画像データ保持部11aは、画像データ20を保持する。画像データ保持部11aは、表示対象を撮影する撮影手段により取得された画像データ20を保持していれば、それ以外の他の画像データ20を保持してもよい。画像データ保持部11aは、例えば、カメラ等の撮影手段から画像データ20を取得してもよいし、画像データ20を保持した他の保持手段から画像データ20を取得してもよい。画像データ保持部11aに保持された画像データ20は、画像データ保持部11aから、画像データ入力部11に入力される。
【0039】
<画像データ取得情報保持部>
画像データ取得情報保持部12aは、画像データ取得情報を保持する。画像データ取得情報保持部12aは、画像データ20が取得された際の画像データ取得情報を保持していれば、それ以外の他の画像データ取得情報を保持してもよい。画像データ取得情報保持部12aは、例えば、カメラ等の撮影手段から画像データ取得情報を取得してもよいし、画像データ取得情報を保持した他の保持手段から画像データ取得情報を取得してもよい。画像データ取得情報は、画像データ取得情報保持部12aから、画像データ取得情報入力部12に入力される。
【0040】
<三次元データ保持部>
三次元データ保持部13aは、三次元データ30を保持する。三次元データ保持部13aは、表示対象を走査する走査手段により取得された三次元データ30を保持していれば、それ以外の他の三次元データ30を保持してもよい。三次元データ保持部13aは、例えば、表示対象を走査する走査手段により三次元データ30を取得する三次元データ取得装置から三次元データ30を取得してもよいし、三次元データ30を保持した他の保持手段から三次元データ30を取得してもよい。三次元データ30は、三次元データ保持部13aから、三次元データ入力部13に入力される。
【0041】
<画面設定保持部>
画面設定保持部18は、表示部17が対象領域35を表示する表示画面の画面設定情報を保持する。画面設定情報は、三次元データ30を表示する表示画面の高さ、幅を含む。前述のパラメータは、画面設定情報を含んでもよい。
【0042】
<処理方法>
次に、本実施形態に係る処理装置10を用いた処理方法を説明する。図11は、実施形態1に係る処理装置10を用いた処理方法を例示したフローチャート図である。
【0043】
図11のステップS11及び図3に示すように、画像データ20を入力させる。例えば、表示対象を撮影する撮影手段により取得された画像データ20を、画像データ入力部11に入力させる。なお、画像データ20を画像データ保持部11aに保持させ、保持させた画像データ20を画像データ入力部11に入力させてもよい。
【0044】
次に、ステップS12及び図4に示すように、画像データ取得情報を入力させる。例えば、画像データ20が取得された際の画像データ取得情報を、画像データ取得情報入力部12に入力させる。なお、画像データ取得情報を画像データ取得情報保持部12aに保持させ、保持させた画像データ取得情報を画像データ取得情報入力部12に入力させてもよい。
【0045】
次に、ステップS13及び図5に示すように、三次元データ30を入力させる。例えば、表示対象を走査する走査手段により取得された三次元データ30を、三次元データ入力部13に入力させる。なお、三次元データ30を三次元データ保持部13aに保持させ、保持させた三次元データ30を三次元データ入力部13に入力させてもよい。
【0046】
ステップS11、ステップS12、ステップS13は、この順序にかぎらない。例えば、ステップS13、ステップS11、ステップS12の順序でもよいし、その他の順序でもよい。
【0047】
次に、ステップS14及び図7に示すように、視点画像34を生成する。例えば、視点画像生成部14は、画像データ取得情報における撮影手段の位置21及び撮影方向22に基づいて、三次元データ30における視点の位置31及び視線方向32を決定する。そして、視点画像生成部14は、視線方向32に直交した面33に三次元データ30を投影した視点画像34を生成する。
【0048】
次に、ステップS15及び図7図8に示すように、対象領域35を抽出する。例えば、対象領域抽出部15は、画像データ20と視点画像34とをマッチングさせ、視点画像34において、画像データ20に対応する対象領域35を抽出する。対象領域35は、視線方向32に直交した水平方向の範囲及び鉛直方向の範囲、並びに、視線方向32に沿った奥行方向の範囲を含むようにしてもよい。
【0049】
次に、ステップS16に示すように、パラメータを生成させる。例えば、三次元データ表示パラメータ生成部16は、対象領域35を表示させるためのパラメータを生成する。このようにして、処理装置10は、表示パラメータを生成することができる。
【0050】
次に、表示パラメータを用いて表示部17に表示させる処理方法を説明する。図12は、実施形態1に係る別の処理装置10aを用いた処理方法を例示したフローチャート図である。図12におけるステップS21~26は、図11におけるステップS11~16と同様である。
【0051】
次に、ステップS27及び図9に示すように、三次元データ30における対象領域35を表示させる。例えば、表示部17は、三次元データ30をパラメータに従って表示する。三次元データ30をパラメータに従って表示させる際に、画像データ20と並べて、三次元データ30を表示させてもよい。また、表示部17は、三次元データ30をパラメータに従って表示する際に、画像データ20と同期させて、三次元データ30を表示してもよい。このようにして、処理装置10aは、三次元データ30を表示部17に表示させることができる。
【0052】
次に、本実施形態の処理装置10の効果を説明する。なお、処理装置10a及び10bも含めて処理装置10と呼ぶ。本実施形態の処理装置10は、画像データ20に対応する三次元データ30を抽出した対象領域35を生成する。そして、処理装置10は、対象領域35を表示する。よって、画像データと同じアングル及び画角で三次元データを生成及び表示することができるので、画像データ20と三次元データ30とを表示する際の視認性を向上させることができる。
【0053】
例えば、電力施設等を監視する施設監視において、カメラの他、LiDAR40等の三次元データ取得装置を用いてデータを取得し、監視に活用するということが考えられる。カメラは、二次元のRGBデータ(画像データ20)を取得し、LiDAR40は、点群データ(三次元データ30)を取得する。カメラ及びLiDAR40は、画角等の測定範囲に関するパラメータが異なる。
【0054】
本実施形態の処理装置10は、画像データ20が示す表示対象や範囲に対応する三次元データ30を抽出する。また、本実施形態の処理装置10は、カメラと同じアングルや画角で三次元データ30を表示する。よって、施設監視担当者は、画像データ20に対応する三次元データ30を表示させることができるので、監視対象施設の状態を視認性良く確認することができる。
【0055】
処理装置10は、画像データ20と並べて、三次元データ30を表示してもよいし、画像データ20と同期させて、三次元データ30を表示してもよい。これにより、さらに、画像データ20と三次元データ30との視認性を向上させることができる。
【0056】
本実施形態の処理装置10は、入力された三次元データ30から画像データ20に対応した対象領域35を抽出する。よって、様々な撮影の位置21及び撮影方向22から撮影される画像データ20に対応するように、様々な視点の位置31及び視線方向32から画像データ化した三次元データ30をあらかじめ用意する必要がない。よって、記憶領域の使用量を抑制することができる。
【0057】
画像データ20、画像データ取得情報、三次元データ30、及び、画面設定情報を、画像データ保持部11a、画像データ取得情報保持部12a、三次元データ保持部13a、及び、画面設定保持部18に保持させることにより、さらに、記憶領域の使用量を抑制することができる。
【0058】
(実施形態2)
次に、実施形態2に係る処理システムを説明する。処理システムは、上述した処理装置10(処理装置10a及び10bも含めて処理装置10と呼ぶ。)と、三次元データ取得部と、を備えている。三次元データ取得部は、三次元データ取得手段としての機能を有している。三次元データ取得部は、走査手段を含み、表示対象を走査する走査手段により三次元データを取得する。三次元データ取得部は、例えば、LiDAR40である。その場合には、三次元データは、表示対象をLiDAR40によって取得された点群データである。本実施形態に係る処理方法は、実施形態1の処理方法に、表示対象を走査する走査手段により三次元データ30を取得させるステップをさらに備える。
【0059】
本実施形態に係る処理システムは、処理装置10に加えて、三次元データ取得部を備えているので、所望の場所に位置する表示対象の三次元データ30を表示させることができる。これ以外の構成及び効果は、実施形態1の記載に含まれている。
【0060】
以上、実施形態1及び2を参照して本願発明を説明したが、本願発明は、上記実施形態1及び2に限られたものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることが可能である。例えば、実施形態1及び2の各構成を組み合わせた実施形態も、技術的思想の範囲に含まれる。また、実施形態1及び2の処理方法を、コンピュータに実行させるプログラムも実施形態1及び2の技術的範囲に含まれる。
【0061】
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
【0062】
(付記1)
表示対象を撮影する撮影手段により取得された画像データが入力される画像データ入力手段と、
前記画像データが取得された際の画像データ取得情報が入力される画像データ取得情報入力手段と、
前記表示対象を走査する走査手段により取得された三次元データが入力される三次元データ入力手段と、
前記画像データ取得情報における前記撮影手段の位置及び撮影方向に基づいて、前記三次元データにおける視点の位置及び視線方向を決定し、前記視線方向に直交した面に前記三次元データを投影した視点画像を生成する視点画像生成手段と、
前記画像データと前記視点画像とをマッチングし、前記視点画像において、前記画像データに対応する対象領域を抽出する対象領域抽出手段と、
前記対象領域を表示するためのパラメータを生成する三次元データ表示パラメータ生成手段と、
を備えた処理装置。
(付記2)
前記三次元データを前記パラメータに従って表示する表示手段をさらに備えた、
付記1に記載の処理装置。
(付記3)
前記表示手段は、前記画像データと並べて、前記三次元データを表示する、
付記2に記載の処理装置。
(付記4)
前記表示手段は、前記画像データと同期させて、前記三次元データを表示する、
付記2または3に記載の処理装置。
(付記5)
前記表示手段が前記対象領域を表示する表示画面の画面設定情報を保持する画面設定保持手段をさらに備え、
前記パラメータは、前記画面設定情報を含む、
付記2~4のいずれか1項に記載の処理装置。
(付記6)
前記対象領域は、前記視線方向に直交した水平方向の範囲及び鉛直方向の範囲、並びに、前記視線方向に沿った奥行方向の範囲を含む、
付記1~5のいずれか1項に記載の処理装置。
(付記7)
前記画像データを保持する画像データ保持手段をさらに備え、
前記画像データは、前記画像データ保持手段から、前記画像データ入力手段に入力される、
付記1~6のいずれか1項に記載の処理装置。
(付記8)
前記画像データ取得情報を保持する画像データ取得情報保持手段をさらに備え、
前記画像データ取得情報は、前記画像データ取得情報保持手段から、前記画像データ取得情報入力手段に入力される、
付記1~7のいずれか1項に記載の処理装置。
(付記9)
前記三次元データを保持する三次元データ保持手段をさらに備え、
前記三次元データは、前記三次元データ保持手段から、前記三次元データ入力手段に入力される、
付記1~8のいずれか1項に記載の処理装置。
(付記10)
前記パラメータは、GUI画面の幅、前記GUI画面の高さ、世界座標系における撮影手段及び走査手段の座標、撮影手段の撮影方向ベクトル、走査手段の視線方向ベクトル、撮影手段及び走査手段の上方向を示すベクトル、奥行方向の表示範囲、FOVのうち、少なくともいずれかを含む、
付記1~9のいずれか1項に記載の処理装置。
(付記11)
前記表示対象を走査する前記走査手段により前記三次元データを取得する三次元データ取得装置と、
付記1~10のいずれか1項に記載の処理装置と、
を備えた処理システム。
(付記12)
表示対象を撮影する撮影手段により取得された画像データを入力させ、
前記画像データが取得された際の画像データ取得情報を入力させ、
前記表示対象を走査する走査手段により取得された三次元データを入力させ、
前記画像データ取得情報における前記撮影手段の位置及び撮影方向に基づいて、前記三次元データにおける視点の位置及び視線方向を決定させ、前記視線方向に直交した面に前記三次元データを投影した視点画像を生成させ、
前記画像データと前記視点画像とをマッチングさせ、前記視点画像において、前記画像データに対応する対象領域を抽出させ、
前記対象領域を表示させるためのパラメータを生成させる、
処理方法。
(付記13)
前記三次元データを前記パラメータに従って表示させる、
付記12に記載の処理方法。
(付記14)
前記三次元データを前記パラメータに従って表示させる際に、前記画像データと並べて、前記三次元データを表示させる、
付記13に記載の処理方法。
(付記15)
前記三次元データを前記パラメータに従って表示させる際に、前記画像データと同期させて、前記三次元データを表示させる、
付記13または14に記載の処理方法。
(付記16)
前記対象領域を表示させる表示画面の画面設定情報を保持させ、
前記パラメータは、前記画面設定情報を含むようにする、
付記13~15のいずれか1項に記載の処理方法。
(付記17)
前記対象領域は、前記視線方向に直交した水平方向の範囲及び鉛直方向の範囲、並びに、前記視線方向に沿った奥行方向の範囲を含むようにする、
付記12~16のいずれか1項に記載の処理方法。
(付記18)
前記画像データを保持させ、
保持させた前記画像データを入力させる、
付記12~17のいずれか1項に記載の処理方法。
(付記19)
前記画像データ取得情報を保持させ、
保持させた前記画像データ取得情報を入力させる、
付記12~18のいずれか1項に記載の処理方法。
(付記20)
前記三次元データを保持させ、
保持させた前記三次元データを入力させる、
付記12~19のいずれか1項に記載の処理方法。
(付記21)
前記パラメータは、GUI画面の幅、前記GUI画面の高さ、世界座標系における撮影手段及び走査手段の座標、撮影手段の撮影方向ベクトル、走査手段の視線方向ベクトル、撮影手段及び走査手段の上方向を示すベクトル、奥行方向の表示範囲、FOVのうち、少なくともいずれかを含むようにする、
付記12~20のいずれか1項に記載の処理方法。
(付記22)
前記表示対象を走査する前記走査手段により前記三次元データを取得する三次元データ取得装置に前記三次元データを取得させる、
付記12~21のいずれか1項に記載の処理方法。
(付記23)
表示対象を撮影する撮影手段により取得された画像データを入力させ、
前記画像データが取得された際の画像データ取得情報を入力させ、
前記表示対象を走査する走査手段により取得された三次元データを入力させ、
前記画像データ取得情報における前記撮影手段の位置及び撮影方向に基づいて、前記三次元データにおける視点の位置及び視線方向を決定させ、前記視線方向に直交した面に前記三次元データを投影した視点画像を生成させ、
前記画像データと前記視点画像とをマッチングさせ、前記視点画像において、前記画像データに対応する対象領域を抽出させ、
前記対象領域を表示させるためのパラメータを生成させる、
ことをコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
(付記24)
前記三次元データを前記パラメータに従って表示させる、
ことをコンピュータに実行させる付記23に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
(付記25)
前記三次元データを前記パラメータに従って表示させる際に、前記画像データと並べて、前記三次元データを表示させる、
ことをコンピュータに実行させる付記24に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
(付記26)
前記三次元データを前記パラメータに従って表示させる際に、前記画像データと同期させて、前記三次元データを表示させる、
ことをコンピュータに実行させる付記24または25に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
(付記27)
前記対象領域を表示させる表示画面の画面設定情報を保持させ、
前記パラメータは、前記画面設定情報を含むようにする、
ことをコンピュータに実行させる付記24~26のいずれか1項に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
(付記28)
前記対象領域は、前記視線方向に直交した水平方向の範囲及び鉛直方向の範囲、並びに、前記視線方向に沿った奥行方向の範囲を含むようにする、
ことをコンピュータに実行させる付記23~27のいずれか1項に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
(付記29)
前記画像データを保持させ、
保持させた前記画像データを入力させる、
ことをコンピュータに実行させる付記23~28のいずれか1項に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
(付記30)
前記画像データ取得情報を保持させ、
保持させた前記画像データ取得情報を入力させる、
ことをコンピュータに実行させる付記23~29のいずれか1項に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
(付記31)
前記三次元データを保持させ、
保持させた前記三次元データを入力させる、
ことをコンピュータに実行させる付記23~30のいずれか1項に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
(付記32)
前記パラメータは、GUI画面の幅、前記GUI画面の高さ、世界座標系における撮影手段及び走査手段の座標、撮影手段の撮影方向ベクトル、走査手段の視線方向ベクトル、撮影手段及び走査手段の上方向を示すベクトル、奥行方向の表示範囲、FOVのうち、少なくともいずれかを含むようにする、
ことをコンピュータに実行させる付記23~31のいずれか1項に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
(付記33)
前記表示対象を走査する前記走査手段により前記三次元データを取得する三次元データ取得装置に前記三次元データを取得させる、
ことをコンピュータに実行させる付記23~32のいずれか1項に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
【0063】
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
【符号の説明】
【0064】
10、10a、10b 処理装置
11 画像データ入力部
11a 画像データ保持部
12 画像データ取得情報入力部
12a 画像データ取得情報保持部
13 三次元データ入力部
13a 三次元データ保持部
14 視点画像生成部
15 対象領域抽出部
16 三次元データ表示パラメータ生成部
17 表示部
18 画面設定保持部
20 画像データ
21 位置
22 撮影方向
23 画角
30 三次元データ
31 位置
32 視線方向
33 面
34 視点画像
35 対象領域
40 LiDAR
DE 検出部
EM 発光部
LB ビーム
OB 測定対象
RB 反射光
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12