IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社日立システムズの特許一覧

特許7479978内視映像表示システム、内視映像表示装置及び内視映像表示方法
<>
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図1
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図2
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図3
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図4
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図5
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図6
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図7
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図8
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図9
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図10
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図11
  • 特許-内視映像表示システム、内視映像表示装置及び内視映像表示方法 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-26
(45)【発行日】2024-05-09
(54)【発明の名称】内視映像表示システム、内視映像表示装置及び内視映像表示方法
(51)【国際特許分類】
   G06T 19/00 20110101AFI20240430BHJP
   G06F 3/04842 20220101ALI20240430BHJP
【FI】
G06T19/00 600
G06F3/04842
【請求項の数】 7
(21)【出願番号】P 2020126693
(22)【出願日】2020-07-27
(65)【公開番号】P2022023627
(43)【公開日】2022-02-08
【審査請求日】2023-02-17
(73)【特許権者】
【識別番号】000233491
【氏名又は名称】株式会社日立システムズ
(74)【代理人】
【識別番号】110000062
【氏名又は名称】弁理士法人第一国際特許事務所
(72)【発明者】
【氏名】周防 壮史
【審査官】岡本 俊威
(56)【参考文献】
【文献】特開2018-121686(JP,A)
【文献】特開2016-063868(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
G06F 3/04842
(57)【特許請求の範囲】
【請求項1】
内視の対象物である内視対象物の内部に関する内部情報を取得するためのセンサ装置と、
前記内視対象物の内部構造の外観を示す内視映像を生成するための計算装置と、
前記内視対象物について生成した前記内視映像を視認するためのクライアント端末とが通信ネットワークを介して接続される内視映像表示システムであって、
前記計算装置は、
前記内部情報を前記センサ装置から受信し、
前記内視対象物の外側を示す外側映像と、前記外側映像に対して指定された、内視の対象となる内視対象領域の絶対位置を示す内視対象領域座標とを含む内視要求を前記クライアント端末から受信すると共に、前記内視映像を前記クライアント端末に送信する通信部と、
前記センサ装置から受信した前記内部情報に基づいて、前記内視対象物の内部構造の外観を示すCGモデルを生成するモデル生成部と、
前記内視要求に含まれる前記内視対象領域座標に基づいて、前記内視映像に表示する前記CGモデルの領域である表示領域を設定し、前記表示領域に対応するCGモデル映像を前記CGモデルから抽出し、前記CGモデル映像と前記外側映像とを結合させることで、前記内視映像を生成する内視映像生成部と、
を含み、
前記内部情報は、
前記内視対象物の内部を示す内部映像と、前記センサ装置の前記内視対象物に対する距離及び向きと、前記センサ装置の絶対位置と、情報の取得時刻とを含み、
前記計算装置は、
前記内部情報に含まれる前記センサ装置の絶対位置と、前記センサ装置の前記内視対象物に対する距離及び向きとに基づいて、前記内部映像に示されている前記内視対象物の内部領域の四隅の座標を示す内部領域座標を計算し、
所定の映像解析手段により、前記内部映像に基づいて、前記内視対象物の内部を示す3次元のCGモデルを作成し、
前記内部領域座標を、前記CGモデルにマッピングすることにより、前記CGモデルと前記内視対象物の位置関係を対応付けることで、前記CGモデルを生成する、
ことを特徴とする内視映像表示システム。
【請求項2】
前記計算装置は、
第1のセンサ装置から、障害物によって隠されている第1の領域を含む第1の内部映像と、
第2のセンサ装置から、前記第1の領域に対応し、且つ、視認可能な第2の領域を含む第2の内部映像とを受信し、
前記第1の領域を、前記第2の領域によって補足するように前記第1の内部映像と前記第2の内部映像とを結合した結合映像に基づいて、前記CGモデルを生成する、
ことを特徴とする、請求項1に記載の内視映像表示システム。
【請求項3】
前記センサ装置は、
液体と共に流れながら前記内視対象物の内部を撮影する小型撮影装置である、
ことを特徴とする、請求項2に記載の内視映像表示システム。
【請求項4】
前記センサ装置は、
前記内部情報を継続的に取得するように構成されており、
前記計算装置は、
前記内部情報に応じて、前記内視映像をリアルタイムで動的に更新する、
ことを特徴とする、請求項3に記載の内視映像表示システム。
【請求項5】
内視の対象物である内視対象物の内部に関する内部情報をセンサ装置から受信し、前記内視対象物の外側を示す外側映像と、前記外側映像に対して指定された、内視の対象となる内視対象領域の絶対位置を示す内視対象領域座標とを含む内視要求をクライアント端末から受信すると共に、内視映像を前記クライアント端末に送信する通信部と、
前記センサ装置から受信した前記内部情報に基づいて、前記対象物の内部構造の外観を示すCGモデルを生成するモデル生成部と、
前記内視要求に含まれる前記内視対象領域座標に基づいて、前記内視映像に表示する前記CGモデルの領域である表示領域を設定し、前記表示領域に対応するCGモデル映像を前記CGモデルから抽出し、前記CGモデル映像と前記外側映像とを結合させることで、前記内視映像を生成する内視映像生成部と、
を含み、
前記モデル生成部は、
前記内部情報に含まれる前記センサ装置の絶対位置と、前記センサ装置の前記内視対象物に対する距離及び向きとに基づいて、前記内視対象物の内部構造の外観を示す内視映像に示されている前記内視対象物の内部領域の四隅の座標を示す内部領域座標を計算し、
所定の映像解析手段により、前記内部情報に含まれて前記内視対象物の内部を示す内部映像に基づいて、前記内視対象物の内部を示す3次元のCGモデルを作成し、
前記内部領域座標を、前記CGモデルにマッピングすることにより、前記CGモデルと前記内視対象物の位置関係を対応付けることで、前記CGモデルを生成する、
ことを特徴とする内視映像表示装置。
【請求項6】
内視の対象物である内視対象物の内部に関する内部情報として、前記内視対象物の内部を示す内部映像と、前記内部映像を取得したセンサ装置の前記内視対象物に対する距離及び向きと、前記センサ装置の絶対位置とを取得する工程と、
前記内部情報に含まれる前記センサ装置の絶対位置と、前記センサ装置の前記内視対象物に対する距離及び向きとに基づいて、前記内部映像に示されている前記内視対象物の内部領域の四隅の座標を示す内部領域座標を計算する工程と、
所定の映像解析手段により、前記内部映像に基づいて、前記内視対象物の内部を示す3次元のCGモデルを作成し、
前記内部領域座標を、前記CGモデルにマッピングすることにより、前記CGモデルと前記内視対象物の位置関係を対応付ける工程と、
前記内視対象物の外側を示す外側映像と、前記外側映像に対して指定された、内視の対象となる内視対象領域の絶対位置を示す内視対象領域座標とを含む内視要求を受信する工程と、
前記内視要求に含まれる前記内視対象領域座標に基づいて、表示される前記CGモデルの領域である表示領域を設定し、前記表示領域に対応するCGモデル映像を前記CGモデルから抽出し、前記CGモデル映像と前記外側映像とを結合させることで、内視映像を生成する工程と、
前記内視映像を出力する工程と、
を含むことを特徴とする内視映像表示方法。
【請求項7】
障害物によって隠されている第1の領域を含む第1の内部映像を受信する工程と、
前記第1の領域に対応し、且つ、視認可能な第2の領域を含む第2の内部映像とを受信する工程と、
前記第1の領域を、前記第2の領域によって補足するように前記第1の内部映像と前記第2の内部映像とを結合した結合映像に基づいて、前記CGモデルを生成する工程と、
を更に含むことを特徴とする請求項6に記載の内視映像表示方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、内視映像表示システム、内視映像表示装置及び内視映像表示方法に関する。
【背景技術】
【0002】
近年、現実空間に、付加的な情報を重畳してユーザに呈示する拡張現実(AR:AugmentedReality)と呼ばれる映像重畳技術が開発されている。重畳される付加的な情報は、画像、テキスト、アイコン、又はアニメーション等の様々な種類の表示オブジェクトがユーザの眼前に表示されることで可視化され得る。
【0003】
AR技術はエンターテインメント、マーケティング、観光、工業等の分野において幅広く使用されており、AR技術を用いた様々な商品やサービスが提案されている。
例えば、特開2014-106556(特許文献1)には、「建物外に取り付けられたARマーカを読み取る機能を有するWEBカメラを有する端末からの映像を受信し、当該映像を画像とし、かつ3Dオブジェクトにマッピングし、当該マッピング画像を端末のカメラと当該ARマーカとの相対視角に応じて当該画像の見える範囲が変化する仮想のぞき穴画像を生成し、当該仮想のぞき穴画像を当該端末に送信し、当該端末側に映し出される画像の見える範囲が変わるように構成した手段を設ける」技術が記載されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2014-106556
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1には、建物外に取り付けられたARマーカを読み取り、当該ARマーカに対応する、建物内の様子を示す3Dオブジェクトを建物外の映像にマッピングすることで、ライブ会場や展覧会、美術館、博物館等の会場内の様子をのぞき穴から見ているのと同様に仮想のぞき穴画像として見ることができる。
しかしながら、特許文献1の手段では、ARマーカを事前に対象の建物に設置した上、ARマーカと当該ARマーカに対応する3Dオブジェクト等のデジタルコンテンツの位置関係を予め設定しておく必要があり、相当程度の事前準備が必要である。また、建物内の様子を見ることができるのは、ARマーカを設置した個所だけであり、ユーザーが建物内を透視する場所を自由に選択することは想定されていない。
【0006】
そこで、本開示は、ARマーカを用いなくても、目視で確認できない任意の内視対象物の内部の状況を容易に視認することを可能とする内視映像表示手段を提供することを目的とする。
【課題を解決するための手段】
【0007】
上記の課題を解決するために、代表的な本開示の内視映像表示システムの一つは、内視の対象物である内視対象物の内部に関する内部情報を取得するためのセンサ装置と、前記内視対象物の内部構造の外観を示す内視映像を生成するための計算装置と、前記内視対象物について生成した前記内視映像を視認するためのクライアント端末とが通信ネットワークを介して接続される内視映像表示システムであって、前記計算装置は、前記内部情報を前記センサ装置から受信し、前記内視対象物の外側を示す外側映像と、前記外側映像に対して指定された、内視の対象となる内視対象領域の座標とを含む内視要求を前記クライアント端末から受信すると共に、内視映像を前記クライアント端末に送信する通信部と、前記センサ装置から受信した前記内部情報に基づいて、前記対象物の内部構造の外観を示すCGモデルを生成するモデル生成部と、前記内視要求に含まれる前記内視対象領域に基づいて、前記内視映像に表示する前記CGモデルの領域である表示領域を設定し、前記表示領域に対応するCGモデル映像を前記CGモデルから抽出し、前記CGモデル映像と前記外側映像とを結合させることで、前記内視映像を生成する内視映像生成部とを含む。
【発明の効果】
【0008】
本開示によれば、ARマーカを用いなくても、目視で確認できない任意の内視対象物の内部の状況を容易に視認することを可能とする内視映像表示手段を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
【図面の簡単な説明】
【0009】
図1図1は、本開示の実施例を実施するためのコンピュータシステムを示す図である。
図2図2は、本開示の実施形態に係る内視映像表示システムの構成の一例を示す図である。
図3図3は、本開示の実施形態に係る内視映像表示方法の流れの一例を示す図である。
図4図4は、本開示の実施形態に係るマスク解除手段の一例を示す図である。
図5図5は、本開示の実施形態に係る内部映像の撮影範囲の内部領域座標計算の一例を示す図である。
図6図6は、本開示の実施形態に係る深度推定の一例を示す図である。
図7図7は、本開示の実施形態に係る外側映像の一例を示す図である。
図8図8は、本開示の実施形態に係る外側映像に対する内視対象領域を指定する処理の一例を示す図である。
図9図9は、本開示の実施形態に係るCGモデルの一例を示す図である。
図10図10は、本開示の実施形態に係るCGモデルに対して表示領域を設定する一例を示す図である。
図11図11は、本開示の実施形態に係る内視映像の一例を示す図である。
図12図12は、本開示の実施形態に係る障害物排除処理の一例を示す図である。
【発明を実施するための形態】
【0010】
以下、図面を参照して、本開示の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
(本開示の背景及び概要)
【0011】
上述したように、ARマーカを用いなくても、目視で確認できない任意の内視対象物の内部の状況を容易に視認することを可能とする手段が求められている。このような内視映像表示手段を好適に適用できる場面の一例として、配管点検等が考えられる。
従来では、現場での配管の劣化確認において、配管の内側を確認するには、カメラを管に挿入し、内部を撮影するなどの方法がある。しかし、管の内部を撮影したとしても、内部映像の情報だけでは管の外側との関係が明らかではないため、配管の外側しか見えない現場の作業員にとっては、どの配管を交換すべきかの判断に窮することがある。外側と内側を同時に確認する手法として非破壊検査があるが、非破壊検査では内部の色の状態などを確認できないため、内部の状態の詳細を把握することができない。
【0012】
そこで、本開示では、作業員等のユーザが、クライアント端末によって、配管等の内視対象物の外側映像と、当該外側映像に対して指定した領域の内視映像のCGモデル映像を見ることができる技術を示すものである。より詳細には、外側映像を用いて指定した内視対象領域の絶対位置を示す内視対象領域座標を含む内視要求に応じて、内視対象物の内部の状態に関する内部情報から生成されたCGモデルから内視対象領域に基づいたCGモデル映像を抽出し、当該CGモデル映像と内視対象物の外側映像を結合した内視映像を生成し、クライアント端末に表示することで、ARマーカを用いなくても、目視で確認できない任意の内視対象物の内部の状況を容易に視認することができる。
これにより、例えば水道管のような配管設備において、現場にいる作業員が、管の内部及び外部の両方の状態を容易に確認することが可能となり、点検等の作業の効率を向上させることができる。
以下では、本開示の実施形態に係る内視映像表示手段を配管点検に適用した場合を一例として説明するが、本開示はこれに限定されず、例えば、建物の内部、自動車の内部等、使用目的に応じて任意の環境に適用されてもよい。
(ハードウエア構成)
【0013】
まず、図1を参照して、本開示の実施形態を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
【0014】
コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施形態では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。
【0015】
ある実施形態では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、内視映像表示アプリケーション350を格納していてもよい。ある実施形態では、内視映像表示アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。
【0016】
ある実施形態では、内視映像表示アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施形態では、内視映像表示アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。
【0017】
コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。
【0018】
表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
【0019】
例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。
【0020】
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されてもよい。
【0021】
ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
【0022】
ある実施形態では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
【0023】
次に、図2を参照して、本開示の実施形態に係る内視映像表示システムについて説明する。
【0024】
図2は、本開示の実施形態に係る内視映像表示システム200の構成の一例を示す図である。図2に示すように、内視映像表示システム200は、クライアント端末205、センサ装置210、ストレージ部220、及び計算装置230を含む。また、クライアント端末205、センサ装置210、ストレージ部220、及び計算装置230は、例えばネットワーク225を介して相互的に接続される。
ネットワーク225は、例えばインターネットやLAN(Local Area Network)であってもよい。
【0025】
クライアント端末205は、内視対象物の内部構造の外観を示す内視映像を視認するための装置である。クライアント端末205は、配管点検等の作業を行う作業員が利用する端末であり、例えば、スマートフォンやタブレット等の携帯型端末であってもよく、デスクトップパソコン等の固定型の端末であってもよい。また、ある実施形態では、クライアント端末205は、ユーザが頭部に装着するヘッドマウントディスプレイであってもよい。
また、クライアント端末205は、映像を取得するための撮影機能(カメラ)、クライアント端末の絶対位置を判定するための測位機能(GPS等)、及び内視対象物等の被写体に対する相対的な位置を判定するための方角計測機能や向き計測機能を備えてもよい。更に、クライアント端末205は、ユーザからの入力を受け付けるためのタッチ画面、キーボード、マウス、音声認識機能等の入力機能を備えてもよい。
クライアント端末205を利用しているユーザは、内視対象物の内部が視認したい意図を示す内視要求を、ネットワーク225を介して計算装置230に送信する。この内視要求は、例えば、内視対象物の外側を示す外側映像と、当該外側映像に対して指定された、内視の対象となる内視対象領域の絶対位置を示す内視対象領域座標とを含んでもよい。
【0026】
センサ装置210は、内視対象物の内部構造の外観を示すCGモデルを生成するための情報を取得するセンサである。センサ装置210は、内視対象物の内部を撮影し、内部構造の外観を示す内部映像を取得するためのカメラである。また、センサ装置210は、内視対象物の内部構造の外観を示す内部映像に加えて、センサ装置210の絶対位置、方角、向き、内視対象物からの距離、及びこれらの情報の取得時刻に関する情報を取得する機能や、ネットワーク225を介して外部の装置(例えば、ストレージ部220、計算装置230)と通信するための機能を含んでもよい。
以下では、内視対象物の内部構造の外観を示すCGモデルを生成するために取得される、内視対象物の内部構造の外観を示す内部映像、センサ装置210の絶対位置、方角、向き、内視対象物からの距離、及びこれらの情報の取得時刻に関する情報を「内部情報」という。これらの内部情報は、定期的に取得されてもよく(1時間毎、6時間毎、24時間毎等)、継続的に取得されてもよい。
ある実施形態では、センサ装置210は、内視対象物の内部において設置されてもよい。あるいは、ある実施形態では、センサ装置210は、配管などの内視対象物に流れる液体と共に流れながら上述した内部情報を取得するための防水小型撮影装置であってもよい。
【0027】
ストレージ部220は、上述したセンサ装置210によって取得された内部情報222をネットワーク225を介して受信し、格納するための記憶領域である。ストレージ部220は、例えば、ネットワーク225上の共通のハードディスクドライブ、ソリッドステートドライブなどのストレージ装置であってもよく、クラウド型のストレージ領域であってもよい。また、ストレージ部220に格納されている内部情報222は、例えば計算装置からアクセス可能な形態で格納されてもよい。
【0028】
計算装置230は、クライアント端末205から受信した内視要求に応じて、内視対象物の内部構造の外観を示す内視映像を生成し、クライアント端末205に送信するための機能部である。図2に示すように、計算装置230は、内視対象物の内部構造の外観を示す内視映像を生成するために、通信部232と、モデル生成部234と、内視映像生成部236と、モデル記憶部238とを含む。
【0029】
通信部232は、計算装置230と、内視映像表示システム200における他の装置間で通信される各種情報の送受信を行うための機能部である。例えば、通信部232は、クライアント端末205からの内視要求を受信したり、ストレージ部220に格納される内部情報222を取得したり、内視対象物の内部構造の外観を示す内視映像をクライアント端末205に送信したりしてもよい。
【0030】
モデル生成部234は、ストレージ部220に格納されている内部情報222に基づいて、内視対象物の内部構造の外観を示すCGモデルを生成するための機能部である。モデル生成部234は、例えばセンサ装置210によって撮影された複数の内部映像を、所定の映像処理手段によって加工することで、内視対象物の内部構造の外観を立体的に示す3次元のCGモデルを生成することができる。また、ある実施形態では、モデル生成部234は、センサ装置210によって撮影された内部映像を、Volumeなどの機械学習手法により、内視対象物の内部構造の深度を推定し、内視対象物の内側の凹凸やテクスチャ等を表すCGモデルを生成してもよい。
なお、本開示においてCGモデルとは、3次元空間内のポイントの集まりによって画定される三角形、線、曲面などの様々な幾何学的オブジェクトによって形成される物理的な物体を立体的に表現するデータの集合である。また、このCGモデルの面は、テクスチャマッピングにより、様々なテクスチャ(物体表面の質感)を表すことができる。
また、ここで生成されるCGモデルは、例えば計算装置230に備えられるモデル記憶部238に、CGモデル240として格納されてもよく、ネットワーク225を介してストレージ部220に格納されてもよい。このモデル記憶部238は、計算装置230の内部記憶領域であり、例えばハードディスクドライブやソリッドステートドライブなど、任意の記憶手段であってもよい。
【0031】
内視映像生成部236は、内視対象物の内部構造の外観を示す内視映像を生成するための機能部である。内視映像生成部236は、クライアント端末205から受信した内視要求に含まれる内視対象領域座標に基づいて、内視映像に表示する表示領域を設定し、当該表示領域に対応するCGモデル映像をCGモデルから抽出し、このCGモデル映像と外側映像とを結合させることで、内視映像を生成する。このCGモデル映像は、CGモデルの特定の領域を示し、CGモデルから抜き出される2次元の画像である。
また、ここで生成される内視映像は、上述した通信部232を用いて、クライアント端末205に送信される。一例として、ここでの内視映像は、クライアント端末205から受信した内視要求に含まれる内視対象物の外側映像に、当該内視対象物の内部構造の外観を示すCGモデル映像を重ね合わせて表示する映像であってもよい。
【0032】
以上説明したように構成した内視映像表示システム200により、任意の内視対象物の内部の構造を示す内視映像を生成することができる。これにより、例えば配管の点検などの作業を行う作業員は、配管の内部の様子を容易に視認することができ、作業効率を向上させることができる。
【0033】
次に、図3を参照して、本開示の実施形態に係る内視映像表示方法の流れについて説明する。
【0034】
図3は、本開示の実施形態に係る内視映像表示方法360の流れの一例を示す図である。図3に示す内視映像表示方法360は、計算装置230が、クライアント端末205から受信した内視要求に応じて、内視対象物の内部構造の外観を示す内視映像をセンサ装置210によって取得された内部情報に基づいて生成し、クライアント端末205に表示するための処理である。
【0035】
まず、ステップS361では、センサ装置210は、内視対象物の内部構造の外観を示すCGモデルを生成するための内部情報を取得する。上述したように、センサ装置210は、内視対象物の内部構造の外観を示す内部映像、センサ装置210の絶対位置、方角、向き、内視対象物からの距離、及びこれらの情報の取得時刻に関する情報を内部情報として取得してもよい。
また、上述したように、これらの内部情報は、継続的に取得されてもよい。これにより、これらの内部情報に基づいて生成される内視映像を常時、リアルタイムで動的に更新することが可能となる。
【0036】
次に、ステップS362では、センサ装置210は、取得した内部情報をストレージ部220に格納する。ここで、センサ装置210は、内視対象物の内部構造の外観を示す内部映像、センサ装置210の絶対位置、方角、向き、内視対象物からの距離、及びこれらの情報の取得時刻を互いに対応付けて、ストレージ部220に管理される専用のデータベースに保存してもよい。
【0037】
次に、ステップS363では、内部情報の取得を継続するか否かが判定される。例えば、センサ装置210は、取得した内部情報がCGモデルを生成するために十分か否か(内視対象物の内部面積を十分に撮影したか否か等)を判定してもよい。内部情報が十分に取得された場合には、センサ装置210の処理はステップS372へと進み、終了する。内部情報が十分に取得されていない場合には、センサ装置210の処理がS361へと戻り、内部情報の取得を継続してもよい。
【0038】
次に、ステップS364では、ユーザは、クライアント端末205を用いて、内視対象物の内部が視認したい意図を示す内視要求を、計算装置230に送信する。この内視要求は、例えば、内視対象物の外側を示す外側映像と、当該外側映像に対して指定された、内視の対象となる内視対象領域の絶対位置を示す内視対象領域座標とを含んでもよい。また、内視対象物の内部構造を示す内視映像が既にクライアント端末205上に表示されている場合には、この内視要求は、この内視映像におけるCGモデル映像を非表示にするための非表示指示を含んでもよい。
【0039】
より具体的には、クライアント端末205は、内視対象物の外側を示す外側映像を取得する際、GPS等の測位機能を用いてクライアント端末205の絶対位置を判定すると共に、クライアント端末205の、撮影された内視対象物に対する相対的な位置を判定する。その後、判定したクライアント端末205の絶対位置と、クライアント端末205の、撮影された内視対象物に対する相対的な位置とから、撮影された内視対象物の内視対象領域の絶対位置を示す内視対象領域座標を計算することができる。
一例として、ユーザは、クライアント端末205を用いて、内視対象物の外側を撮影し、外側映像を取得した後、指によるタップやスワイプなどの動作で、当該外側映像に対して内視対象領域を入力してもよい。その後、クライアント端末205は、上述したように、指定された内視対象領域の絶対位置を示す内視対象領域座標を計算する。最後に、クライアント端末205は、取得された外側映像と、計算された内視対象領域座標とを内視要求として計算装置230に送信する。
【0040】
ステップS365では、計算装置230は、内視要求をクライアント端末205から受信する。
【0041】
次に、ステップS366では、計算装置230は、内視映像におけるCGモデル映像を非表示にするための非表示指示が内視要求に含まれているか否かを判定する。非表示指示が内視要求に含まれている場合には、計算装置230の処理がステップS368へと進み、非表示指示が内視要求に含まれていない場合には、計算装置230の処理がステップS369へと進む。
【0042】
非表示指示が内視要求に含まれている場合、ステップS368では、計算装置230は、クライアント端末205に表示されている内視映像におけるCGモデル映像が非表示となるように、内視映像の表示設定を更新する。これにより、内視対象物の内部構造を示すCGモデル映像が非表示となり、内視対象物の外側のみが表示されるため、内視映像が外側映像と実質的に同様となる。これにより、クライアント端末205のユーザは、内視対象物の内部構造を示すCGモデル映像の表示を自由に切り替えることができる。
【0043】
非表示指示が内視要求に含まれていない場合、ステップS369では、計算装置230は、内部情報をストレージ部220から取得し、内視対象物の内部構造を立体的に示すCGモデルを生成する。より具体的には、計算装置230は、内部情報に含まれる内視対象物の内部構造の外観を示す内部映像とセンサ装置210の絶対位置、方角、向き、及び内視対象物からの距離を用いて、内部映像の四隅の絶対位置を示す内部領域座標を算出し、当該内部映像を、Volumeなどの機械学習手法により、内視対象物の内部構造の深度を推定することでCGモデルを作成し、作成したCGオブジェクトを、計算した内部領域座標に対応付けてもよい。
なお、CGモデルの生成の詳細については、図5~10を参照して説明する。
【0044】
次に、ステップS370では、計算装置230は、CGモデルの映像と、外側映像とを結合することで、内視対象物の内部構造を示す内視映像を生成し、クライアント端末205に送信する。より具体的には、計算装置230は、クライアント端末205から受信した内視要求に含まれる内視対象領域に基づいて、内視映像に表示するCGモデルの領域である表示領域を設定する。この表示領域は、ユーザが視認したいと示した内視対象領域に対応するCGモデルの領域を少なくとも含むが、これに限定されない。例えば、ある実施形態では、この表示領域は、内視対象領域に対応するCGモデルの領域より広いCGモデルの領域を含んでもよい。
その後、計算装置230は、設定した表示領域に対応するCGモデル映像を、例えば上述したモデル記憶部に格納されているCGモデルから抽出する。このCGモデル映像は、ユーザが視認したいと示した内視対象領域に対応するCGモデルの領域を少なくとも含む領域2次元の映像である。CGモデル映像が抽出された後、計算装置230は、当該CGモデル映像と、クライアント端末205から受信した内視要求に含まれる外側映像とを結合させることで、内視映像を生成してもよい。この内視映像は、内視対象物の外側を示す外側映像の上に、ユーザが内視したい領域に対応するCGモデル映像を重ねた映像であってもよい。また、ある実施形態では、この内視映像は、内視対象物の外側を示す外側映像と、ユーザが内視したい領域に対応するCGモデル映像とを別々に表示する映像であってもよい。
また、ある実施形態では、計算装置230は、リアルタイムでセンサ装置から送信される内部情報に応じて、内視映像をリアルタイムで更新してもよい。これにより、例えば内視対象物の内部が変化した場合、クライアント端末のユーザはこの変化を迅速に把握することができる。
内視映像が生成された後、計算装置230は、当該内視映像をクライアント端末205に送信する。
【0045】
次に、ステップS371では、クライアント端末205は、内視映像を計算装置230から受信し、当該内視映像を、クライアント端末205の画面などに表示する。その後、本処理はステップS372へと進み、終了する。
【0046】
上述した内視映像表示方法360により、クライアント端末205のユーザは、内視したい内視対象物の外側を撮影し得た外側映像に対して、内視したい領域を指定することで、内視対象物の内部構造を当該外側映像に重ね合わせた内視映像を視認することができ、内視対象物の内部の様子を容易に確認したり、点検したりすることができる。
また、上述したように、クライアント端末205に搭載される機能を用いて、撮影された内視対象物における内視対象領域の絶対位置を示す内視対象領域座標を計算し、当該内視対象領域座標に対応するCGモデル映像を、内視対象物の内部構造の外観を立体的に示すCGモデルから抽出し、外側映像とCGモデル映像とを結合した内視映像を生成し、表示することで、ARマーカを用いなくても、内視対象物の内部の様子を視認することができる。
【0047】
次に、図4を参照して、本開示の実施形態に係るマスク解除手段について説明する。
【0048】
図4は、本開示の実施形態に係るマスク解除手段の一例を示す図である。上述したように、本開示では、例えば配管の点検などの作業を行う作業員は、内視対象物の外側を示す外側映像をクライアント端末によって撮影し、内視対象物の内部が視認したい意図を示す内視要求を計算装置に送信することで、当該内視対象物の内部構造を示す内視映像をクライアント端末上で視認することができる。
また、ある実施形態では、内視映像において、内視可能な領域は、本発明の実施形態に係るマスク解除手段によって制御されてもよい。以下では、本発明の実施形態に係るマスク解除手段の概念について説明する。
【0049】
まず、ユーザは、上述したクライアント端末(図4では例示せず)を用いて、内視対象物の外側を撮影し、外側映像405を取得する。
なお、ここで撮影される内視対象物の外側には、ARマーカ410が張り付けられてもよいが、上述したように、本開示では、ARマーカ410を用いなくても、内視対象物の内部の様子を視認することができる。ここでのARマーカ410とは、ARコンテンツを表示するトリガとして機能する標識となる、決まったパターンの画像を意味する。ARマーカ410は、例えばQRコード(登録商標)や他の所定の画像であってもよい。
【0050】
次に、計算装置(図4では例示せず)は、CGモデルから抽出したCGモデル映像412の上に、クライアント端末から受信した外側映像405を、マスク414として重ねる。これにより、CGモデル映像412は、マスク414によって隠され、外側映像405のみが表示される。このマスク414と、CGモデル映像412とが重なった映像は、上述した内視映像としてクライアント端末に送信されてもよい。
【0051】
次に、ユーザは、クライアント端末に表示されている内視映像に対して、視認したい内部領域である内視対象領域を、タップなどの動作で内視映像に対して指定すると、指定された内視対象領域には、マスク414を解除するマスク解除オブジェクト416が生成される。これにより、マスク解除オブジェクト416によって解除される領域のみにおいて、マスク414によって隠されていたCGモデル映像412が視認可能となり、それ以外の領域には、マスク414となった外側映像405が表示される。
これにより、ユーザは、クライアント端末に表示される内視映像において、マスク解除オブジェクト416による「のぞき穴」を通して、内視対象物の内部構造を視認することができる。
【0052】
次に、図5を参照して、本開示の実施形態に係る内部映像の撮影範囲の内部領域座標計算の一例について説明する。
【0053】
図5は、本開示の実施形態に係る内部映像の撮影範囲の内部領域座標計算の一例を示す図である。
上述したように、本開示の実施形態に係るCGモデルを生成するに当たって、当該CGモデルが内視対象物においてどこの位置に対応するかを計算する必要がある。従って、CGモデルの元となる内部映像の撮影範囲の四隅の絶対位置を示す内部領域座標を計算することで、当該内部映像が内視対象物のどこに対応するかを把握することができ、CGモデルと内視対象物の位置関係を対応付けることができる。
【0054】
上述したように、センサ装置210は、内視対象物の内部構造の外観を示す内部映像505、センサ装置210の絶対位置、方角、向き、内視対象物からの距離、及びこれらの情報の取得時刻に関する情報を内部情報として取得し、計算装置230に送信する。
【0055】
計算装置230は、センサ装置210から取得した内部情報に基づいて、内部映像505の四隅を規定するP1、P2、P3、P4の各ポイントのGPS座標を計算することができる。より具体的には、計算装置230は、センサ装置210の絶対位置O、センサ装置210から所定のポイントPまでの距離r、及びセンサ装置210の向きの角度を示すΦ、θ等の空間的関係507に基づいて、四隅を規定するP1、P2、P3、P4のそれぞれのGPS座標を算出することができる。これにより、内部映像505に写る内視対象物の領域の絶対位置を示す内部領域座標を把握し、CGモデルと内視対象物の対応関係を互いに整合させることができる。
【0056】
次に、図6を参照して、本開示の実施形態に係る深度推定について説明する。
【0057】
図6は、本開示の実施形態に係る深度推定の一例を示す図である。上述したように、本発明の実施形態に係る内視映像表示システムによって生成されるCGモデルは、内視対象物の内部のテクスチャー(物体表面の質感を表現するために用いられる、小さな画像)を立体的に表現する3次元のCGモデルであってもよい。
以下、本開示の実施形態に係る深度推定を用いて、内視対象物の内部のテクスチャーを立体的に表現する3次元のCGモデルを生成する一例を説明する。ここでの深度推定とは、二次元の映像や映像を解析してセンサ装置から被写体(つまり、内視対象物の内側など)までの距離を推定する手法である。
【0058】
上述したように、本開示の実施形態に係るセンサ装置(例えば、図2に示すセンサ装置210)は、内視対象物の内部構造を示す内部映像605を取得する。ここでのセンサ装置は、例えば単眼の撮影装置であってもよく、複眼の撮影装置であってもよい。内部映像605は、例えば平面の2次元映像であってもよい。また、センサ装置は、内部映像605を取得する際、深度測定の手段を行い、センサ装置の、内部映像605に写る被写体における複数のポイントまでの距離を測定してもよい。
なお、説明の便宜上、図6では、1枚の内部映像605のみを例示しているが、本開示はこれに限定されず、実際には、センサ装置は、複数の内部映像を取得する。例えば、センサ装置は、内部映像を連続的に撮影してもよく、動画などの映像を取得してもよい。
【0059】
センサ装置によって取得された後、当該内部映像605は、計算装置230に送信され、計算装置230のモデル生成部234によって処理される。ある実施形態では、モデル生成部234は、内部映像605と、センサ装置の、当該内部映像605における複数のポイントとの距離とに基づいて、内部映像605に写る領域のテクスチャーを立体的に表現する3次元のCGモデル610を生成してもよい。図6に示すように、この3次元のCGモデル610は、撮影された内視対象物の領域における凹凸を表現することができる。
また、ある実施形態では、モデル生成部234は、Volumeなどの機械学習による深度測定手段を用いて、2次元の内部映像605を解析することで、上述したような内視対象物の領域における凹凸を表現する立体的なCGモデル610を生成してもよい。
【0060】
以上説明した深度推定手段により、内視対象物の状態を立体的に示すCGモデルを生成することができる。これにより、例えば配管の点検などの作業を行う作業員は、配管の内部における錆や傷などの凹凸を視認することができ、作業効率を向上させることができる。
【0061】
次に、図7を参照し、本開示の実施形態に係る外側映像の一例について説明する。
【0062】
図7は、本開示の実施形態に係る外側映像710の一例を示す図である。上述したように、本開示の実施形態に係る内視映像表示システムでは、ユーザは、内視の対象となる内視対象物の外側を示す外側映像を、例えば携帯型のクライアント端末によって撮影し、当該外側映像に対して、内視したい領域である内視領域を指定する。その後、クライアント端末205からの内視要求に応じて、上述した計算装置は、当該内視領域において、内視対象物の内部構造を示す内視映像を生成し、クライアント端末に送信する。
以下、本開示の実施形態に係る外側映像710の一例について説明する。
【0063】
本開示の実施形態に係る外側映像は、内視の対象となる内視対象物の外側を示す外側映像である。例えば、図7に示すように、内視対象物が配管の場合には、外側映像は、配管の外側を示す映像である。ある実施形態では、この外側映像710は、内視対象物の外側に張り付けられたARマーカーを映す映像であってもよいが、本開示の実施形態に係る内視映像表示システムはこれに限定されず、例えばARマーカーが張り付けられていない内視対象物の場合であっても、ユーザが視認したい内視対象領域に対応する内視映像を生成することができる。
【0064】
次に、図8を参照し、本開示の実施形態に係る外側映像に対する内視対象領域を指定する処理について説明する。
【0065】
図8は、本開示の実施形態に係る外側映像710に対する内視対象領域815を指定する処理の一例を示す図である。上述したように、内視の対象となる内視対象物の外側を示す外側映像を、例えば携帯型のクライアント端末によって撮影された後、ユーザは、当該外側映像に対して、内視したい領域である内視対象領域815を指定する。
以下、外側映像710に対する内視対象領域815を指定する一例について説明する。
【0066】
本開示の実施形態に係る内視対象領域は、ユーザが内視したい内視対象物の領域である。ユーザは、クライアント端末の画面に表示されている外側映像710に対して、指によるタップやスワイプなどの動作を行うことで、1つ又は複数の内視対象領域を指定してもよい。例えば、図8に示すように、外側映像710が複数の配管を示す場合、ユーザは、外側映像710に写る5つの配管のそれぞれに対して、内視対象領域815を指定してもよい。
【0067】
また、内視対象領域815が外側映像710に対して指定される際、クライアント端末は、指定された内視対象領域815の絶対位置を示す内視対象領域座標を計算する。より具体的には、クライアント端末は、内視対象物の外側を示す外側映像を取得する際、GPS等の測位機能を用いてクライアント端末205の絶対位置を判定すると共に、クライアント端末の、撮影された内視対象物に対する相対的な位置を判定する。その後、判定したクライアント端末の絶対位置と、クライアント端末の、撮影された内視対象物に対する相対的な位置とから、撮影された内視対象物の内視対象領域の絶対位置を示す内視対象領域座標を計算することができる。また、ここで計算された内視対象領域座標は、計算装置に送信される。
【0068】
次に、図9図10を参照して、本開示の実施形態に係るCGモデルについて説明する。
【0069】
図9は、本開示の実施形態に係るCGモデル900の一例を示す図である。上述したように、計算装置(図9には例示せず)は、センサ装置(図9には例示せず)によって取得された内部情報を用いて、内視対象物の内部構造を立体的に示すCGモデルを生成することができる。一例として、計算装置は、センサ装置によって取得された複数の内部映像を、Volumeなどの機械学習手法によって解析することで、内視対象物の内部構造の深度を推定し、内視対象物の内側のテクスチャを表す立体的なCGモデルを生成してもよい。
内視対象物が複数ある場合には、それぞれの内視対象物に対応するCGモデル900が生成されてもよい。例えば、図9に示すように、5つの配管が内視対象物となっている場合には、計算装置は、それぞれの配管に対応するCGモデル900を生成してもよい。このように、内視対象物の内部構造における錆、傷、変色などを視認することができ、内視対象物の内部の状態を把握することができる。
【0070】
図10は、本開示の実施形態に係るCGモデル900に対して表示領域1015を設定する一例を示す図である。図10に示すように、計算装置(図10には例示せず)は、クライアント端末を介してユーザによって外側映像に対して指定された内視対象領域に基づいて、内視映像に表示するCGモデルの領域である表示領域1015をCGモデル900に対して設定する。ある実施形態では、この表示領域1015は、ユーザによって指定された内視対象領域と実質的に同様であってもよいが、本開示はこれに限定されない。例えば、ある実施形態では、計算装置は、ユーザによって指定された内視対象領域を中心とした、より広い領域を表示領域1015として設定してもよい。
【0071】
次に、図11を参照して、本開示の実施形態に係る内視映像について説明する。
【0072】
図11は、本開示の実施形態に係る内視映像1100の一例を示す図である。上述したように、本開示の実施形態に係る内視映像1100は、クライアント端末(図11には例示せず)から受信した内視要求に含まれる内視対象物の外側映像700に、当該内視対象物の内部構造の外観を示すCGモデル映像1110を重ね合わせて表示する映像である。
【0073】
より具体的には、計算装置(図11には例示せず)は、図10を参照して説明した表示領域に対応するCGモデル映像1110を、例えば図9に示すCGモデルから抽出する。このCGモデル映像は、ユーザが視認したいと示した内視対象領域に対応するCGモデルの領域を少なくとも含む領域の映像である。ここで、外側映像700とCGモデル映像1110とは、例えば任意の既存の映像加工手段によって結合されてもよい。
計算装置は、内視映像1100を生成した後、当該内視映像1100をクライアント端末に送信する。これにより、ユーザは、クライアント端末の画面に表示される内視映像を視認することで、内視対象物の外観を確認し、内部の状態を把握することができる。
【0074】
次に、図12を参照して、本開示の実施形態に係る障害物排除処理について説明する。
【0075】
図12は、本開示の実施形態に係る障害物排除処理1200の一例を示す図である。上述したように、本開示の実施形態に係るセンサ装置は、内視対象物の内部を撮影することで、内視対象物の内部構造の外観を示す内部映像を取得するように構成されている。しかし、内視対象物とセンサ装置の間に障害物がある場合には、内視対象物の一部が当該障害物によって隠され、内部映像に写らないことがある。このような、内視対象物の一部が抜けている内部映像を用いてCGモデルを生成すると、内視対象物の内部の状態を完全に把握することができない。そこで、本発明の実施形態に係る内視映像表示システムによる障害物排除処理によれば、異なるセンサ装置によって撮影された、異なる画角の映像を合成することで、障害物によって隠された領域である「隠し領域」を補足することができる。
【0076】
図12に示すように、複数のセンサ装置1215A、1215Bは、内視対象物における同一の内部領域1205を撮影する際、障害物1210がセンサ装置1215A、1215Bと内部領域1205の間に入ってしまったとする。その結果、センサ装置1215Aによって取得された内部映像1218Aには、センサ装置1215Aの角度に応じて、障害物1210によって隠された第1の隠し領域1220が生じてしまう。また、同様に、センサ装置1215Bによって取得された内部映像1218Bには、センサ装置1215Bの角度に応じて、障害物1210によって隠された第2の隠し領域1225が生じてしまう。ただし、内部映像1218Aにおいて、内部映像1218Bにおける第2の隠し領域1225に対応する内視対象物の内部領域が写っており、同様に、内部映像1218Bにおいて、内部映像1218Aにおける第1の隠し領域1220に対応する内視対象物の内部領域が写っている。
【0077】
従って、任意の既存の映像加工手段を用いることで、内部映像1218Aにおける第1の隠し領域1220を内部映像1218Bで補足し、内部映像1218Bにおける第2の隠し領域1225を内部映像1218Aで補足するように内部映像1218A及び内部映像1218Bを結合することで、それぞれの隠し領域を補い、内視対象物の内部領域全体が写る結合画像(すなわち、内部映像)を得ることができる。また、このように結合した内部映像を用いて上述したCGモデルを生成することで、より完全なCGモデルを生成することができ、内視対象物の内部の状態をより正確に把握することができる。
【0078】
以上、本開示の実施の形態について説明したが、本開示は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
【符号の説明】
【0079】
200 内視映像表示システム
205 クライアント端末
210 センサ装置
220 ストレージ部
222 内部情報
225 ネットワーク
230 計算装置
232 通信部
234 モデル生成部
236 内視映像生成部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12