IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 学校法人金沢工業大学の特許一覧

特開2024-66747情報処理装置、映像表示システム、情報処理方法およびプログラム
<>
  • 特開-情報処理装置、映像表示システム、情報処理方法およびプログラム 図1
  • 特開-情報処理装置、映像表示システム、情報処理方法およびプログラム 図2
  • 特開-情報処理装置、映像表示システム、情報処理方法およびプログラム 図3
  • 特開-情報処理装置、映像表示システム、情報処理方法およびプログラム 図4
  • 特開-情報処理装置、映像表示システム、情報処理方法およびプログラム 図5
  • 特開-情報処理装置、映像表示システム、情報処理方法およびプログラム 図6
  • 特開-情報処理装置、映像表示システム、情報処理方法およびプログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024066747
(43)【公開日】2024-05-16
(54)【発明の名称】情報処理装置、映像表示システム、情報処理方法およびプログラム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20240509BHJP
   G06F 3/04815 20220101ALI20240509BHJP
【FI】
G06T19/00 A
G06F3/04815
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022176402
(22)【出願日】2022-11-02
(71)【出願人】
【識別番号】593165487
【氏名又は名称】学校法人金沢工業大学
(74)【代理人】
【識別番号】100105924
【弁理士】
【氏名又は名称】森下 賢樹
(72)【発明者】
【氏名】徳永 雄一
【テーマコード(参考)】
5B050
5E555
【Fターム(参考)】
5B050AA03
5B050BA09
5B050BA11
5B050BA13
5B050BA17
5B050CA07
5B050CA08
5B050DA04
5B050EA04
5B050EA26
5B050FA02
5B050FA05
5E555AA05
5E555AA11
5E555AA27
5E555AA63
5E555BA02
5E555BA05
5E555BA06
5E555BA38
5E555BA90
5E555BB02
5E555BB05
5E555BB06
5E555BB40
5E555BC04
5E555BC21
5E555BE16
5E555CC22
5E555DA08
5E555DB53
5E555DB57
5E555DC09
5E555DC19
5E555EA07
5E555EA08
5E555EA11
5E555EA22
5E555EA25
5E555FA00
(57)【要約】
【課題】仮想空間における三人称視点の無人航空機の映像を簡便に実現する技術を提供する。
【解決手段】情報処理装置は、地形の高さ情報を平面上にマッピングした地形データを記憶する記憶部と、無人航空機の位置情報および無人航空機の周辺環境に存在する物体の位置情報に基づいて、無人航空機の3Dモデルである航空機モデルおよび物体の3Dモデルである物体モデルを地形データに重畳することによって、周辺環境モデルを生成する生成部と、を備える。
【選択図】図3
【特許請求の範囲】
【請求項1】
地形の高さ情報を平面上にマッピングした地形データを記憶する記憶部と、
無人航空機の位置情報および前記無人航空機の周辺環境に存在する物体の位置情報に基づいて、前記無人航空機の3Dモデルである航空機モデルおよび前記物体の3Dモデルである物体モデルを前記地形データに重畳することによって、周辺環境モデルを生成する生成部と、を備える、
情報処理装置。
【請求項2】
前記物体は、移動体であり、
前記生成部は、前記物体の位置情報の時間的な変化に応じて前記物体モデルの位置が時間的に変化するように、前記物体モデルを前記地形データに重畳させる、
請求項1に記載の情報処理装置。
【請求項3】
前記物体は、前記無人航空機を第1の無人航空機とするとき、前記第1の無人航空機とは異なる第2の無人航空機である、
請求項2に記載の情報処理装置。
【請求項4】
前記生成部は、物体の三次元点群データに基づき当該物体を分類する分類器を含み、
前記記憶部は、分類に応じた物体モデルの形態に関する情報をさらに記憶する、
請求項1に記載の情報処理装置。
【請求項5】
前記生成部は、物体の三次元点群データに基づき当該物体の形状に関する特徴情報を取得し、前記特徴情報に基づいて前記物体モデルを生成する、
請求項1に記載の情報処理装置。
【請求項6】
前記生成部は、前記物体の高さ情報に基づいて、前記物体の高さを示す物体モデルを生成する、
請求項1に記載の情報処理装置。
【請求項7】
請求項1に記載の情報処理装置と、
前記周辺環境モデルに基づく映像を表示する表示装置と、を備える、
映像表示システム。
【請求項8】
仮想的な三次元空間における前記周辺環境モデルの視点を決定する視点決定装置をさらに備え、
前記表示装置は、前記視点決定装置によって決定された視点から見た前記周辺環境モデルの映像を表示する、
請求項7に記載の映像表示システム。
【請求項9】
地形の高さ情報を平面上にマッピングした地形データを記憶することと、
無人航空機の位置情報および前記無人航空機の周辺環境に存在する物体の位置情報に基づいて、前記無人航空機の3Dモデルである航空機モデルおよび前記物体の3Dモデルである物体モデルを、仮想的な三次元空間において前記地形データに重畳することによって周辺環境モデルを生成することと、を含む、
情報処理方法。
【請求項10】
コンピュータに、
地形の高さ情報を平面上にマッピングした地形データを記憶することと、
無人航空機の位置情報および前記無人航空機の周辺環境に存在する物体の位置情報に基づいて、前記無人航空機の3Dモデルである航空機モデルおよび前記物体の3Dモデルである物体モデルを、仮想的な三次元空間において前記地形データに重畳することによって周辺環境モデルを生成することと、
を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、映像表示システム、情報処理方法およびプログラムに関する。
【背景技術】
【0002】
従来、無人航空機を含む映像をカメラで撮像し、三人称視点(TPV)の映像を操縦者に提供する技術が知られている。たとえば、特許文献1には、移動体と、移動体を遠隔操作する操縦装置と、を備え、移動体は自機を撮影可能な撮影手段を有することを特徴とする遠隔操縦システムが開示されている。また、特許文献2には、単数または複数の回転翼と、自機の周囲の映像を撮影可能な撮影手段と、を備え、空中の一点に静止することが可能な無人航空機である監視機と、無線通信により無人移動体を遠隔操作可能な操縦端末と、監視機と無線接続され、撮影手段で撮影された映像を表示可能な表示装置と、を用いた無人移動体の操縦方法が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2021-036415号公報
【特許文献2】特開2017-087916号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載の技術では、自機を撮影できる位置までカメラ(撮影手段)を遠ざけるためのアームが必要となる。また、特許文献2に記載の技術では、撮影される無人移動体とは別に、撮影用の無人航空機が必要となる。このため、特許文献1,2に記載の技術では、三人称視点の無人航空機の映像を簡便に実現することができなかった。
【0005】
本発明はこうした状況に鑑みてなされたものであり、その例示的な目的の一つは、仮想空間における三人称視点の無人航空機の映像を簡便に実現するための技術を提供することにある。
【課題を解決するための手段】
【0006】
本発明のある態様は、情報処理装置である。情報処理装置は、地形の高さ情報を平面上にマッピングした地形データを記憶する記憶部と、無人航空機の位置情報および無人航空機の周辺環境に存在する物体の位置情報に基づいて、無人航空機の3Dモデルである航空機モデルおよび物体の3Dモデルである物体モデルを地形データに重畳することによって、周辺環境モデルを生成する生成部と、を備える。
【0007】
物体は、移動体であってよく、生成部は、物体の位置情報の時間的な変化に応じて物体モデルの位置が時間的に変化するように、物体モデルを地形データに重畳させてよい。
【0008】
物体は、無人航空機を第1の無人航空機とするとき、第1の無人航空機とは異なる第2の無人航空機であってよい。
【0009】
生成部は、物体の三次元点群データに基づき当該物体を分類する分類器を含んでよい。記憶部は、分類に応じた物体モデルの形態に関する情報をさらに記憶してよい。
【0010】
生成部は、物体の三次元点群データに基づき当該物体の形状に関する特徴情報を取得し、特徴情報に基づいて物体モデルを生成してよい。
【0011】
生成部は、物体の高さ情報に基づいて、物体の高さを示す物体モデルを生成してよい。
【0012】
本発明の別の態様は、映像表示システムである。映像表示システムは、上記情報処理装置と、周辺環境モデルに基づく映像を表示する表示装置と、を備える。
【0013】
映像表示システムは、仮想的な三次元空間における周辺環境モデルの視点を決定する視点決定装置をさらに備えてよい。表示装置は、視点決定装置によって決定された視点から見た周辺環境モデルの映像を表示してよい。
【0014】
本発明の別の態様は、情報処理方法である。情報処理方法は、地形の高さ情報を平面上にマッピングした地形データを記憶することと、無人航空機の位置情報および無人航空機の周辺環境に存在する物体の位置情報に基づいて、無人航空機の3Dモデルである航空機モデルおよび物体の3Dモデルである物体モデルを、仮想的な三次元空間において地形データに重畳することによって周辺環境モデルを生成することと、を含む。
【0015】
本発明の別の態様は、プログラムである。プログラムは、コンピュータに、地形の高さ情報を平面上にマッピングした地形データを記憶することと、無人航空機の位置情報および無人航空機の周辺環境に存在する物体の位置情報に基づいて、無人航空機の3Dモデルである航空機モデルおよび物体の3Dモデルである物体モデルを、仮想的な三次元空間において地形データに重畳することによって周辺環境モデルを生成することと、を実行させるためのものである。
【0016】
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
【発明の効果】
【0017】
本発明によれば、仮想空間における三人称視点の無人航空機の映像を簡便に実現する技術を提供できる。
【図面の簡単な説明】
【0018】
図1】本発明の一実施形態に係る映像表示システムの構成例を示す図である。
図2】同実施形態に係る無人航空機の機能ブロック図である。
図3】同実施形態に係るサーバの機能ブロック図である。
図4】同実施形態に係る無人航空機が備えるカメラが撮影した画像の一例を示す図である。
図5】同実施形態に係る周囲環境モデルに基づく画像の一例を示す図である。
図6】同実施形態に係る映像表示システムの動作例を示すフローチャートである。
図7】本発明の一実施形態に係るサーバおよびユーザ端末のハードウェア構成を示す図である。
【発明を実施するための形態】
【0019】
[実施形態]
以下、図面を参照しながら、本発明を実施するための形態について詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を適宜省略する。また、以下に述べる構成は例示であり、本発明の範囲を何ら限定するものではない。
【0020】
図1は、本発明の一実施形態に係る映像表示システム1の構成例を示す図である。本実施形態に係る映像表示システム1は、無人航空機10、サーバ20(情報処理装置)、操縦装置30、ユーザ端末40および表示装置50を備える。無人航空機10、サーバ20およびユーザ端末40は、必要に応じて互いに情報を送受信できるように、ネットワーク5に接続されている。ネットワーク5は、たとえばインターネット、LAN(Local Area Network)またはWAN(Wide Area Network)などであってよい。
【0021】
無人航空機10は、遠隔から操縦されるものであり、本実施形態ではドローンである。本実施形態に係る無人航空機10は、操縦装置30と無線通信を行うことができるように操縦装置30と接続されており、操縦装置30から受信した制御信号に基づいて飛行動作を行う。なお、無人航空機10および操縦装置20は、図1に示すように直接の無線通信で接続されるほか、ユーザ端末40に組み込まれ、ネットワーク5を経由して無人航空機10と接続される構成でもよい。この場合、インターネットによる通信遅延および接続断による操縦不能状態の問題については、解決されている前提である。本実施形態に係る無人航空機10は、カメラおよび各種のセンサなどを有しており、各種のデータを取得できる。無人航空機10は、取得したデータをネットワーク5を通じてサーバ20に送信できる。
【0022】
サーバ20は、仮想空間における三人称視点の映像を生成するための各種の情報処理を行う。具体的には、サーバ20は、無人航空機10の3Dモデルである航空機モデルおよび物体の3Dモデルである物体モデルを地形データに重畳した周辺環境モデルを生成し、その周囲環境モデルをユーザ端末40に送信する。
【0023】
操縦装置30は、各種の公知の通信装置を備え、操縦者の操作に応じて無人航空機10と無線通信を行い、無人航空機10を操縦する。具体的には、操縦装置30は、ボタンまたはスティックなどの操作部を備え、操縦者による操作部の操作に応じて、無人航空機10の飛行動作を制御するための制御信号を無人航空機10に送信する。
【0024】
また、本実施形態に係る操縦装置30は、ユーザ端末40に各種の情報を送信できるように、有線または無線でユーザ端末40と接続されている。たとえば、操縦装置30は、操縦者の操作に応じて、仮想空間において周囲環境モデルを見る視点を指示する情報をユーザ端末40に送信できる。
【0025】
ユーザ端末40は、表示装置50に映像を表示させるための各種の情報処理を行う。たとえば、ユーザ端末40は、サーバ20から周囲環境モデルを受信し、周囲環境モデルに基づく映像データを送信できる。ユーザ端末40は、たとえば、スマートフォン、タブレット端末およびPC(Personal Computer)などで構成されてよい。
【0026】
ユーザ端末40は、視点決定装置としての機能を有し、仮想的な三次元空間における周辺環境モデルの視点を決定できる。具体的には、ユーザ端末40は、仮想空間における視点を指示する情報を操縦装置30から受信し、その視点から見た周囲環境モデルの3D映像データを生成できる。ユーザ端末40は、表示装置50に情報を送信できるように、無線または有線で表示装置50に接続されている。たとえば、ユーザ端末40は、3D映像データを表示装置50に送信できる。
【0027】
表示装置50は、画像を表示することができる各種の公知の装置で構成され、たとえば、VR(Virtual Reality)ゴーグルなどで構成されてよい。表示装置50は、周囲環境モデルに基づく三人称視点の映像を表示できる。この映像には、地形、地形とは分離された物体および無人航空機10のそれぞれの3Dモデルが含まれる。無人航空機10の操縦者は、表示装置50に表示される仮想的な三人称視点の映像を見ながら無人航空機10を操縦できる。
【0028】
なお、上述したユーザ端末40は、操縦装置30からの指示によらず、自動的に視点を決定してよい。ユーザ端末40は、後述するようにサーバ20が物体モデルに関する情報を取得した結果に基づいて、たとえば、障害物(他の無人航空機など)を見る方向に視点を決定してよい。これにより、操縦者は、表示装置50に表示される映像を見ることにより、危険な障害物を把握し易くなり、操縦に注力することが可能となる。
【0029】
図2は、本発明の一実施形態に係る無人航空機10の機能ブロック図である。本実施形態に係る無人航空機10は、取得部100、通信部120、駆動部140および制御部160を備える。
【0030】
取得部100は、各種の情報を取得する。本実施形態に係る取得部100の機能は、カメラ102、センサ部104および位置情報取得装置106が協働することにより実現される。
【0031】
カメラ102は、無人航空機10の周囲の映像を撮影し、映像データを取得できる。カメラ102は、各種の公知の撮影可能な装置で構成されてよく、本実施形態では、LiDAR(Light Detection and Ranging)の機能を有し、取得される物体の位置情報および色情報を持つ三次元点群データを取得できる。カメラ102が取得したデータ(たとえば映像データおよび三次元点群データなど)は、通信部120に伝達される。
【0032】
センサ部104は、各種のセンサ情報を取得する。センサ部104は、たとえば、加速度センサ、角速度センサ、地磁気センサ(方位センサ)を含み、たとえば無人航空機10の姿勢情報(方位角、傾きなど)を取得できる。また、センサ部104は、周囲環境に存在する物体までの位置関係を測定するための装置を含んでよく、具体的には、TOF(Time of Flight)センサなどを含んでよい。センサ部104が取得したセンサ情報は、必要に応じて、通信部120および制御部160に伝達される。
【0033】
位置情報取得装置106は、無人航空機10の位置情報(たとえば緯度、経度および高度など)を取得する装置である。位置情報取得装置106は、たとえばGPS(Global Positioning System)受信機、GNSS(Global Navigation Satellite System)受信機または気圧センサ(高度センサ)などを有してよい。位置情報取得装置106が取得した位置情報は、必要に応じて、通信部120および制御部160に伝達される。
【0034】
通信部120は、各種の情報を送受信する。通信部120は、各種の公知の通信装置で構成されてよい。通信部120は、たとえば、映像データ、三次元点群データ、センサ情報および姿勢情報などをサーバ20に送信してよい。また、通信部120は、操縦装置30から制御信号を無線通信で受信し、受信した制御信号を制御部160に伝達してよい。
【0035】
駆動部140は、無人航空機10が飛行動作を行うために駆動する。本実施形態では、駆動部140は、複数のロータを有し、それぞれのロータは、ブレードおよびブレードを回転させるためのモータを有する。それぞれのモータがブレードを回転させることで無人航空機10が飛行する。
【0036】
制御部160は、無人航空機10の飛行動作を制御する。具体的には、制御部160は、取得部100が取得した情報(たとえばセンサ情報など)および操縦装置30からの制御信号などに基づいて、駆動部140のロータの回転動作を制御することにより、無人航空機10の飛行動作を制御する。
【0037】
図3は、本発明の一実施形態に係るサーバ20の機能ブロック図である。図3に示すように、本実施形態に係るサーバ20は、通信部200、記憶部220および生成部240を備える。
【0038】
通信部200は、各種の情報を他の装置と送受信する。通信部200は、たとえば、映像データ、三次元点群データ、センサ情報および位置情報を無人航空機10から受信し、これらの情報を生成部240に伝達する。また、通信部200は、後述するように生成部240が生成した周囲環境モデルをたとえばユーザ端末40に送信してよい。
【0039】
記憶部220は、各種の情報を記憶する。記憶部220は、生成部240が周囲環境モデルを生成するためのプログラム、各種の3Dモデルに関する情報および地形データなどを記憶してよい。
【0040】
3Dモデルに関する情報は、たとえば形態情報を含み、具体的には、3Dモデルの形状、大きさおよび色などを含んでよい。形態情報は、物体の種別(たとえば、無人航空機10、ドローン、樹木および電柱など)に対応付けて記憶されてよい。また、各形態情報は、分類(たとえば種別)に応じた情報として記憶されてよく、より具体的には、後述する物体モデル取得部244が有する分類器による分類の識別情報と対応付けられて記憶されてよい。
【0041】
地形データは、地形の高さ情報を平面上にマッピングしたデータである。地形データによって、水平面に対する地形の起伏が表現される。地形データは、各種の公知の地図データベースによって実現されてよい。地形は、自然物(たとえば山など)で構成されてよいし、人工物(たとえば建造物など)で構成されてよい。
【0042】
生成部240は、無人航空機10の位置情報および無人航空機10の周辺環境に存在する物体の位置情報に基づいて、無人航空機10の3Dモデルである航空機モデルおよび物体の3Dモデルである物体モデルを地形データに重畳することによって、周辺環境モデルを生成する。生成部240の機能は、航空機モデル取得部242、物体モデル取得部244および重畳部246が協働することにより実現される。
【0043】
航空機モデル取得部242は、航空機モデルに関する情報を取得する。具体的には、航空機モデル取得部242は、無人航空機10から送信された情報に基づき、無人航空機10の位置情報および姿勢情報などを取得する。また、航空機モデル取得部242は、予め規定された航空機モデルに関する形態情報(たとえば形状および大きさなど)を記憶部220から取得する。航空機モデル取得部242は、無人航空機10の位置情報および姿勢情報とともに、航空機モデルの形態情報を重畳部246に伝達する。
【0044】
物体モデル取得部244は、物体モデルに関する情報を取得する。物体は、たとえば、他の無人航空機(たとえばドローンなど)、電線、樹木、自動車または人などであってよい。
【0045】
物体モデル取得部244は、無人航空機10から送信された情報から物体モデルに関する情報を抽出する。具体的には、物体モデル取得部244は、カメラ102によって取得された三次元点群データのうち、地形データに含まれない部分を物体モデルに関する情報として抽出する。たとえば、物体モデル取得部244は、三次元点群データのうち地形データで規定される地形よりも高い位置に存在する部分を、物体の三次元点群データとして抽出してよい。
【0046】
物体モデル取得部244は、物体の形状および大きさなどの物体モデルの形態情報を取得する。具体的には、物体モデル取得部244は、抽出した物体の三次元点群データに基づいて、当該物体の形状および大きさなどを取得してよい。あるいは、物体モデル取得部244は、たとえば三次元点群データなどに基づいて物体の種別を特定し、予め記憶部220に記憶されている特定された種別の物体モデルの形態情報(形状および大きさなど)を取得してよい。
【0047】
物体モデル取得部244は、無人航空機10からサーバ20に送信された情報(三次元点群データおよびセンサ情報など)に基づき、無人航空機10に対する物体の相対座標を取得する。さらに、物体モデル取得部244は、無人航空機10の位置情報および姿勢情報に基づき、物体の相対座標を絶対座標に変換し、物体モデルの形態情報とともに絶対座標を重畳部246に伝達する。
【0048】
物体モデル取得部244は、地形とは切り離された物体に関する情報(たとえば位置情報など)を時間経過とともに観察し、地上に対して移動しているか否かを見極める。これは、対象物体の地上に対する推定位置が時間とともに変化することで判定することができる。
【0049】
物体が移動体(たとえば、ドローン、風船、鳥、車両および人など)である場合には、物体モデル取得部244は、時間の経過に応じて変化する物体の代表的な位置情報を重畳部246に伝達する。このとき、物体モデル取得部244は、時間の経過に応じて三次元点群データに基づいて物体の形態を算出しなくてよい。たとえば、物体モデル取得部244は、最初に一度だけ三次元点群データに基づき物体モデルの形態、特に大きさを算出し、その後は、その物体の位置情報(たとえば絶対座標など)のみを重畳部246に伝達してよい。
【0050】
物体モデル取得部244は、機械学習に基づき構築された分類器を有してよい。この分類器は、たとえば三次元点群データを入力として、その物体の分類(たとえば種別など)を示す識別情報を出力するように構築されてよい。物体モデル取得部244は、このような分類器を用いて物体の分類が可能であれば、分類できた時点で一度だけ位置情報とともに分類の識別情報を重畳部246に伝達してもよい。この識別情報に基づいて、分類された物体の種別に応じた形態情報などが記憶部220から取得され、識別された物体の3Dモデルが生成される。これにより、時間の経過とともに物体モデルの形態を算出する場合と比べて、物体モデルを生成するための処理量を低減できる。
【0051】
物体が静止体(たとえば、電柱、木、橋脚、クレーン車などの重機、停止車両や立ち止まっている人など)である場合には、物体モデル取得部244は、三次元点群データに基づき物体の形態を算出する。このとき、物体モデル取得部244は、物体の三次元点群データに基づき物体の形状に関する特徴情報を取得し、その特徴情報に基づいて物体モデルを生成してよい。たとえば、物体モデル取得部244は、遠方にある状態で物体の位置と大まかな突出部の座標を特定し、必要最小のポリゴン数で物体をモデル化できる。その後、物体モデル取得部244は、物体接近時には、物体の外観範囲の三次元点群データを用いて、対象モデルを詳細化していく。このように、物体の形状を時間の経過とともに詳細化していくことで、処理の平準化を図り、物体モデルを生成するための処理量を低減できる。
【0052】
なお、飛行高度に入らない低空部の静止体(停止車両および立ち止まっている人など)については、主として、その物体の高さ情報に基づき生成されてよく、より具体的には、地形データと同様に、物体の高さ情報のみで物体モデルが生成されてもよい。詳細な3Dモデルが必要な理由は、橋の橋脚の間をくぐるなどの物体の下部を飛行するための考慮であり、そのような必要のない低空部は、物体と衝突しない高度がわかればよい。これも、物体モデルを生成するための処理量の低減に貢献する。
【0053】
重畳部246は、無人航空機10の位置情報および物体の位置情報に基づいて、航空機モデルおよび物体モデルを地形データに重畳することによって周辺環境モデルを生成する。具体的には、重畳部246は、無人航空機10の位置情報に基づいて、地形データに航空機モデルを重畳する。このとき、重畳部246は、無人航空機10の姿勢情報に基づいて、航空機モデルの姿勢を調整したうえで、航空機モデルを地形データに重畳してよい。また、重畳部246は、物体の位置情報(絶対座標)に基づいて、地形データに物体モデルを重畳する。このように地形データに航空機モデルおよび物体モデルが重畳されることにより、周囲環境モデルが生成される。したがって、周囲環境モデルは、航空機モデル、物体モデルおよび地形の3Dモデルを含んだモデルとなる。重畳部246は、生成した周囲環境モデルを通信部120に伝達する。
【0054】
また、重畳部246は、物体が移動体である場合には、物体の位置情報を取得し、物体の位置情報の時間的な変化に応じて物体モデルの位置が時間的に変化するように、物体モデルを地形データに重畳させてよい。これにより、物体モデルが移動する様子を3Dモデルで実現できるようになる。
【0055】
図4および図5を参照して、本発明の一実施形態に係る映像表示システム1が周囲環境モデルを生成し、その周囲環境モデルに基づく映像を表示する例を説明する。図4は、本実施形態に係る無人航空機10が備えるカメラ102が撮影した画像の一例を示す図であり、図5は、生成された周囲環境モデルに基づく画像の一例を示す図である。
【0056】
図4に示すように、カメラ102が撮影した画像には、田んぼ600、鉄塔602、電柱610、電線612およびドローン614などが含まれる。ここで、田んぼ600の地表および鉄塔602は、地形データに含まれており、電柱610、電線612、田んぼ600の草およびドローン614は、地形データに含まれていないものとする。
【0057】
サーバ20の物体モデル取得部244は、電柱610および電線612の三次元点群データを抽出し、その三次元点群データに基づいて電柱610および電線612の3Dモデルを生成する。なお、電柱および電線の形態情報が予め記憶部220に格納されている場合には、物体モデル取得部244は、三次元点群データを用いずに、記憶部220に記憶された形態情報に基づいて3Dモデルを生成してよい。物体モデル取得部244は、生成した3Dモデルをその位置情報とともに重畳部246に伝達し、重畳部246は、生成された電柱610および電線612の3Dモデルを地形データに重畳する。
【0058】
物体モデル取得部244は、田んぼ600の草についても物体モデルを生成するための情報を取得してよい。このとき、草の高さはドローン(無人航空機10)の飛行高度に対し十分低いため、3Dモデルではなく、地形に対する高さのみの情報で物体モデルが生成され得る。物体モデル取得部244は、この情報も重畳部246に伝達し、重畳部246は、地形を底上げする形で田んぼ600の草の物体モデルを地形データに重畳してよい。
【0059】
物体モデル取得部244は、たとえば画像に基づいて、ドローン614を認識できる。物体モデル取得部244は、記憶部220に格納されているドローン614の形態情報を取得し、ドローン614の3Dモデルを生成する。なお、物体モデル取得部244は、三次元点群データを用いたドローン614の形態情報を算出してよい。物体モデル取得部244は、生成したドローン614の3Dモデルとともにドローン614の位置情報を重畳部246に伝達する。重畳部246は、ドローンの614の位置情報に基づいて、地形データにドローン614の3Dモデルをさらに重畳する。
【0060】
重畳部246は、無人航空機10の位置情報および姿勢情報に基づいて、各種の物体モデルが重畳された地形データに航空機モデルを重畳させる。このように、地形データに各種の物体モデルおよび航空機モデルが重畳されることにより、周囲環境モデルが生成される。このようにして生成された周囲環境モデルは、ユーザ端末40に送信される。ユーザ端末40は、たとえば操縦装置30から送信された信号に基づき、仮想空間における視点を決定し、決定した視点から見た周囲環境モデルの3D映像データを生成し、表示装置50にその3D映像データを送信する。表示装置50は、この3D映像データを用いて映像を表示する。
【0061】
図5に示すように、周囲環境モデルに基づき生成された画像には、地形データに基づく3Dモデルである地形モデル70、各種の物体モデルおよび航空機モデル720が含まれる。地形モデル70は、田んぼ600の地表を表す3Dモデル700および鉄塔602の3Dモデル702を含む。また、物体モデルは、電柱610の3Dモデル710、電線612の3Dモデル712およびドローン614の3Dモデル714を含む。無人航空機10の操縦者は、図5に示されるような航空機モデル720を含む三人称視点の映像を見ながら無人航空機10を操縦できる。
【0062】
図6は、本発明の一実施形態に係る映像表示システム1の動作例を示すフローチャートである。以下、図6に示すフローチャートに沿って、映像表示システム1の動作例を説明する。
【0063】
まず、無人航空機10は、物体および自機に関する各種の情報を取得する(S101)。具体的には、無人航空機10は、映像データ、三次元点群データ、センサ情報および位置情報などを取得する。次いで、無人航空機10は、S101において取得した情報をサーバ20に送信する(S103)。
【0064】
サーバ20は、無人航空機10から送信された情報に基づいて、物体モデルおよび航空機モデルに関する情報を取得する(S105)。次いで、サーバ20は、地形データに物体モデルおよび航空機モデルを重畳することによって周囲環境モデルを生成する(S107)。次いで、サーバ20は、生成した周囲環境モデルをユーザ端末40に送信する(S109)。
【0065】
ユーザ端末40は、仮想的な三次元空間において周囲環境モデルを見る視点を決定する(S111)。このとき、ユーザ端末40は、操縦者の指示に応じて視点を決定してよい。ユーザ端末40は、決定した視点から見た周囲環境モデルの3D映像データを表示装置50に送信する(S113)。表示装置50は、3D映像データに基づいて3D映像を表示する(S115)。
【0066】
本実施形態に係る映像表示システム1によれば、地形、障害物などの物体、自機を3Dモデルとして合成し、合成した3Dモデルを用いて任意の視点の映像を表示できる。このため、本実施形態に係る映像表示システム1は、現実空間と同様の状況を仮想空間上に実現し、その仮想空間を自機を含めた映像として出力できる。したがって、仮想空間における三人称視点の映像を実現できる。
【0067】
上述のように、特許文献1および2では、三人称視点の映像を実現するために、特別なハードウェアを用意する必要があった。本実施形態に係る映像表示システム1によれば、特別なハードウェアを用意しなくとも、三人称視点の映像を実現できる。具体的には、本実施形態に係る映像表示システム1によれば、無人航空機が、前方を映すカメラ、位置情報を取得するための装置(たとえばGPS受信機など)および通信装置を備えていれば、どのような無人航空機についても三人称視点の映像を提供できる。したがって、本実施形態に係る映像表示システム1によれば、仮想空間における三人称視点の無人航空機の映像を簡便に実現できる。
【0068】
また、本実施形態に係る映像表示システム1によれば、生成した周囲環境モデルあるいは周囲環境モデルに基づく映像データをインターネット配信できる。これにより、世界のどこからでも、仮想空間における三人称視点の映像を見ることができ、その映像を見ながら無人航空機を遠隔で操縦することが可能となる。
【0069】
2022年より、ドローンは、リモートIDの発信が義務づけられている。リモートIDの情報には、たとえば登録番号、製造番号および位置情報などが含まれている。映像表示システム1は、リモートIDの情報を収集することにより、自機の3Dモデルの生成と同様に他機の3Dモデルを生成できる。他機の3Dモデルを周囲環境モデルに加えることにより、自機と他機との位置関係を把握することが可能となる。
【0070】
また、映像表示システム1は、無人航空機10が飛行するに際してのリスクに応じた色を付した映像を表示してよい。具体的には、サーバ20の生成部240は、リスクに応じた色を空間グリッドに付して周囲環境モデルを生成してよい。たとえば、生成部240は、定常的に事故の起き易い場所にそのリスクを示す色(たとえば赤色など)を付して周囲環境モデルを生成してよい。あるいは、生成部240は、無人航空機10が衝突する可能性が比較的高い障害物または他のドローンなどに、そのリスクを示す色で表現してよい。これにより、3D映像では、自機が衝突しやすい場所、物体およびその近傍がリスクを示す色で表示される。これにより、操縦者は、3D映像に表示される色を無人航空機10に安全地帯を飛行させるための指針とし、たとえばその色を避けるように無人航空機10を操縦できる。
【0071】
一人称視点(FPV)で映像が表示される場合には、臨場感があるものの、操縦者は、自機と周辺の障害物との距離感覚をつかみにくく、自機が障害物と衝突する危険が生じ易い。ドローンが障害物を回避するように操縦を行うためには練習が必要となる。一方、三人称視点は、無人航空機10の外から捉えた視点であり、三人称視点の映像では、自機を含む周囲環境が映されるため、自機と障害物などとの位置関係は、一人称視点と比べて認識し易い。このため、操縦者は、三人称視点の映像を見ることにより、無人航空機10の飛行の妨げとなる障害物に気づき、接触危険性を判断して、必要な場合には回避操縦を実施し、無人航空機10が障害物と接触することによる墜落事故を抑制できる。
【0072】
本実施形態に係る映像表示システム1は、各種の分野で利用され得る。たとえば、ドローンを無人航空機10に使用し、物流、監視、点検および農林業において、特に周辺に障害物が存在する空間をドローンが飛行する場合などに広く利用できる。
【0073】
John Thomasonらが発表した参考文献1では、仮想空間上でロボットを操作する際の視覚支援をドローンに応用する操作方法が報告されており、仮想空間を作成する仕組みが説明されている。この仕組みによると、高視野角カメラで取得した3DポイントクラウドデータをLSD-SLAM(Large-Scale Direct Monocular Simultaneous Localization and Mapping)と呼ばれるアルゴリズムで空間にマッピングし、現実世界を模した仮想空間が再現される。この仮想空間にドローンのモデルを重ねることによって、三人称視点が構築される。
【0074】
参考文献1に記載の方法では、仮想空間に現実空間を模し、設定した視点からの仮想空間の映像を表示し、操縦者はドローンを操縦する。ただし、参考文献1では、静的な環境に対しての三人称視点が前提となっており、移動体はノイズとして扱われる。実際には、空間および地上には移動する障害物が存在するが、参考文献1の方法ではそれらが映像化されない点が課題となる。また、LSD-SLAMにて空間の点群データを処理する方法は、計算機負荷が高く、遅延が発生する。その点は参考文献1においても示されている。
【0075】
本実施形態に係る映像表示システム1では、障害物と地形とを別々に3Dモデルとして生成し、これらの3Dモデルを合成することによって周囲環境モデルを生成する。その結果、大きなデータとなる地形については地図データから取得して地形の3Dモデルを仮想空間に生成し、無人航空機10の位置情報に基づき航空機モデルを仮想空間に生成する。このため、無人航空機10からリアルタイムに地形に関するデータを伝送する必要はない。
【0076】
加えて、本実施形態に係る地形データは、各点(X,Y,Z)にカラーの数値データが必要な3Dポイントクラウドデータではなく、XY平面に対する高さのみのデータである。これにより、地形に関するデータの伝送量および仮想空間の計算量を大幅に削減できる。
【0077】
障害物については、無人航空機10に搭載された前方を写すカメラを用いて映像データを取得し、三次元点群データを取得する。障害物を検知した時点で障害物を3Dモデル化し、以後はカメラの画像データなどに基づいて障害物の位置情報を推定し、3Dモデルを再配置する方法とする。このため本実施形態では、リアルタイムで障害物の三次元点群データを取得して3Dモデルを配置する場合よりも、1つ1つの障害物に関して少ない情報で障害物の3Dモデルを実現できる。
【0078】
なお、障害物は、それが何か(たとえば物体の種別など)ということと、自機と障害物との位置関係をつかめることができれば十分であるため、忠実に障害物を模写した3Dモデルを生成する必要はない。あらかじめ形態(形状および大きさなど)が明らかな物体(たとえば、自動車および人など)には、予め標準化した3Dモデルを使うこともできる。以上は、本実施形態に係るサーバ20の物体モデル取得部244で分離し、それを重畳部246で再合成する構成により実現される。
【0079】
参考文献2に係るゼミ発表資料「ポイントクラウドデータを用いた三人称視点ドローンの検討」には、仮想空間の映像を見ながらドローンを操縦する利点が示され、三人称視点を生成する様子が描かれている。しかしながら、参考文献2では、参考文献1と同様に、すべての3Dモデルが3Dポイントクラウドデータを使用して生成されている。したがって、参考文献2に記載の方法では、3Dモデルを生成するための処理が重く、また、移動する障害物に対応ができない。
【0080】
なお、参考文献1,2には記載はないが、いずれの文献も屋内を想定していると考えられる。屋内では、GPSおよびGNSSを使えないため、自機と周辺の物体との位置関係を取得するためには、カメラ映像を利用するLSD-SLAMなどを使う必要がある。また、ドローンが飛行する空間が限られるため、他の移動する障害物を考慮する必要はない。
【0081】
一方、本実施形態に係る映像表示システム1は、市街地における目視外での飛行(レベル4)を見越したものであり、GPSおよびGNSSを用いて自機の位置情報をリアルタイムに取得できることを利用する。また、本実施形態に係る映像表示システム1は、地上も含め移動体が多い市街地環境を想定する。本実施形態に係る映像表示システム1は、地形と障害物とで3Dモデルを分離し、操縦者の近傍(たとえば地上PCなど)で3Dモデルを合成する。これにより、データ伝送の負荷および計算負荷を下げ、リアルタイムに操縦者を映像で支援できる。
【0082】
(参考文献)
1.John Thomason, Photchara Ratsamee, Kiyoshi Kiyokawa, Pakpoom Kriangkomol, Jason Orlosky, Tomohiro Mashita, Yuki Uranishi, Haruo Takemura, "Adaptive View Management for Drone Teleoperation in Complex 3D Structures", Intelligent User Interface, 2017, p.419-p.426
2.https://dl.acm.org/doi/abs/10.1145/3025171.3025179
【0083】
[ハードウェア構成]
図7は、本発明の一実施形態に係るサーバ20およびユーザ端末40のハードウェア構成を示す図である。サーバ20およびユーザ端末40は、プロセッサ90、記憶装置92、入力操作を受け付ける入力装置94および情報の出力を行う出力装置96を備える。プロセッサ90は、CPU(Central Processing Unit)およびGPU(Graphical Processing Unit)などを含む。記憶装置92は、メモリ、HDD(Hard Disk Drive)およびSSD(Solid State Drive)などを含む。入力装置94は、たとえば、キーボード、タッチパネル、マウスおよびマイクなどを含む。出力装置96は、たとえば、ディスプレイ、タッチパネルおよびスピーカなどを含む。
【0084】
[応用例]
上記実施形態では、主として、無人航空機10を屋外で操縦する例を説明した。これに限らず、無人航空機10は、屋内で操縦されてよい。この場合、地形データは、たとえば、建物のレイアウトおよび配置されている固定物(たとえば机および棚など)に応じた高さ情報を平面上にマッピングしたデータであってよい。
【0085】
さらに、屋内の場合には、屋外と異なり天井が存在するため、地形データに加えて、天井の高さ情報を平面上にマッピングしたデータを利用してよい。この場合、サーバ20は、たとえばカメラなどによって取得された三次元点群データから、地形の高さよりも高く、天井の高さよりも低い位置に存在する部分を物体の三次元点群データとして抽出してよい。サーバ20は、この三次元点群データを用いて上記実施形態と同様にして、物体モデルを生成できる。
【0086】
[補足]
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
【0087】
上記実施形態では、無人航空機10、サーバ20、操縦装置30、ユーザ端末40および表示装置50が、それぞれ別体である例を説明した。これに限らず、いずれかの装置の機能が複数の装置によって実現されてもよいし、複数の装置の機能が1つの装置によって実現されてもよい。たとえば、サーバ20がユーザ端末40の視点を決定する機能を有してよい。また、無人航空機10が周囲環境モデルを生成する装置を搭載してもよいし、ユーザ端末40がサーバ20の周囲環境モデルを生成する機能を有してよい。さらに、ユーザ端末40および表示装置50が一体的に構成されてもよい。
【符号の説明】
【0088】
1 映像表示システム、10 無人航空機、20 サーバ(情報処理装置)、30 操縦装置、40 ユーザ端末、50 表示装置、70 地形モデル、100 取得部、102 カメラ、104 センサ部、106 位置情報取得装置、220 記憶部、240 生成部、242 航空機モデル取得部、244 物体モデル取得部、246 重畳部
図1
図2
図3
図4
図5
図6
図7