(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-05-09
(45)【発行日】2022-05-17
(54)【発明の名称】無人航空機の操縦シミュレーションシステム及び方法
(51)【国際特許分類】
G09B 9/08 20060101AFI20220510BHJP
G06T 19/00 20110101ALI20220510BHJP
【FI】
G09B9/08
G06T19/00 600
(21)【出願番号】P 2021523522
(86)(22)【出願日】2019-08-30
(86)【国際出願番号】 JP2019034135
(87)【国際公開番号】W WO2021038834
(87)【国際公開日】2021-03-04
【審査請求日】2021-04-28
【早期審査対象出願】
(73)【特許権者】
【識別番号】399037405
【氏名又は名称】楽天グループ株式会社
(74)【代理人】
【識別番号】110000154
【氏名又は名称】特許業務法人はるか国際特許事務所
(72)【発明者】
【氏名】中澤 満
(72)【発明者】
【氏名】滝澤 順
【審査官】比嘉 翔一
(56)【参考文献】
【文献】特表2010-520558(JP,A)
【文献】特表2017-524958(JP,A)
【文献】現実でバーチャルドローンを飛ばす ARでドローンの操作を練習,MoguLive - 「バーチャルを楽しむ」ためのエンタメメディア,2019年05月21日,<https://web.archive.org/web/20190521200323/https://www.moguravr.com/epson-ar-flight-simulator/> <https://www.moguravr.com/epson-ar-flight-simulator/>,令和1年11月8日検索
【文献】複合現実”MR”って何だろう?VRやARとの違いや活用方法を紹介します,2019年08月19日,https://www.mirai-lab.co.jp/info/588,令和3年9月8日検索
【文献】「世界のウェブアーカイブ|国立国会図書館インターネット資料収集保存事業」,2018年08月30日,https://web.archive.org/web/20180830051930/https://xooms.co.jp/news170315/,令和3年9月8日検索
(58)【調査した分野】(Int.Cl.,DB名)
G09B 1/00- 9/56
G09B17/00-19/26
A63H 1/00-37/00
A63F 9/00-13/98
JSTPlus(JDreamIII)
(57)【特許請求の範囲】
【請求項1】
被訓練者による仮想無人航空機の操作データを取得する操作データ取得部と、
実空間を飛行する実無人航空機により検知される前記実空間の環境データを繰り返し取得する環境データ取得部と、
前記実空間の地理空間データと、前記操作データと、前記環境データと、に基づいて、前記仮想無人航空機の前記実空間における現在位置を算出し、前記繰り返し取得される前記環境データに基づいて、実時間で繰り返し前記仮想無人航空機の前記実空間における現在位置を更新するシミュレータ部と、
前記実空間の前記現在位置に前記仮想無人航空機が視認されるよう前記仮想無人航空機の画像を生成し、表示器に出力する表示部と、
前記実無人航空機の飛行制御を行う飛行制御部と、
を含む無人航空機の操縦シミュレーションシステム。
【請求項2】
請求項1に記載の無人航空機のシミュレーションシステムにおいて、
前記表示器は、前記実空間の光景に対して、前記現在位置にある前記仮想無人航空機の前記画像が重畳するようにして前記画像を表示する、光学シースルー方式又はビデオシースルー方式のヘッドマウントディスプレイである、無人航空機の操縦シミュレーションシステム。
【請求項3】
請求項1又は2に記載の無人航空機のシミュレーションシステムにおいて、
前記飛行制御部は、前記仮想無人航空機の前記現在位置に基づいて前記実無人航空機の位置を制御する、無人航空機のシミュレーションシステム。
【請求項4】
請求項3に記載の無人航空機のシミュレーションシステムにおいて、
前記飛行制御部は、前記仮想無人航空機が異常である場合、前記仮想無人航空機の前記現在位置に応じた動作を制限する、無人航空機のシミュレーションシステム。
【請求項5】
請求項1乃至4のいずれかに記載の無人航空機のシミュレーションシステムにおいて、
前記飛行制御部は、前記被訓練者の位置及びその視線方向に基づいて、前記実無人航空機の位置を制御する、無人航空機のシミュレーションシステム。
【請求項6】
操作データ取得手段が、被訓練者による仮想無人航空機の操作データを取得すること、
地理空間データ取得手段が、実空間の地理空間データを取得すること、
環境データ取得手段が、前記実空間を飛行する実無人航空機により検知される前記実空間の環境データを繰り返し取得すること、
シミュレーション手段が、前記地理空間データと、前記操作データと、前記環境データと、に基づいて、前記仮想無人航空機の前記実空間における現在位置を算出し、前記繰り返し取得される前記環境データに基づいて、実時間で繰り返し前記仮想無人航空機の前記実空間における現在位置を更新すること、
画像出力手段が、前記実空間の前記現在位置に前記仮想無人航空機が視認されるよう前記仮想無人航空機の画像を生成すること、
飛行制御手段が、前記実無人航空機の飛行制御を行うこと、
を含む無人航空機の操縦シミュレーション方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は無人航空機の操縦シミュレーションシステム及び方法に関する。
【背景技術】
【0002】
国際公開第2016/049924号には、無人航空機の実機も操縦可能な送信機(コントローラ、プロポ)を用いて、仮想環境において仮想的な無人航空機の操縦シミュレーションを行う技術が開示されている。また、同文献には、実機による飛行で過去に収集・記録された障害物の場所、風向き、湿度、空気密度等の実センサデータに基づいて、仮想環境を作成することも開示されている。こうした技術を用いれば、実機を用いずに無人航空機の操縦訓練を行うことができる。
【発明の概要】
【発明が解決しようとする課題】
【0003】
しかし、上記従来技術では、あくまで仮想環境において無人航空機の操縦訓練を行うので、実環境における無人航空機の操縦を試行する用途としては十分とは言えない。
【0004】
本発明は上記事情に鑑みてなされたものであり、本開示では、より実環境に近い環境で無人航空機の操縦訓練を行うことができる無人航空機の操縦シミュレーションシステム及び方法を提供する。
【課題を解決するための手段】
【0005】
本開示に係る無人飛行機の操縦シミュレーションシステムは、被訓練者による仮想無人航空機の操作データを取得する操作データ取得部と、実空間の地理空間データと、前記操作データと、に基づいて、前記仮想無人航空機の前記実空間における現在位置を算出するシミュレータ部と、前記実空間の前記現在位置に前記仮想無人航空機が視認されるよう前記仮想無人航空機の画像を生成し、表示器に出力する表示部と、を含む。
【0006】
前記表示器は、前記実空間の光景に対して、前記現在位置にある前記仮想無人航空機の前記画像が重畳するようにして前記画像を表示する、光学シースルー方式又はビデオシースルー方式のヘッドマウントディスプレイであってよい。
【0007】
前記システムは、前記実空間の環境データを取得する環境データ取得部をさらに含んでよい。前記シミュレータ部は、前記環境データにさらに基づいて、前記仮想無人航空機の前記現在位置を算出してよい。
【0008】
前記環境データ取得部は、前記実空間の前記環境データを繰り返し検知してよい。前記シミュレータ部は、繰り返し検知される前記環境データに基づいて、実時間で繰り返し前記無人航空機の前記現在位置を更新してよい。
【0009】
前記環境データは、前記実空間を飛行する実無人航空機により検知されてよい。前記無人航空機のシミュレーションシステムは、前記実無人航空機の飛行制御を行う飛行制御部をさらに含んでよい。
【0010】
前記飛行制御部は、前記仮想無人航空機の前記現在位置に基づいて前記実無人航空機の位置を制御してよい。
【0011】
前記飛行制御部は、前記仮想無人航空機の飛行が異常である場合、前記仮想無人航空機の前記現在位置に応じた動作を制限してよい。
【0012】
前記飛行制御部は、前記被訓練者の位置及びその視線方向に基づいて、前記実無人航空機の位置を制御してよい。
【0013】
本開示に係る無人航空機の操縦シミュレーション方法は、被訓練者による仮想無人航空機の操作データを取得するステップと、実空間の地理空間データを取得するステップと、前記地理空間データと、前記操作データと、に基づいて、前記仮想無人航空機の前記実空間における現在位置を算出するステップと、前記実空間の前記現在位置に前記仮想無人航空機が視認されるよう前記仮想無人航空機の画像を生成するステップと、を含む。
【図面の簡単な説明】
【0014】
【
図1】本開示に係るシミュレーションシステムを用いた無人航空機の操縦訓練を示す図である。
【
図2A】被訓練者が装着するHMD(Head Mounted Display)の見え方を示す図である。
【
図2B】HMDにより表示される画像を示す図である。
【
図2C】被訓練者が装着するHMDの前方に広がる景色を示す図である。
【
図3】訓練用コンピュータのハードウェア構成を示す図である。
【
図5】訓練用コンピュータの機能ブロック図である。
【
図6】変形例に係るシミュレーションシステムを用いた無人航空機の操縦訓練を示す図である。
【
図7】変形例に係る訓練用コンピュータの機能ブロック図である。
【
図8】変形例に係る訓練用コンピュータの動作フロー図である。
【発明を実施するための形態】
【0015】
以下、本開示の詳細について図面に基づいて詳細に説明する。なお、以下の説明においては、同一の又は対応する構成については同一符号を付し、その詳細説明を省略することがある。
【0016】
図1は、本開示に係るシミュレーションシステムを用いた無人航空機の操縦訓練の様子を示している。本システムでは、被訓練者70は、仮想ドローンを用いてドローンの操縦訓練を行う。ドローンは、飛行計画に従って自律飛行可能なマルチローターヘリコプターであるが、緊急時には、人間が操作する送信機から送信される具体的な動作指示、例えば上下への移動、前後への、左右への移動、左右の回転の指示に従って飛行することができる。これにより緊急時には飛行計画の無い動作をドローンに行わせ、例えば緊急着陸などを行うことができる。
【0017】
被訓練者70は、ドローンの飛行予定場所である実空間10に立ち、HMD(Head Mount Display)50を頭部に装着する。実空間10には、山のような自然地形21が存在しており、木や建物のような実オブジェクト22も存在している。
【0018】
HMD50は訓練用コンピュータ40に接続されている。訓練用コンピュータ40には被訓練者70が手にしている送信機30や環境センサ60も接続されている。訓練用コンピュータ40は環境センサ60から出力される、実空間10の環境データを取得する。環境データは、環境センサ60の設置位置における風向、風速、湿度、気温、空気密度、光量などである。送信機30はプッシュボタン、スティック、スライドスイッチ、トグルスイッチなどの操作部材を備えており、本物のドローンを操作するための送信機と同じものである。被訓練者70が送信機30の操作部材を操作すると、それら操作部材の状態(スティック位置など)が操作データとして訓練用コンピュータ40に送信される。
【0019】
訓練用コンピュータ40は実空間10の地理空間データ(Geospatial Information)を保持している。地理空間データは、自然地形21のデータのみならず、一部又は全部の実オブジェクト22の位置、大きさ、形状などのデータも含んでいる。訓練用コンピュータ40は、保持している実空間10の地理空間データ、送信機30から取得する操作データ、及び環境センサ60から取得する環境データに基づいて、仮想空間に配置された仮想無人航空機(ドローン)80の現在位置及び姿勢を実時間で繰り返し演算するシミュレーションを実行する。環境データとしては、風向及び風速のペア、湿度、気温、空気密度のうち少なくとも1つが用いられる。
【0020】
訓練用コンピュータ40は、シミュレーション結果に従って、仮想無人航空機80の現在の見え方を実時間で繰り返し演算し、その画像(シミュレーション画像)を生成する。このとき、環境データに含まれる、環境センサ60の設置位置における光量が用いられてよい。すなわち、仮想空間における太陽の位置(日付及び時刻から演算してよい)に光源を設定し、この光源の光量を環境データに含まれる光量に基づいて設定してよい。例えば、光源の光量が環境データに含まれる光量に比例するようにしてよい。シミュレーション画像は、こうして設定される光源に基づいて生成されてよい。
【0021】
仮想無人航空機80が配置された仮想空間には、実空間10と同じ自然地形や実オブジェクトが配置されており、仮想空間は実空間10の少なくとも一部を再現したものとなっている。すなわち仮想空間は実空間10と少なくとも部分的に整合している。仮想空間におけるHMD50の位置には、仮想カメラ(不図示)が配置されており、この仮想カメラの方向は、実空間10におけるHMD50の方向と一致している。また、仮想カメラの画角はHMD50の視野角と一致している。このため、仮想カメラを用いて仮想空間をレンダリングすると、シミュレーション結果が示す現在位置及び姿勢に仮想無人航空機80が存在していて、それがHMD50から見える様子を可視化(画像化)することができる。
【0022】
ここでは、HMD50は光学シースルー方式を採用しており、ハーフミラーなどを介して視認されるHMD50の前方に広がる実風景に重畳して、訓練用コンピュータ40により生成される画像が表示される。これにより、あたかも実空間10で仮想無人航空機80が現実に飛行しているかのように被訓練者70に視認させることができる。
図2(a)は、HMD50を通して被訓練者70が視認する風景を示している。同図において仮想無人航空機80は訓練用コンピュータ40においてシミュレーション及びコンピュータグラフィックスにより生成された画像であり、その他は実風景である。同図(b)は、訓練用コンピュータ40においてシミュレーション及びコンピュータグラフィックスにより生成されたシミュレーション画像である。仮想無人航空機80が表された領域外のピクセルには透明属性が付与されており、その位置には実風景である同図(c)が視認される。これにより、
図2(a)に示す複合現実の風景が被訓練者70により視認される。
【0023】
なお、ここではHMD50に光学シースルー方式を採用したが、ビデオシースルー方式を採用してもよい。この場合には、HMD50に備えられるカメラによりHMD50の前方に広がる実風景が撮影される。こうして得られる撮影画像にシミュレーション画像を重畳させることで、光学シースルー方式の場合に視認される風景と同様の風景の画像を被訓練者70に視認させることができる。ただし、ビデオシースルー方式による実風景の表示ではレイテンシが大きくなるので、HMD50には光学シースルー方式を採用する方がよい。
【0024】
以下、訓練用コンピュータ40及びHMD50の構成をさらに具体的に説明する。
図3は、訓練用コンピュータ40のハードウェア構成を示す図である。同図に示すように、訓練用コンピュータ40は、CPU41、揮発性のメモリ42、SSIDやHDDなどのストレージ43、キーボードやマウスなどの入力部44、HMD50とのインタフェース45、送信機30とのインタフェース46、環境センサ60とのインタフェース47を含んでいる。これらのハードウェア要素は、例えばバスにより相互に接続されている。
【0025】
図4は、HMD50のハードウェア構成を示す図である。同図に示すように、HMD50は、CPU51、揮発性のメモリ52、訓練用コンピュータ40とのインタフェース53、LCDやOLEDなどのディスプレイパネル54、位置センサ55及び姿勢センサ56を含んでいる。これらのハードウェア要素は、例えばバスにより相互に接続されている。ここで位置センサ55はHMD50の現在位置を測定するGPSなどのデバイスである。また、姿勢センサ56はHMD50の現在の姿勢を測定するデバイスであり、例えばジャイロセンサや加速度センサから構成される。位置センサ55及び姿勢センサ56により取得されるHMD50の位置及び姿勢は、インタフェース53を介して訓練用コンピュータ40に送信される。訓練用コンピュータ40は、それらのデータを、シミュレーション画像をレンダリングするときの視点データとして用いる。なお、HMD50にカメラを設けて周囲の風景を撮影し、撮影された画像から訓練用コンピュータ40においてHMD50の位置及び姿勢を演算してもよい。この演算には、例えばSLAM(Simultaneous Localization and Mapping)と呼ばれる技術を用いることができる。また、設置位置及び方向が既知である訓練用コンピュータ40にカメラを設けて、このカメラからHMD50を撮影することで、HMD50の位置及び姿勢を演算してもよい。
【0026】
図5は、訓練用コンピュータ40の機能ブロック図である。訓練用コンピュータ40の機能には、操作データ取得部400、環境データ取得部401、HMDデータ取得部402、シミュレータ部403、レンダリング部404、画像出力部405、地理空間データ記憶部406が含まれる。これらの機能ブロックは、訓練用コンピュータ40が本開示に係るプログラムを実行することにより実現される。このプログラムはストレージ43に記憶されCPU41により実行される。プログラムは、コンピュータ可読媒体に格納され、訓練用コンピュータ40は該媒体からプログラムを読み出してよい。また、プログラムは、インターネットなどのネットワークからダウンロードされてよい。
【0027】
操作データ取得部400は、被訓練者70による仮想無人航空機80の操作データを取得する。操作データはインタフェース46を介して送信機30から取得される。環境データ取得部401は、実空間10の環境データを取得する。環境データはインタフェース47を介して環境センサ60から、例えば実時間で繰り返して取得される。HMDデータ取得部402は、インタフェース45を介してHMD50の位置及び姿勢を取得する。
【0028】
シミュレータ部403は、実空間10の地理空間データと、送信機30から取得される操作データと、実時間10の環境データと、に基づいて、仮想無人航空機80の実空間10における現在位置及び姿勢を算出する。仮想無人航空機80の現在位置及び姿勢は、実時間で繰り返し更新される。実空間10の地理空間データは、地理空間データ記憶部406に事前に記憶されている。なお、地理空間データ記憶部406は、カメラ等の地理空間データを検知可能なセンサを備えたドローン等の無人航空機により実空間10において取得されてよい。
【0029】
レンダリング部404はシミュレータ部403による計算結果に基づいて仮想無人航空機80の画像を生成する。生成される画像は、シミュレータ部403により算出される現在位置に、シミュレータ部403により算出される姿勢にて、実空間10において仮想無人航空機80が被訓練者70により視認されるようにするためのものである。画像出力部405は、生成される仮想無人航空機80の画像を、インタフェース45を介してHMD50に出力する。HMD50では、該HMD50の前方に広がる風景に重ねて、レンダリング部404で生成される画像を生成する。これにより、シミュレータ部403により算出される現在位置に、シミュレータ部403により算出される姿勢にて、実空間10において仮想無人航空機80があたかも存在するようにして、視認される。
【0030】
以上説明したシミュレーションシステムによれば、被訓練者70はHMD50を介して、あたかも実空間10に自分が送信機30により操縦する仮想無人航空機80が実在するように視認することができる。これにより、より実環境に近い環境で無人航空機の操縦訓練を行うことができる。
【0031】
特に、仮想無人航空機80の現在位置及び姿勢は、操縦訓練を行っている実空間10に配置された環境センサ60により実時間で取得される環境データに基づいて演算されているので、実空間10の実際の環境、例えば風向及び風速のペア、湿度、気温、空気密度、光量を反映した操縦訓練を行うことができる。
【0032】
なお、実空間10の環境データは、環境センサ60に代えて、又はそれに加えて、実空間10を飛行する実無人航空機により検知されてよい。
図7は、変形例に係るシミュレーションシステムを用いた無人航空機の操縦訓練を示す図である。同図に示すように、変形例に係るシステムでは、訓練用コンピュータ40に通信機100が接続されており、通信機100はドローンである実無人航空機90と通信している。実無人航空機90は、環境センサ60と同様、実空間10の環境データを検知するセンサを搭載している。実無人航空機90により検知される環境データは、実無人航空機90の位置における風向、風速、湿度、気温、空気密度、光量などである。通信機100は、検知された環境データを実無人航空機90から受信する。
【0033】
また、訓練用コンピュータ40は通信機100を介して実無人航空機90に動作指示を送信する。訓練用コンピュータ40は、シミュレータ部403により仮想無人航空機80の現在位置を把握しており、この現在位置に基づいて実無人航空機90の位置を制御する。このため、訓練用コンピュータ40は実無人航空機90の現在位置及び姿勢を実時間で繰り返し受信している。仮想無人航空機80の飛行シミュレーションをより精緻に行うためには、実無人航空機90は仮想無人航空機80の出来るだけ近くに位置して環境データを取得することが望ましい。一方で、そうすると実無人航空機90が被訓練者70の視界に入り、場合によっては仮想無人航空機80と位置が重なり、操縦訓練の邪魔となるおそれがある。そこで、訓練用コンピュータ40は、実無人航空機90が仮想無人航空機80に連動しつつも、被訓練者70の視線方向に位置しないように制御している。
【0034】
図7は、変形例に係る訓練用コンピュータ40の機能ブロック図である。同図に示される機能ブロック図は、
図5に示されるものに比して、飛行制御部407が設けられている点で異なる。飛行制御部407は、シミュレータ部403において演算される仮想無人航空機80の現在位置、HMDデータ取得部402において取得されるHMD50の現在位置及び姿勢(視線方向)に基づいて、実無人航空機90の現在位置を制御する。また、飛行制御部407には地理空間情報も供給されており、実無人航空機90が、地面や実オブジェクト22に衝突しないように制御している。
【0035】
図8は、変形例に係る訓練用コンピュータ40の動作フロー図である。同図に示す動作は、主に飛行制御部407が担うものであり、まず仮想無人航空機80が異常かどうかを判断する(S201)。仮想無人航空機80の状態を判定する手法としては種々の公知技術を採用してよいが、例えば速度が閾値を超えた場合、鉛直下向きの速度成分が閾値を超えた場合、送信機30からの単位時間の操作データの変更量が閾値を超えた場合など、仮想無人航空機80の速度や移動方向、送信機30からの操作データが、事前に定める条件を満足するか否かにより、異常か正常かを判定してよい。
【0036】
仮想無人航空機80が異常でなければ、飛行制御部407は実無人航空機90の移動先を決定する(S202~S207)。
図9は、実無人航空機90の移動先の決定方法を示す図である。まず、飛行制御部407は実無人航空機90の現在位置PRNを取得する(S202)。また、仮想無人航空機80の現在位置PVをシミュレータ部403から取得する(S203)。さらに、HMD50の現在位置PH及び視線方向VL(HMD50の姿勢)をHMDデータ取得部402から取得する(S204)。
【0037】
次に、実無人航空機90の複数の移動先候補PRDを設定する(S205)。移動先候補PRDは、実無人航空機90の目標位置の候補であり、例えばS202で取得される現在位置PRNを中心に、上下左右前後の合計6方向に、それぞれ所定距離だけシフトした位置を移動先候補PRDとしてよい。但し、地理空間情報に基づき、実無人航空機90が地面や実オブジェクト22に衝突するような移動先候補PRDは選択しない。
【0038】
次に、飛行制御部407は、各移動先候補PRDに対して評価値Eを演算する(S206)。そして、評価値Eが最小となる移動先候補PRDを、実無人航空機90の実際の移動先として決定する(S207)。実無人航空機90の移動先である位置は通信機100により実無人航空機90に送信され、実無人航空機90は同位置に向けて移動を開始する(S208)。
【0039】
S206で演算される評価値Eは、例えばE=α×L1+β×L2+γ×1/L3に従って演算される。ここで、α、β、γは係数であり、実験等により適宜に設定される値である。L1は、仮想無人航空機80の現在位置PVと移動先候補PRDとの距離である。L2は、実無人航空機90の現在位置PRNと移動先候補PRDとの距離である。L3は、移動先候補PRNから視線VLまでの距離である。このようにすれば、仮想無人航空機80の現在位置PVと移動先候補PRDとの距離が小さいほど、評価値Eが小さくなるようにできる。このため、仮想無人航空機80の現在位置PVから近い位置が、実無人航空機90の移動先として選ばれやすくなる。また、実無人航空機90の現在位置PRNと移動先候補PRDとの距離が小さいほど、評価値Eが小さくなるようにできる。このため、実無人航空機90の現在位置PRNから近い位置が、実無人航空機90の移動先として選ばれやすくなる。さらに、移動先候補PRNから視線VLまでの距離が遠いほど、その移動先候補PRNが実無人航空機90の移動先として選ばれやすくなる。このようにして、実無人航空機90の現在位置PRNや仮想無人航空機80の現在位置RVから近く、且つ視線VLからできるだけ遠い位置が、実無人航空機90の移動先として選択されるようになる。こうすれば、実無人航空機90を仮想無人航空機80に近づけ、しかし視線VL上に実無人航空機90が位置しないようにできる。
【0040】
S201において仮想無人航空機80が異常であると判断されると、飛行制御部407は通信機100により実無人航空機90に対し、現在位置PRNでのホバリング(滞空)を指示する(S209)。こうすれば、仮想無人航空機80に連動して、実無人航空機90まで異常な動作状態になってしまうことを防止できる。すなわち、飛行制御部407は、仮想無人航空機80が異常である場合、その現在位置に応じた動作を制限する。この制限には、例えば上記のように実無人航空機90に対するホバリングの指示が含まれる。
【0041】
以上説明した変形例に係るシステムによれば、仮想無人航空機80により近い位置において環境データを取得することができ、仮想無人航空機80のシミュレーションをよりリアルに行うことができる。このとき、環境データを取得する実無人航空機90が視線VLに近づかないようにしているので、実無人航空機90の存在が仮想無人航空機80の操縦の邪魔にならにようにできる。