特許第6650467号(P6650467)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ノースロップ グラマン システムズ コーポレイションの特許一覧

特許6650467無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法
<>
  • 特許6650467-無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法 図000002
  • 特許6650467-無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法 図000003
  • 特許6650467-無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法 図000004
  • 特許6650467-無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法 図000005
  • 特許6650467-無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法 図000006
  • 特許6650467-無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法 図000007
  • 特許6650467-無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法 図000008
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6650467
(24)【登録日】2020年1月22日
(45)【発行日】2020年2月19日
(54)【発明の名称】無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法
(51)【国際特許分類】
   G05D 1/00 20060101AFI20200210BHJP
   B64C 39/02 20060101ALI20200210BHJP
   B64C 13/20 20060101ALI20200210BHJP
【FI】
   G05D1/00 B
   B64C39/02
   B64C13/20 Z
【請求項の数】20
【全頁数】15
(21)【出願番号】特願2017-553990(P2017-553990)
(86)(22)【出願日】2016年3月28日
(65)【公表番号】特表2018-515838(P2018-515838A)
(43)【公表日】2018年6月14日
(86)【国際出願番号】US2016024521
(87)【国際公開番号】WO2016167946
(87)【国際公開日】20161020
【審査請求日】2017年10月31日
(31)【優先権主張番号】14/686,370
(32)【優先日】2015年4月14日
(33)【優先権主張国】US
(73)【特許権者】
【識別番号】503178185
【氏名又は名称】ノースロップ グラマン システムズ コーポレイション
【氏名又は名称原語表記】NORTHROP GRUMMAN SYSTEMS CORPORATION
(74)【代理人】
【識別番号】100105957
【弁理士】
【氏名又は名称】恩田 誠
(74)【代理人】
【識別番号】100068755
【弁理士】
【氏名又は名称】恩田 博宣
(74)【代理人】
【識別番号】100142907
【弁理士】
【氏名又は名称】本田 淳
(72)【発明者】
【氏名】クラーク、ライアン ティ.
【審査官】 影山 直洋
(56)【参考文献】
【文献】 特表2012−509812(JP,A)
【文献】 国際公開第2015/014116(WO,A1)
【文献】 米国特許出願公開第2014/0316614(US,A1)
【文献】 国際公開第2014/130871(WO,A1)
【文献】 特開平05−149706(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G05D 1/00
B64C 13/20
B64C 39/02
(57)【特許請求の範囲】
【請求項1】
装置であって、
複数のウェアラブルデバイスであって、各ウェアラブルデバイスは、無人機(UV)に命令する操作者のジェスチャを検出するマルチセンサ検出器を有し、各マルチセンサ検出器は、操作者の手の指の動きを検出する抵抗ストリップと、操作者の1つ以上の手の動き、地球に対する操作者の手の動き、および操作者の手の回転動作に関する操作者のジェスチャの動き及び方向のうちの1つを検出する少なくとも2つのセンサと、を含む、前記ウェアラブルデバイスと、
対応するマルチセンサ検出器を監視して、当該マルチセンサ検出器の少なくとも2つのセンサによって供給される入力データに基づいて前記操作者の対応するジェスチャを判定する複数のコントローラと、を備え、
各コントローラは、対応するジェスチャに基づいて前記無人機のための対応するコマンドを生成して前記無人機を制御する、装置。
【請求項2】
前記少なくとも2つのセンサは、
操作者の手の動きに関する操作者のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、および操作者の手の回転動作を検出するジャイロスコープのうちの少なくとも2つを含む、請求項1に記載の装置。
【請求項3】
前記コントローラは、前記無人機を制御するために前記コマンドをミッションプランナ・アプリケーションに中継する通信モジュールにコマンドを送信
前記ミッションプランナ・アプリケーションは、各コマンドを受信して制御コマンドを生成し、該制御コマンドに基づいて前記無人機を制御する、請求項1に記載の装置。
【請求項4】
前記通信モジュールは、モバイルデバイスであり、該モバイルデバイスは、各コマンドを前記ミッションプランナ・アプリケーションに中継する、請求項3に記載の装置。
【請求項5】
前記コントローラは、コマンドをブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、通信モジュールに送信し、該通信モジュールは、各コマンドを前記ミッションプランナ・アプリケーションに中継する、請求項3に記載の装置。
【請求項6】
前記ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して通信モジュールと通信する、請求項に記載の装置。
【請求項7】
前記ミッションプランナ・アプリケーションからウェアラブルグラスの操作者にミッションステータスを伝えるウェアラブルグラスをさらに備える請求項6に記載の装置。
【請求項8】
前記ミッションプランナ・アプリケーションは、ソフトウェアパケットをスクリプトインタフェースを介して汎用プロトコルインタフェースに通信し、該汎用プロトコルインタフェースは、汎用プロトコルのコマンドを前記通信モジュールと通信するアプリケーションに変換する、請求項6に記載の装置。
【請求項9】
前記汎用プロトコルは、トランスポート・コントロール・プロトコル(TCP)であり、
前記ソフトウェアパケットは、Pythonスクリプトで通信される、請求項8に記載の装置。
【請求項10】
システムであって、
無人機(UV)に命令する操作者のジェスチャを検出するマルチセンサ検出器を有する1組のウェアラブルデバイスであって、マルチセンサ検出器は、操作者の手の指の動きを検出する抵抗ストリップと、操作者の手の動きに関する操作者のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、および操作者の手の回転動作を検出するジャイロスコープを含む少なくとも2つのセンサと、を含む、前記ウェアラブルデバイスと、
対応するマルチセンサ検出器を監視して、当該マルチセンサ検出器の少なくとも2つのセンサから供給された入力データに基づいて前記操作者の対応するジェスチャを判定する1組のコントローラであって、各コントローラは、前記操作者の対応するジェスチャに基づいて前記無人機のための対応するコマンドを生成する、前記1組のコントローラと、
前記無人機を制御するために前記コントローラからの対応するコマンドを通信する通信モジュールと、
前記通信モジュールと通信するミッションプランナ・アプリケーションと、を備え、
前記ミッションプランナ・アプリケーションは、前記通信モジュールからコマンドを受信して制御コマンドを生成し、当該制御コマンドに基づいて前記無人機を制御する、システム。
【請求項11】
前記通信モジュールは、モバイルデバイスである、請求項10に記載のシステム。
【請求項12】
前記コントローラは、コマンドをブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、通信モジュールに送信する、請求項11に記載のシステム。
【請求項13】
前記ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して前記通信モジュールと通信する、請求項10に記載のシステム。
【請求項14】
前記ミッションプランナ・アプリケーションから前記ウェアラブルデバイスの操作者にミッションステータスを伝えるウェアラブルグラスをさらに備える請求項13に記載のシステム。
【請求項15】
前記ミッションプランナ・アプリケーションは、ソフトウェアパケットをスクリプトインタフェースを介して汎用プロトコルインタフェースに通信し、該汎用プロトコルインタフェースは、汎用プロトコルのコマンドを前記通信モジュールと通信するアプリケーションに変換する、請求項14に記載のシステム。
【請求項16】
前記汎用プロトコルは、トランスポート・コントロール・プロトコル(TCP)であり、
前記ソフトウェアパケットは、Pythonスクリプトで通信される、請求項15に記載のシステム。
【請求項17】
方法であって、
複数のコントローラの各々が、少なくとも2つのセンサを有する関連するウェアラブルデバイスから、無人機(UV)に命令する操作者の対応するジェスチャを検出することであって、前記少なくとも2つのセンサのうちの1つは、操作者の手の指の動きを検出する抵抗ストリップである、前記複数のジェスチャを検出すること、
前記複数のコントローラの各々が、対応するウェアラブルデバイスの少なくとも2つのセンサにより供給される検出データを分析して、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出すること、
前記複数のコントローラの各々が、対応するウェアラブルデバイスの少なくとも2つのセンサにより供給される検出データ前記分析に基づいて、前記操作者の対応するジェスチャを判定すること、
前記複数のコントローラの各々が、判定された前記操作者の対応するジェスチャに基づいて対応するコマンドをミッションプランナ・アプリケーションに通信すること、
前記ミッションプランナ・アプリケーションが、各コントローラからの対応するコマンドに基づいて前記無人機の動作を制御するための制御コマンドを生成すること、を備える方法。
【請求項18】
前記無人機の飛行経路を制御するために各コマンドを前記無人機に供給するように構成された通信モジュールと、
前記操作者の頭にまたは頭の周りに装着するウェアラブルディスプレイデバイスと、をさらに備え、
前記ウェアラブルディスプレイデバイスは、該ウェアラブルディスプレイデバイス上の表示のために前記通信モジュールから前記無人機の飛行経路情報を受信する、請求項1に記載された装置。
【請求項19】
前記ウェアラブルディスプレイデバイスは、ヘッドマウントディスプレイ(HMD)およびウェアラブルグラスのうちの1つである、請求項18に記載の装置。
【請求項20】
前記無人機の飛行経路を制御するために各コマンドを前記無人機に供給するように構成された通信モジュールと、
前記操作者の頭にまたは頭の周りに装着するウェアラブルディスプレイデバイスと、をさらに備え、
前記ウェアラブルディスプレイデバイスは、該ウェアラブルディスプレイデバイス上の表示のために前記通信モジュールから前記無人機の飛行経路情報を受信し、
前記ウェアラブルディスプレイデバイスは、ヘッドマウントディスプレイ(HMD)およびウェアラブルグラスのうちの1つである、請求項10に記載されたシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、制御システムに関し、より詳細には、マルチセンサ装置を利用する無人機の遠隔信号伝達制御のためのシステムおよび方法に関する。
【背景技術】
【0002】
ほとんどの無人システムは、システムを製造した製造業者を問わず、組織単位の専門職のための予算および計画を複数の上司に要求する複数の操作者に対する特殊な訓練を必要とする。これは、無人システムの適切な雇用に先立って特殊な訓練が数ヶ月または数年の訓練を必要とする多くの状況において実際的ではない。例えば、歩兵部隊が、任意の戦闘空間内で複雑な複数の航空資産(air asset)を指揮するために、計器飛行資格パイロットを持つことは期待できない。米軍は、複雑な複数のシステムと最小限の訓練を受けた要員との間の相互作用の長い歴史を持ち、地上戦闘員は、複数の人間によって操作される陸上車両および航空機を連係させ、指揮することが期待されている。通常、複数の無人システムは、操作者をデータに没頭させるように設計されたユーザインターフェースを有する無人機とセンサに焦点を当てるように開発されている。しかし、最終的には、長時間(且つ高価な)の訓練の必要性を持つ特殊な操作者を育成することになる。さらに、特殊な訓練が実施された後に操作者の動きを検出するための粗い単一センサセンシングシステムは、それらが展開される前に複数の較正手順を必要とし、操作者の所望のコマンドの変化を検出するのが遅くなることがある。較正の遅延および/または操作者の複数のコマンドの検出は、戦場では致命的となる可能性がある。
【発明の概要】
【課題を解決するための手段】
【0003】
本開示は、マルチセンサ装置を利用する無人機の遠隔信号伝達制御のためのシステムおよび方法に関する。一側面では、装置は、無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを含む。マルチセンサ検出器は、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出する少なくとも2つのセンサを含む。コントローラは、マルチセンサ検出器を監視して、少なくとも2つのセンサから受信された入力データに基づいて操作者の複数のジェスチャを判定する。コントローラは、判定された操作者の複数のジェスチャに基づいて無人機へのコマンドを生成する。
【0004】
他の側面では、システムは、無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを含む。マルチセンサ検出器は、操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および操作者の手の指の動きを検出する抵抗ストリップのうちの少なくとも2つを含む。コントローラは、マルチセンサ検出器を監視して、少なくとも2つのセンサから受信された入力データに基づいて操作者の複数のジェスチャを判定する。コントローラは、判定された操作者の複数のジェスチャに基づいてコマンドを生成する。通信モジュールは、無人機を制御するために、コントローラからのコマンドを中継する。
【0005】
さらなる他の側面では、方法は、少なくとも2つのセンサを有するウェアラブルデバイスから、無人機に命令する操作者の複数のジェスチャを検出することを含む。方法は、少なくとも2つのセンサを分析して、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出することを含む。方法は、少なくとも2つのセンサの分析に基づいて、前記操作者の複数のジェスチャを判定することを含む。方法は、無人機の複数の動作を制御するためのコマンドを通信することを含む。
【図面の簡単な説明】
【0006】
図1】操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のためのシステムの一例を示す。
図2】操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のためのミッションプランナを有するシステムの一例を示す。
図3】操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人車両の遠隔信号伝達及び制御のための複数のシステム構成要素の一例を示す。
図4】無人機の遠隔信号伝達および制御のためのインタフェースプロトコルの例を示す。
図5】操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のための例示的な装置を示す。
図6】操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介して検出することができる例示的なジェスチャを示す。
図7】操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のための方法の一例を示す。
【発明を実施するための形態】
【0007】
本開示は、マルチセンサ装置を利用する無人機(unmanned vehicle : UV)の遠隔信号伝達制御(remote signaling control)のためのシステムおよび方法に関する。このシステムおよび方法は、標準化された人間の複数のジェスチャ(standardized human gestures)(例えば、承認された手および腕の信号)を介してUVを制御することを含む。このシステムは、任意の人間のジェスチャ(例えば、手による上または下への動作)を再現してUVを制御する間にユーザが装着する1組のウェアラブルデバイス(例えば、複数のグローブ)を含む。各ウェアラブルデバイスは、例えば、任意の人間のジェスチャの検出を提供するように構成された加速度計、ジャイロスコープ、磁力計、または抵抗ストリップ(resistance strip)を含み得るマルチセンサ検出器(multi-sensor detector)を含む。別例では、システムは、UVの動きを制御する1組のグローブ(glove)ではなく、単一のグローブを含む。マルチセンサ検出器を利用することにより、単一センサシステムに要求される複雑な複数の較正手順(calibration procedure)を軽減することができる。さらに、マルチセンサ検出器は、従来の単一センサシステム(例えば、加速度計の検出のみ)よりも迅速に手のジェスチャを判定することができる。
【0008】
ウェアラブルデバイスは、マルチセンサ検出器を監視し、複数の測定値が伝送される伝送媒体(有線または無線)を介して通信するコントローラを含むことができる。システムは、ウェアラブルデバイスから複数の測定値/複数のコマンドを受信するための電子デバイス(例えば、モバイルハンドヘルドデバイスなどの単一ボードコンピュータ)などの複数の通信モジュールをさらに含むことができる。コントローラは、ジェスチャデータを解釈して、任意の手のジェスチャ(例えば、左/右、上/下、手の回転、指の動きなど)に対応する複数の特性を抽出する。抽出された複数の特性は、UVを制御するための既知の手の複数のジェスチャ特性に基づいてUVへのコマンド信号(または複数の信号)を生成するようにコントローラによって用いられる。別の態様では、システムは、ユーザの頭上または頭の周りに装着可能なヘッドマウントディスプレイ(head mounted display : HMD)をさらに含む。HMDは、通信モジュールと通信し、UV(例えば、全体的なシステム状態、UVの緯度および経度情報など)に対応する関連情報を受信するように構成される。
【0009】
図1は、操作者の複数のジェスチャ140を検出するマルチセンサ検出器を有するウェアラブルデバイス120を介した無人機110の遠隔信号伝達および制御のためのシステム100の一例を示す。ウェアラブルデバイス120のマルチセンサ検出器130(例えば、ウェアラブルグローブ)は、UV110に命令する操作者の複数のジェスチャを検出する。マルチセンサ検出器130は、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転の動き、および操作者の手の指の動きに関する操作者のジェスチャの動きおよび方向を検出する少なくとも2つのセンサを含む。例えば、複数のセンサは、操作者の手の動き(例えば、身体を横切る左または右の水平な手の動き)に関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計を含み得る。また複数のセンサは、地球の磁場に対する操作者の手の動き(例えば、横方向の手の動き)を検出する磁力計を含み得る。別例では、複数のセンサは、操作者の手の回転運動を検出するジャイロスコープを含み得る。また複数のセンサは、操作者の手の指の動きを検出する(例えば、指が屈曲すると、抵抗ストリップが屈曲してその抵抗が変化する)指装着式抵抗ストリップ(finger mounted resistance strip)を含み得る。複数のジェスチャ140は、任意の標準的な軍用または産業用マニュアルから解釈され得る。複数のマニュアルの例は、空軍の取扱説明書(Air Force instruction manual)11−218、陸軍のビジュアル信号マニュアル(Department of Army Visual Signals manual)FM−2160、海軍航空マニュアル(Naval Air manual)NAVAIR 00−80T−113などを含む。
【0010】
コントローラ150は、マルチセンサ検出器130を監視して複数のセンサから(例えば、少なくとも2つのセンサから)受け取った入力データに基づいて操作者のジェスチャを判定する。コントローラ150は、判定された操作者のジェスチャに基づいて、UV110に/から(例えば、直接的または間接的に)コマンドを生成する。例えば、コントローラ150が、検出器130を介して操作者が両手を地面に向かって下方に動かしたことを検出した場合、コントローラは、無人機が下方向に飛行経路を制御するためにその後に無人機により用いられるダウンコマンドを生成することができる。この例に示すように、コントローラ150は、UVを制御するコマンドを中継する通信モジュール160にコマンドを送信し得る。いくつかの実施例では、コントローラ150および/または通信モジュール160は、ウェアラブルデバイス120の一部分として提供され得る。他の例では、コントローラ150および/または通信モジュール160は、グローブの外側にあってもよく、マルチセンサ検出器130へのそれぞれの通信のためにグローブに配線されてもよい。特定の例では、通信モジュール160は、コントローラ150からのコマンドを中継してUV110を制御するシングルボードコンピュータ(例えば、モバイルハンドヘルドデバイス)であってもよい。図示されていないが、UVは、コントローラ150によって生成された複数のコマンドに応答する別個の飛行コントローラ(separate flight controller)を含む。
【0011】
図3に関してより詳細に示され記載されるように、コントローラ150は、ブルートゥース(Bluetooth)またはユニバーサルシリアルバス接続(universal serial bus connection : USB)を介してコマンドを中継する通信モジュール160にコマンドを送信してUV110を制御する。さらに通信モジュール160と通信するミッションプランナ・アプリケーション(mission planner application)が、設けられ得る(例えば、図2を参照)。ミッションプランナ・アプリケーションは、通信モジュール160からコマンドを受け取り、コマンドに基づいてUV110を制御するための制御コマンドを生成する。ミッションプランナ・アプリケーションは、コンピュータ(例えば、ラップトップ)上で動作し、無線リンクを介して通信モジュール160と通信することができる。ウェアラブルグラス(Wearable glasses)(例えば、図3参照)は、ミッションプランナ・アプリケーションからウェアラブルデバイスの操作者にミッションステータス(mission status)を通信するように設けられ得る。
【0012】
図2は、操作者の複数のジェスチャ240を検出するマルチセンサ検出器230を有するウェアラブルデバイス220を介した無人機210の遠隔信号伝達及び制御のためのミッションプランナ204を有するシステム200の一例を示す。マルチセンサ検出器230は、無人機210(unmanned vehicle : UV)に命令する操作者の複数のジェスチャ240を検出する。マルチセンサ検出器230は、操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および/または操作者の手の指の動きを検出する抵抗ストリップを含む少なくとも2つのセンサを含み得る。コントローラ250は、複数のセンサから受信した入力データに基づいて操作者のジェスチャ240を判定するマルチセンサ検出器230を監視し、コントローラは、判定された操作者のジェスチャに基づいてUV210のコマンドを生成する。通信モジュール260は、UVを制御するためにコントローラからのコマンドを中継する。この例では、図1の例に示すようにコマンドを直接的に中継するのではなく、通信モジュールは、コマンドを、UV210と通信するミッションプランナ204に中継する。
【0013】
上述した例と同様に、通信モジュール260は、UV210を制御するためにコマンドを中継するモバイルハンドヘルドデバイス(またはトランシーバ(walkie/talkie)などの他の電子通信デバイス)などの単一のボードコンピュータ(board computer)であってもよい。コントローラ250は、コマンドを例えば、ブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、UV210を制御するためにコマンドを中継する通信モジュール260に送信する。ミッションプランナ204は、通信モジュール260と通信するアプリケーションである。ミッションプランナ・アプリケーションが、通信モジュール260からコマンドを受信し、受信されたコマンドに基づいてUV210を制御するための制御コマンドを生成する。ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して通信モジュールと通信することができる。ウェアラブルグラス(例えば、図3参照)は、ミッションプランナ204からウェアラブルデバイス220の操作者にミッションステータスを伝えるために設けられ得る。ミッションプランナ204は、スクリプトインタフェース(scripting interface)を介してソフトウェアパケットを、汎用プロトコルのコマンドを通信モジュール260と通信するアプリケーションに変換する汎用プロトコルインタフェース(generic protocol interface)に通信することができる。例えば、汎用プロトコルは、トランスポート・コントロール・プロトコル(transport control protocol : TCP)であり、ソフトウェアパケットがPythonスクリプトで通信されるが、他のトランスポートおよびスクリプトスタイルも可能である。
【0014】
図3は、操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機(unmanned vehicle : UV)の遠隔信号伝達及び制御のための複数のシステム構成要素300の一例を示す。この例では、UV310は、ミッションプランナ・アプリケーションを動作させるコンピュータ320と無線通信する。ミッションプランナは、ウェアラブルデバイス340からジェスチャ・コマンドを(USBまたはブルートゥースを介して)受信する通信モジュール330(例えば、モバイルハンドヘルドデバイス)と通信する。ウェアラブルステータス・ディスプレイ350(例えば、グーグルグラス)が設けられ、ミッションプランナ320および/または通信モジュール330を介してウェアラブルデバイス340の操作者にステータスを送信することができる。このことは、例えば、ブルートゥース接続を介した通信を含み得る。
【0015】
図4は、無人機の遠隔信号伝達および制御のためのインタフェースプロトコルの例を示す。この例では、図3に関して上述したミッションプランナは、飛行時間、目的地、ナビゲーション、ターゲットアイデンティティ(target identity)、他の戦場資産との連係などの複数のUVミッションの様々な態様を制御するように、ミッションプランナ・ソフトウェア410を動作させることができる。ミッションプランナ・ソフトウェア410は、汎用プロトコル(例えば、TCPプロトコル)を介して動作する通信モジュールインターフェース430を介してソフトウェアパケット420(例えば、Pythonスクリプト)を送信または受信するスクリプトインタフェースを動作させることができる。通信モジュールインターフェース430は、例えばウェアラブルデバイスを使用して操作者にステータスを提供するために、コンピュータ、単一のボードコンピュータのようなデバイス、またはウェアラブルグラスに関連付けられる。インタフェース430は、例えば、ウェアラブルデバイスのステータス(例えば、オン/オフ)、各モジュールの通信ステータス(例えば、通信に利用可能または利用可能ではない、無線ステータス)、ミッションプランナと通信する複数のデバイスのシステムステータス、及びUAVに関連するステータスの複数のステータスを提供することができる。
【0016】
図5は、操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のための例示的な装置500を示す。図1に関して上述したウェアラブルデバイスは、510および520に示す1つまたは2つのウェアラブルグローブとして具体化され得る。グローブ510,520は、本明細書で説明されるように解釈された操作者の複数のジェスチャに基づいて複数のコマンドを供給する。グローブ510,520の各々は、本明細書で説明されるような類似の検出センサおよび/またはコントローラで構成され得る。例えば、グローブ510は、操作者の指の動きを検出する抵抗ストリップ530(または複数のストリップ)を含む。手のセンサ540は、本明細書で説明されるマルチセンサ検出器に関して説明された(複数の)加速度計、(複数の)ジャイロスコープ、および/または(複数の)磁力計を含み得る。単一の例示的なセンサは、慣性測定ユニット(inertial measurement unit :IMU)のような9軸センサである。複数のセンサおよび/または複数のストリップ530からの出力は、本明細書で説明されるように通信モジュール(図示せず)と通信することができるUSBケーブル560を介して解釈されたコマンドを送信することができるコントローラ550に通信され得る。
【0017】
図6は、操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介して検出される例示的なジェスチャ600を示す。例示的なジェスチャ600は、ダウンジェスチャ(down gesture)であるが、前述したように、複数のジェスチャは、本明細書で説明されるように同様に解釈され得る(例えば、図1に関して記載された複数のジェスチャの例示的な複数のマニュアルを参照)。以下は、ダウンジェスチャ600を解釈するための例示的な擬似コード(pseudo-code)を提示する。これは一例にすぎず、このジェスチャおよび他のそれぞれのジェスチャを解釈する多くの他のコーディングの可能性があり得ることに留意されたい。
// Down
// Arms out, dropped down to sides.
// palm high pos z acc -> palm high neg x acc. High pos y gyro
if( C2_Global_Active && C2_Down && (System.nanoTime() - C2_Down_Time > 500000000) ){
// Active Timer expires after 500ms
C2_Global_Active = false;
C2_Down = false;
C2_Down_Time = 0;
C2_Down_Start_Time = 0;
C2_Down_Motion_Time = 0;
C2_Down_Counter = 0;
} else if ( C2_Global_Active || ( C2_Down && (System.nanoTime() - C2_Down_Time < 500000000) ) ){
C2_Down_Start_Time = 0;
C2_Down_Motion_Time = 0;
C2_Down_Counter = 0;
} else {
// Check for command actions (acc is accelerometer)
if( left_palm_mpu9250_zacc > 12000 // Palms Down
&& right_palm_mpu9250_zacc > 12000
&& Math.abs(left_palm_mpu9250_ygyro) < 4000 // No motion down/up
&& Math.abs(right_palm_mpu9250_ygyro) < 4000
){
// Initial Conditions Met
C2_Down_Start_Time = System.nanoTime();
C2_Down_Counter = C2_Down_Counter | 1;
}
if( left_palm_mpu9250_ygyro > 12000 // Palms moving Down (pos y gyro)
&& right_palm_mpu9250_ygyro > 12000
&& (System.nanoTime() - C2_Down_Start_Time < 250000000)
){
// Proper Motion Conditions Met
C2_Down_Motion_Time = System.nanoTime();
C2_Down_Counter = C2_Down_Counter | 2;
}
if( left_palm_mpu9250_xacc < -12000 // Fingers Down
&& right_palm_mpu9250_xacc < -12000
&& left_forearm_mpu9250_xacc < -12000 // Forearms Vertical
&& right_forearm_mpu9250_xacc < -12000
&& (System.nanoTime() - C2_Down_Start_Time < 1000000000)
&& (System.nanoTime() - C2_Down_Motion_Time < 500000000)
){
// Declared as Proper C2 Command
C2_Global_Active = true;
C2_Down = true;
C2_Down_Time = System.nanoTime();
System.out.println("DOWN");
C2_Down_Counter = C2_Down_Counter | 4;
}
if( ( (C2_Down_Start_Time > 0) && (System.nanoTime() - C2_Down_Start_Time > 1000000000) ) || ( (C2_Down_Motion_Time > 0) && ( (System.nanoTime() - C2_Down_Motion_Time) > 1000000000) )
){
// Start or Motion Timed Out
C2_Down_Start_Time = 0;
C2_Down_Motion_Time = 0;
C2_Down_Counter = 0;
}
}
jCheckBox_C2_Down.setSelected(C2_Down);
上述した構造的及び機能的特徴を考慮して、例示的な方法は、図7を参照することにより、より良く理解されるであろう。説明を簡単にするために、この方法は逐次的に実行されるように示され説明されているが、方法のうちの一部分が、本明細書において示され説明されたものと異なる順序でおよび/または同時に実施され得るので、方法が例示された順序によって限定されないことが理解され認識されたい。このような方法は、例えば、ICまたはコントローラを構成する各種の部品によって実施され得る。
【0018】
図7は、操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のための方法の一例を示す。710において、方法700は、(例えば、図1のマルチセンサ検出器130を介して)少なくとも2つのセンサを有するウェアラブルデバイスから無人機に命令する操作者の複数のジェスチャを検出することを含む。720において、方法700は、複数のセンサを分析して(例えば、図1のコントローラ150を介して)操作者の複数のジェスチャの動きおよび方向を検出することを含む。このことは、例えば、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する動きおよび方向を検出することを含む。730において、方法700は、複数のセンサの分析に基づいて(例えば、図1のコントローラ150を介して)操作者の複数のジェスチャを判定することを含む。740において、方法700は、(例えば、図1の通信モジュール160を介して)UVの複数の動作を制御するためのコマンドを通信することを含む。図示されていないが、方法700は、コマンドをミッションプランナ・アプリケーションに通信することを含み、ミッションプランナ・アプリケーションは、コマンドに基づいてUVを制御するための制御コマンドを生成することができる。
【0019】
上述した事項は複数の例である。当然のことながら、複数の要素または複数の手法の考えられるあらゆる組み合わせを説明することは不可能であるが、当業者は、多くのさらなる組み合わせおよび変更が可能であることを認識するであろう。したがって、本開示は、添付の特許請求の範囲を含む本出願の範囲内に入るそのような変更、修正、および変形をすべて包含することが意図されている。本明細書で使用される場合、「含む」という用語は、「含む」ことを意味するが、限定するものではなく、「含むこと」という用語は「含むことを」意味するが、限定するものではない。「に基づく」という用語は、少なくとも部分的に基づいていることを意味する。さらに、明細書または特許請求の範囲が「a」、「an」、「a first(第1の)」、または「another(他の)」の要素またはその等価物を記載する場合、それは、そのような要素の2つ以上を要求または排除するものではなく、そのような要素の1つまたは複数を含むと解釈されるべきである。
以下に、上記各実施形態から把握できる技術思想を記載する。
(付記1)
装置であって、
無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスであって、前記マルチセンサ検出器は、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出する少なくとも2つのセンサを含む、前記ウェアラブルデバイスと、
前記マルチセンサ検出器を監視して、前記少なくとも2つのセンサから受信された入力データに基づいて前記操作者の複数のジェスチャを判定するコントローラと、を備え、
前記コントローラは、判定された操作者の複数のジェスチャに基づいて前記無人機へのコマンドを生成する、装置。
(付記2)
前記マルチセンサ検出器は、
操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および操作者の手の指の動きを検出する抵抗ストリップのうちの少なくとも2つを含む、付記1に記載の装置。
(付記3)
前記コントローラは、前記無人機を制御するために前記コマンドを中継する通信モジュールに前記コマンドを送信する、付記1に記載の装置。
(付記4)
前記通信モジュールは、前記無人機を制御するために前記コマンドを中継するモバイルデバイスである、付記3に記載の装置。
(付記5)
前記コントローラは、前記コマンドをブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、前記無人機を制御するために前記コマンドを中継する通信モジュールに送信する、付記3に記載の装置。
(付記6)
前記通信モジュールと通信するミッションプランナ・アプリケーションをさらに備え、
前記ミッションプランナ・アプリケーションは、前記通信モジュールからコマンドを受信し、前記コマンドに基づいて前記無人機を制御するための制御コマンドを生成する、付記5に記載の装置。
(付記7)
前記ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して前記通信モジュールと通信する、付記6に記載の装置。
(付記8)
前記ミッションプランナ・アプリケーションから前記ウェアラブルデバイスの操作者にミッションステータスを伝えるウェアラブルグラスをさらに備える付記7に記載の装置。
(付記9)
前記ミッションプランナ・アプリケーションは、ソフトウェアパケットをスクリプトインタフェースを介して汎用プロトコルインタフェースに通信し、該汎用プロトコルインタフェースは、汎用プロトコルのコマンドを前記通信モジュールと通信するアプリケーションに変換する、付記7に記載の装置。
(付記10)
前記汎用プロトコルは、トランスポート・コントロール・プロトコル(TCP)であり、
前記ソフトウェアパケットは、Pythonスクリプトで通信される、付記9に記載の装置。
(付記11)
システムであって、
無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスであって、前記マルチセンサ検出器は、操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および操作者の手の指の動きを検出する抵抗ストリップのうちの少なくとも2つを含む、前記ウェアラブルデバイスと、
前記マルチセンサ検出器を監視して、前記少なくとも2つのセンサから受信された入力データに基づいて前記操作者の複数のジェスチャを判定するコントローラであって、判定された操作者の複数のジェスチャに基づいてコマンドを生成する前記コントローラと、
前記無人機を制御するために前記コントローラからのコマンドを中継する通信モジュールと、を備えるシステム。
(付記12)
前記通信モジュールは、前記無人機を制御するためのコマンドを中継するモバイルデバイスである、付記11に記載のシステム。
(付記13)
前記コントローラは、前記コマンドをブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、前記無人機を制御するために前記コマンドを中継する通信モジュールに送信する、付記12に記載のシステム。
(付記14)
前記通信モジュールと通信するミッションプランナ・アプリケーションをさらに備え、
前記ミッションプランナ・アプリケーションは、前記通信モジュールから前記コマンドを受信し、前記コマンドに基づいて前記無人機を制御するための制御コマンドを生成する、付記13に記載のシステム。
(付記15)
前記ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して前記通信モジュールと通信する、付記14に記載のシステム。
(付記16)
前記ミッションプランナ・アプリケーションから前記ウェアラブルデバイスの操作者にミッションステータスを伝えるウェアラブルグラスをさらに備える付記15に記載のシステム。
(付記17)
前記ミッションプランナ・アプリケーションは、ソフトウェアパケットをスクリプトインタフェースを介して汎用プロトコルインタフェースに通信し、該汎用プロトコルインタフェースは、汎用プロトコルのコマンドを前記通信モジュールと通信するアプリケーションに変換する、付記16に記載のシステム。
(付記18)
前記汎用プロトコルは、トランスポート・コントロール・プロトコル(TCP)であり、
前記ソフトウェアパケットは、Pythonスクリプトで通信される、付記17に記載のシステム。
(付記19)
方法であって、
コントローラが、少なくとも2つのセンサを有するウェアラブルデバイスから、無人機(UV)に命令する操作者の複数のジェスチャを検出すること、
前記少なくとも2つのセンサを分析して、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出すること、
前記コントローラが、前記少なくとも2つのセンサの分析に基づいて、前記操作者の複数のジェスチャを判定すること、
前記コントローラが、前記無人機の複数の動作を制御するためのコマンドを通信すること、を備える方法。
(付記20)
前記コマンドをミッションプランナ・アプリケーションに通信することをさらに備え、
前記ミッションプランナ・アプリケーションは、前記コマンドに基づいて前記無人機を制御するための制御コマンドを生成する、付記19に記載の方法。
図1
図2
図3
図4
図5
図6
図7