IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソフトバンクグループ株式会社の特許一覧

<>
  • 特許-システム 図1
  • 特許-システム 図2
  • 特許-システム 図3
  • 特許-システム 図4
  • 特許-システム 図5
  • 特許-システム 図6
  • 特許-システム 図7
  • 特許-システム 図8
  • 特許-システム 図9
  • 特許-システム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2025-01-31
(45)【発行日】2025-02-10
(54)【発明の名称】システム
(51)【国際特許分類】
   G05D 1/222 20240101AFI20250203BHJP
   B64U 20/80 20230101ALI20250203BHJP
   G05D 1/69 20240101ALI20250203BHJP
   B64C 19/02 20060101ALI20250203BHJP
   B63C 11/00 20060101ALI20250203BHJP
   G05D 1/693 20240101ALN20250203BHJP
   B64U 101/35 20230101ALN20250203BHJP
   B64U 101/55 20230101ALN20250203BHJP
【FI】
G05D1/222
B64U20/80
G05D1/69
B64C19/02
B63C11/00 B
G05D1/693
B64U101:35
B64U101:55
【請求項の数】 5
(21)【出願番号】P 2024057710
(22)【出願日】2024-03-29
【審査請求日】2024-03-29
(31)【優先権主張番号】P 2023153843
(32)【優先日】2023-09-20
(33)【優先権主張国・地域又は機関】JP
【早期審査対象出願】
(73)【特許権者】
【識別番号】591280485
【氏名又は名称】ソフトバンクグループ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】永山 流之介
【審査官】大古 健一
(56)【参考文献】
【文献】特開2001-322079(JP,A)
【文献】特開2022-024072(JP,A)
【文献】中田 敦,中田敦のGAFA深読み,日経コンピュータ,日本,日経BP,2023年05月25日,no.1095,p.096
(58)【調査した分野】(Int.Cl.,DB名)
G05D 1/00 - 1/87
B64U 20/80
B64C 19/02
B63C 11/00
B64U 101/35
B64U 101/55
(57)【特許請求の範囲】
【請求項1】
生成AIを利用して複数の無人航空機を同時に制御するためのシステムであって、
ユーザからの自然言語の指示を受け取り、AIによって解析された後、前記無人航空機の動作プログラムを生成する生成手段と、
前記ユーザの感情を認識する認識手段と、
前記認識手段によって認識された前記ユーザの感情に応じて前記無人航空機の行動パターンおよびカメラ設定を調整する感情反映手段と、を含むシステム。
【請求項2】
請求項1に記載のシステムであり、
ユーザからの指示である自然言語を解析する解析手段と、
前記指示の目的またはタスクを特定する意図解析手段と、をさらに有し、
前記生成手段は、解析された意図に基づいて、前記動作プログラムを生成することを特徴とするシステム。
【請求項3】
請求項1に記載のシステムであり、前記無人航空機は、前記動作プログラムに基づいて、自律的に飛行および転の操作を行う飛行制御手段を含むことを特徴とするシステム。
【請求項4】
請求項1に記載のシステムであり、前記無人航空機は、空中から温度、湿度、大気圧の測定を行い、気象データを収集する収集手段と、土壌の水分および栄養状態を測定するセンサーとを含むことを特徴とするシステム。
【請求項5】
請求項1に記載のシステムであり、前記複数の無人航空機は、前記無人航空機同士が情報を共有し、群れとして協調動作を行うスウォーム機能を有することを特徴とするシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の技術は、システムに関する。
【背景技術】
【0002】
特許文献1には、少なくとも一つのプロセッサにより遂行される、ペルソナチャットボット制御方法であって、ユーザ発話を受信するステップと、前記ユーザ発話を、チャットボットのキャラクターに関する説明と関連した指示文を含むプロンプトに追加するステップと前記プロンプトをエンコードするステップと、前記エンコードしたプロンプトを言語モデルに入力して、前記ユーザ発話に応答するチャットボット発話を生成するステップ、を含む、方法が開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2022-180282号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明が解決しようとする課題は、複数の無人航空機を同時に制御するための操作を簡単かつ効率的に行うことである。
【課題を解決するための手段】
【0005】
生成AIを利用して複数の無人航空機を同時に制御するためのシステムであり、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段、を含むシステム。
【図面の簡単な説明】
【0006】
図1】第1実施形態に係るデータ処理システムの構成の一例を示す概念図である。
図2】第1実施形態に係るデータ処理装置及びスマートデバイスの要部機能の一例を示す概念図である。
図3】第2実施形態に係るデータ処理システムの構成の一例を示す概念図である。
図4】第2実施形態に係るデータ処理装置及びスマート眼鏡の要部機能の一例を示す概念図である。
図5】第3実施形態に係るデータ処理システムの構成の一例を示す概念図である。
図6】第3実施形態に係るデータ処理装置及びヘッドセット型端末の要部機能の一例を示す概念図である。
図7】第4実施形態に係るデータ処理システムの構成の一例を示す概念図である。
図8】第4実施形態に係るデータ処理装置及びロボットの要部機能の一例を示す概念図である。
図9】複数の感情がマッピングされる感情マップを示す。
図10】複数の感情がマッピングされる感情マップを示す。
【発明を実施するための形態】
【0007】
以下、添付図面に従って本開示の技術に係るシステムの実施形態の一例について説明する。
【0008】
先ず、以下の説明で使用される文言について説明する。
【0009】
以下の実施形態において、符号付きのプロセッサ(以下、単に「プロセッサ」と称する)は、1つの演算装置であってもよいし、複数の演算装置の組み合わせであってもよい。また、プロセッサは、1種類の演算装置であってもよいし、複数種類の演算装置の組み合わせであってもよい。演算装置の一例としては、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-Purpose computing on Graphics Processing Units)、APU(Accelerated Processing Unit)、又はTPU(Tensor Processing Unit)等が挙げられる。
【0010】
以下の実施形態において、符号付きのRAM(Random Access Memory)は、一時的に情報が格納されるメモリであり、プロセッサによってワークメモリとして用いられる。
【0011】
以下の実施形態において、符号付きのストレージは、各種プログラム及び各種パラメータ等を記憶する1つ又は複数の不揮発性の記憶装置である。不揮発性の記憶装置の一例としては、フラッシュメモリ(SSD(Solid State Drive))、磁気ディスク(例えば、ハードディスク)、又は磁気テープ等が挙げられる。
【0012】
以下の実施形態において、符号付きの通信I/F(Interface)は、通信プロセッサ及びアンテナ等を含むインタフェースである。通信I/Fは、複数のコンピュータ間での通信を司る。通信I/Fに対して適用される通信規格の一例としては、5G(5th Generation Mobile Communication System)、Wi-Fi(登録商標)、又はBluetooth(登録商標)等を含む無線通信規格が挙げられる。
【0013】
以下の実施形態において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
【0014】
[第1実施形態]
図1には、第1実施形態に係るデータ処理システム10の構成の一例が示されている。
【0015】
図1に示すように、データ処理システム10は、データ処理装置12及びスマートデバイス14を備えている。データ処理装置12の一例としては、サーバが挙げられる。
【0016】
データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。
【0017】
スマートデバイス14は、コンピュータ36、受付装置38、出力装置40、カメラ42、及び通信I/F44を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、受付装置38、出力装置40、及びカメラ42も、バス52に接続されている。
【0018】
受付装置38は、タッチパネル38A及びマイクロフォン38B等を備えており、ユーザ入力を受け付ける。タッチパネル38Aは、指示体(例えば、ペン又は指等)の接触を検出することにより、指示体の接触によるユーザ入力を受け付ける。マイクロフォン38Bは、ユーザの音声を検出することにより、音声によるユーザ入力を受け付ける。制御部46Aは、タッチパネル38A及びマイクロフォン38Bによって受け付けたユーザ入力を示すデータをデータ処理装置12に送信する。データ処理装置12では、特定処理部290(図2参照)が、ユーザ入力を示すデータを取得する。
【0019】
出力装置40は、ディスプレイ40A及びスピーカ40B等を備えており、データをユーザが知覚可能な表現形(例えば、音声及び/又はテキスト)で出力することでデータをユーザに対して提示する。ディスプレイ40Aは、プロセッサ46からの指示に従ってテキスト及び画像等の可視情報を表示する。スピーカ40Bは、プロセッサ46からの指示に従って音声を出力する。カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラである。
【0020】
通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。
【0021】
図2には、データ処理装置12及びスマートデバイス14の要部機能の一例が示されている。
【0022】
図2に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って特定処理部290として動作することによって実現される。
【0023】
ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。
【0024】
スマートデバイス14では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。受付出力プログラム60は、データ処理システム10によって特定処理プログラム56と併用される。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。
【0025】
なお、データ処理装置12以外の他の装置がデータ生成モデル58を有してもよい。例えば、サーバ装置(例えば、ChatGPTサーバ)がデータ生成モデル58を有してもよい。この場合、データ処理装置12は、データ生成モデル58を有するサーバ装置と通信を行うことで、データ生成モデル58が用いられた処理結果(予測結果など)を得る。また、データ処理装置12は、サーバ装置であってもよいし、ユーザが保有する端末装置(例えば、携帯電話、ロボット、家電)であってもよい。次に、データ処理装置12の特定処理部290による特定処理について説明する。
【0026】
(形態例1)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、通信手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。無人航空機は、生成された動作プログラムに基づいて、指示に従って移動や回転などの操作を行う。通信手段は、制御装置と無人航空機の間で指示やデータの送受信を行うための手段である。
生成手段は、例えば、データ処理装置12の特定処理部290によって実現される。通信手段は、例えば、データ処理装置12の通信I/F26やスマートデバイス14の通信I/F44を介して、無人航空機との間で指示やデータの送受信を行う手段として実現される。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
生成手段は、自然言語処理技術を活用して、ユーザからの指示を解析し、無人航空機の動作プログラムを生成する。また、生成手段は、人間の口頭またはテキスト入力による指示を音声認識手段とテキスト解析手段によってデジタルデータに変換し、その内容を解釈することもできる。この手段には、音声認識機能が含まれ、ユーザの口頭での指示をテキストデータに変換する。また、音声認識手段は、ユーザの音声指示を受け取り、音声データをテキスト化する機能を有する。テキスト解析手段が、指示の内容を理解し、意図を把握するために形態素解析や構文解析を行う。また、テキスト解析手段は、入力されたテキストの意味を理解するために形態素解析や構文解析を行う。意図解析手段が、指示の背後にある目的やタスクを特定し、動作プログラム生成手段が、解析された意図に基づいて具体的な動作プログラムを生成する。また、意図解析手段は、テキストに含まれる指示から具体的なタスクや目的を特定し、それに基づいて動作プログラム生成手段が動作プログラムを作成することもできる。動作プログラム生成手段は、確率論的なアルゴリズムや機械学習モデルを利用して、効率的で安全な無人航空機の動作計画を立案する。また、この動作プログラム生成手段は、無人航空機が遂行すべき動作シーケンスを定義し、それに必要なパラメータを算出することもできる。
無人航空機は、搭載された飛行制御手段を通じて、生成された動作プログラムに基づいた操作を自動で実行する。また、無人航空機には、飛行制御手段が内蔵されており、生成された動作プログラムに従って、自律的に飛行や回転などの操作を行うことができる。飛行制御手段は、センサーからのデータや、GPSによる位置情報を基に、無人航空機の姿勢や位置をリアルタイムで制御する。また、飛行制御手段は、姿勢制御機能、位置制御機能、速度制御機能を組み合わせて機能し、これらはセンサーデータやGPS情報に基づいて無人航空機の飛行状態を調整することもできる。障害物検知手段が周囲の環境を認識し、衝突回避手段が障害物を回避する経路を計算する。また、障害物検知手段は、レーダーやLiDARなどのセンサーを用いて周囲の障害物を検出し、衝突回避手段は検知された障害物を避けるための代替経路を計算し、安全に飛行することもできる。
通信手段は、無線通信技術を用いて、制御装置と無人航空機間のデータの送受信を可能にする。また、通信手段は、高度な無線通信技術を活用して制御装置と無人航空機間でのデータの送受信を行うこともできる。この手段には、信号のエンコードとデコードを行う符号化手段と、通信の信頼性を保つための誤り訂正手段が含まれる。符号化手段は、送信されるデータを効率的にエンコードし、受信側でデコードすることでデータの意味を回復する。誤り訂正手段は、通信過程で生じうるデータの誤りを検出し、修正することで通信の信頼性を保つ。通信手段は、低遅延で高い帯域幅を持つ通信プロトコルを採用し、動作プログラムや運用状況のデータを迅速に送受信する。また、通信プロトコルは、低遅延かつ高帯域を実現し、無人航空機の飛行状態やセンサーデータ、ビデオフィードをリアルタイムで送信するために最適化されていることもできる。制御装置は無人航空機の状態を常に把握し、必要に応じて追加の指示を出すことができる。また、無人航空機は、飛行中のセンサーデータやビデオフィードをリアルタイムで制御装置に送信し、モニタリングや分析を行う。また、無人航空機は、飛行中のデータを通信手段を通じて制御装置に送信し、オペレーターによるリアルタイムのモニタリングや、後の分析のためのデータ収集を可能にすることもできる。
無人航空機を活用した制御システムには、さまざまな追加機能を組み込むことが可能である。例えば、無人航空機には、環境モニタリング機能を追加し、空中からの精密な温度、湿度、大気圧の測定を行い、気象データを収集することができる。また、農業分野への応用として、土壌の水分や栄養状態を測定するセンサーを搭載し、精密農業をサポートする機能を提供することも有効である。
無人航空機には、救助活動をサポートする機能も追加できる。例えば、災害発生時には、建物の損壊状況や被災者の位置を把握し、救助隊に情報を提供する。また、サーマルカメラを搭載し、煙や火災の状況を検出し、消防活動の指揮や支援に役立てることができる。さらに、自律飛行能力を向上させるため、AIを用いて無人航空機同士が情報を共有し、群れとして協調動作を行うスウォーム機能を開発することで、より広範囲のモニタリングや複数のタスクを同時に遂行することが可能になる。
通信手段においては、通信の安定性を向上させるために、衛星通信やレーザー通信などの代替通信手段を検討する。これにより、遠隔地や通信インフラが破壊された災害地域でも、無人航空機との連携を維持することができる。さらに、無人航空機の運用をより安全かつ効率的に行うために、地上のレーダーシステムや他の航空機との通信を組み合わせて、飛行中の無人航空機の位置や状態を正確に把握し、衝突回避を支援するシステムを導入する。
無人航空機を使用した監視システムでは、映像解析技術の進展を取り入れ、リアルタイムで動画から物体や人物を識別し、行動パターンを解析することも考えられる。これにより、警備や監視業務を自動化し、犯罪防止や安全管理に貢献する。また、無人航空機が撮影した映像は、バーチャルリアリティや拡張現実に活用することで、教育やトレーニング、観光などの新たな体験を提供することができる。
最後に、制御装置には、無人航空機の動作ログやセンサーデータを活用した機械学習モデルを訓練し、無人航空機の飛行パフォーマンスを改善するための自己学習機能を追加する。これにより、無人航空機は過去の経験から学習し、より効果的な飛行ルートを選択し、タスクの効率化を図ることができる。
制御装置に搭載された生成AIを活用し、他の産業分野での自動化作業にも適用することが考えられる。例えば、農薬散布や種まきなどの農業作業を自動化し、人手を要する労働を削減する。無人航空機には、超音波センサーや近赤外線カメラを搭載し、作物の生育状態や病害の早期発見に役立てる。また、無人航空機による精密な農薬散布システムを開発し、農薬の使用量を最適化し、環境への影響を減らす。
制御装置の生成AIは、無人航空機に限らず、水中ロボットや地上の自律走行車にも応用可能である。これらの異なるプラットフォームを組み合わせることで、陸海空を網羅する監視ネットワークを構築し、環境監視、資源探査、災害対応など多岐にわたる分野での利用が期待できる。無人航空機を用いた環境モニタリングでは、複合ガスセンサーを搭載し、大気汚染の監視や温室効果ガスの測定を行うことも有効である。
さらに、制御装置と無人航空機の組み合わせは、災害救助以外にも、人命救助や捜索活動での利用が考えられる。高性能カメラと顔認識技術を組み合わせ、行方不明者の捜索や、海岸監視における遭難者の早期発見に役立てる。無人航空機に救命キットを搭載し、遭難者に対して迅速な救助物資の投下を行うシステムも開発する。
通信手段の強化により、データのリアルタイム性が重要な遠隔医療や災害時の緊急通信にも活用が可能となる。高解像度の映像伝送と低遅延通信を実現し、医師が遠隔地から手術を指導したり、災害現場からの緊急通信を確立するためのインフラとしての役割を担う。
制御装置のAIをさらに進化させ、無人航空機の群れが協調して複雑な作業を行うためのアルゴリズムを開発する。これにより、一つの大きなタスクを複数の無人航空機が分担して効率よく完遂することが可能になる。例えば、建設現場での材料運搬や、火災現場での消火活動などに応用する。
最終的に、制御装置のAIと無人航空機の組み合わせは、都市のインフラ管理や交通流の監視、公共安全の確保といったスマートシティの構築にも貢献する。無人航空機が提供するリアルタイムデータを活用し、都市運営の最適化や災害発生時の迅速な対応を行うためのシステムを構築する。また、無人航空機が集めた情報は、都市計画や交通政策の立案にも役立てる。これにより、持続可能で効率的な都市の発展を支援する。
(形態例2)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、位置情報取得手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の位置情報を取得する。位置情報取得手段は、GPSやセンサーなどを利用して無人航空機の位置を特定する手段である。制御装置は、取得した位置情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
位置情報取得手段は、例えば、無人航空機に搭載されたGPSやセンサーによって実現される。制御手段は、例えば、データ処理装置12の特定処理部290によって実現される。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置は、自然言語理解モジュールを含む解析手段を用いて、ユーザからの指示を解析し、意図を把握する。また、制御装置は、ユーザからの自然言語指示を受け取る指示受付手段と、これを解析するための自然言語理解モジュールが備わっている。この自然言語理解モジュールは、音声認識技術を用いて音声指示をテキストデータに変換する音声テキスト変換手段を含む。また、音声テキスト変換機能は、音声認識アルゴリズムによってユーザの指示を文字情報に変換することができる。変換されたテキストデータをさらに解析するためのトークン化、品詞タグ付け、名詞句解析、動詞句解析、依存関係解析などの言語処理手段を含む。また、言語処理機能は、トークン化手段、品詞タグ付け手段、構文解析手段などを用いて、指示の意図を明確に把握することもできる。これにより、ユーザの指示に含まれるコマンド、パラメータ、条件などが正確に特定される。解析された指示は、無人航空機の制御に必要なコマンドとして生成AIによって解釈され、対応する行動指令を生成するコマンド生成手段を介して無人航空機の制御部に送信される。これにより、ユーザの意図がコマンドとして解釈され、無人航空機に送信される行動指令を生成する。
位置情報取得手段には、無人航空機の正確な位置を追跡するための複合的な位置情報処理手段が含まれる。また、位置情報取得手段として、無人航空機に搭載されたGPSモジュールがあり、地球上の位置情報を取得することができる。このGPSモジュールは、地球上の任意の地点の緯度、経度、高度情報を取得する。さらに、GNSS(Global Navigation Satellite System)信号を解析するGNSS解析手段が、より高い位置情報の精度と信頼性を提供することができる。また、これと併用されるGNSS解析手段は、衛星からの信号を用いて位置の精度を高めることもできる。一方、内蔵された加速度センサーやジャイロスコープなどの慣性測定ユニット(IMU)は、無人航空機の姿勢や動きを継続的に追跡し、GPS信号が不安定な環境でも安定した位置情報の取得を支援する。また、無人航空機の動きを検出するためのIMUが、慣性に基づいた情報を提供し、GPS信号が不安定な状況下でも位置情報の正確性を保つことができる。センサーを含まない例として、無人航空機がビーコンや地上局との通信により自身の位置情報を取得する通信ベースの位置情報取得手段が考えられる。また、センサーを使用しない位置情報取得の例として、通信ベースの位置情報取得手段が挙げられる。この手段では、地上のビーコンから発信される信号や、他の無人航空機との通信を通じて、相対位置や絶対位置を確定する。ビーコンは、特定の周波数の電波を発信し、無人航空機の搭載した受信モジュールがこれを受信することで、位置情報を算出するための参照点となる。また、無人航空機は受信した信号をもとに自身の位置を算出することができる。このようなシステムでは、地上局との通信を介して、無人航空機の現在位置や飛行経路の調整情報がリアルタイムで交換される。
制御手段は、無人航空機の飛行経路を計画し、調整する飛行経路計画手段を含む。また、制御手段としては、無人航空機の飛行経路を計画し、調整する飛行経路計画機能が含まれる。これには、無人航空機の動作をシミュレートし、飛行経路上の障害物や安全上の制約を考慮して、最適な飛行経路を算出するシミュレーション手段が組み込まれている。また、この機能は、シミュレーション手段を用いて飛行経路をシミュレートし、障害物回避手段や安全上の制約を考慮して最適な経路を算出することができる。さらに、無人航空機が遭遇する可能性のある緊急事態に迅速に対応するための緊急回避手段や、複数の無人航空機を協調して制御するための群制御手段も含まれる。また、緊急事態に対応する緊急回避機能や、複数の無人航空機を一元的に制御する群制御機能も備わっている。
本形態例の制御装置には、さらに複雑な環境下での飛行能力を向上させるために、高度な障害物検知システムを組み込むことが可能である。例えば、レーザースキャナーや超音波センサーを利用した3Dマッピング技術を活用し、飛行中の無人航空機が周囲の環境を精密に認識し、動的に変化する障害物にも迅速かつ自律的に対応する機能が追加される。また、衛星画像や地理情報システム(GIS)データを解析することで、飛行計画における地形の特徴や障害物の情報をより詳細に考慮し、高度な飛行経路の最適化が可能となる。
無人航空機の群制御においては、AIを利用したスウォームインテリジェンスに基づく協調飛行アルゴリズムを導入することで、複数の無人航空機が一体となって作業を効率的に行えるようになる。例えば、農薬散布や捜索救助活動において、複数の無人航空機が分散して作業を行う際に、全体の作業効率を最大化するための動的な飛行経路調整が行われる。これにより、無人航空機は個々の状況に応じて役割を分担し、協調することが可能となる。
制御装置の自然言語理解モジュールには、ユーザが用いる専門用語や業界固有の言葉を理解するための専門用語辞書やコンテキスト解析機能が追加され、特定の業界や用途に特化した指示を正確に解析し、具体的な操作コマンドに変換する能力が向上する。また、無人航空機の環境認識能力を高めるために、センサーデータと合わせてソーシャルメディアやインターネットの情報を解析し、人々の活動パターンやイベントの発生状況を把握する機能が追加される。
位置情報取得手段においては、無人航空機が使用するGPSモジュールに補正信号を提供する地上参照局のネットワークを組み込むことで、より高精度な位置情報を提供する差分GPS(DGPS)システムを導入することが可能である。さらに、遠隔地からの操作や監視を可能とするために、衛星通信を利用したリアルタイムのデータリンクシステムを組み込むことで、地球のどこからでも無人航空機の制御が行えるようになる。
これらの機能を統合することで、無人航空機はより複雑な任務に対応し、ユーザのニーズに合わせた柔軟かつ高度な運用が実現される。例えば、災害救助や環境モニタリング、セキュリティ監視などの分野において、無人航空機を活用した先進的なソリューションが提供されることになる。
制御装置には、ユーザの指示をより精密に解釈するためのコンテキスト認識機能を組み込むことができる。これにより、同じ命令でも異なる状況に応じて最適な行動を取ることが可能となる。また、ユーザとの対話を通じて、不明瞭な指示に対する問い返し機能を持つことで、コミュニケーションの精度を高め、誤解を防ぐことができる。さらに、複数のユーザからの指示を同時に処理するマルチタスク処理能力を備えることで、大規模なオペレーションにおける高い柔軟性を実現する。
位置情報取得手段には、無人航空機の周囲をリアルタイムに3DスキャンするLiDARセンサーを追加することで、より高度な環境認識と正確な位置決めを実現する。また、ビジュアルオドメトリーを活用して、カメラで撮影した映像から無人航空機の動きを推定することで、GPSが利用できない環境でも安定した位置情報を提供する。これにより、都市部の高層建築物間や密林内など、GPS信号の受信が困難な場所での活動も可能となる。
制御手段には、無人航空機が自律的に障害物を回避し、飛行経路を調整する自己学習型障害物回避アルゴリズムを採用する。また、無人航空機間の通信により、周囲の無人航空機の状況をリアルタイムで共有し、衝突を避けながら効率的に飛行することを可能とする協調回避アルゴリズムを導入する。これにより、複数の無人航空機が密集して飛行する状況でも、安全性を確保しつつ任務を遂行することができる。
制御装置のAIは、無人航空機が集めたデータを元に、継続的に環境モデルを更新し、その環境モデルを基にした予測型制御を行うことができる。これにより、無人航空機は現状のみならず、将来の変化にも対応した自律飛行を実現する。また、無人航空機は、予め設定された行動パターンを超えて、その場の状況に応じて最適な判断を下すことができる。
最終的に、本形態例で提案されるシステムは、無人航空機を用いた高度な監視、調査、災害対応など様々なアプリケーションに適用可能であり、高度な自律性とユーザビリティを兼ね備えた次世代の無人航空機制御システムとなる。それにより、人間のアクセスが困難または危険な地域での活動や、時間的制約のある緊急任務において、無人航空機の有効利用が促進されることが期待される。
(形態例3)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、映像処理手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の映像を処理する。映像処理手段は、カメラや画像認識技術を利用して無人航空機の映像を解析する手段である。制御装置は、解析された映像情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
映像処理手段は、例えば、無人航空機に搭載されたカメラやデータ処理装置12の特定処理部290によって実現される画像認識技術によって実現される。制御手段は、例えば、データ処理装置12の特定処理部290によって実現される。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置には、自然言語処理モデルを用いた指示解析手段が含まれ、ユーザからの指示をテキストまたは音声形式で受け取り、意図を把握する機能を持つ。指示解析手段は、形態素解析や構文解析によって自然言語の文を理解し、意味解析によって指示の意図を正確に把握する。また、制御装置に搭載された自然言語処理モデルは、ユーザの音声やテキスト指示を受信し、それらのデータを形態素分割機能によって言語の基本単位に分割することができる。次に、構文解析機能が文の構造を明らかにし、意味解析機能が文脈に応じた指示の意図を特定することもできる。これらの解析結果をもとに、機械学習により構築された言語理解モデルがユーザの意図を精確に把握し、対応するアクションを生成する。この過程において、機械学習に基づく言語モデルが訓練データを基に学習を行い、ユーザの指示に対する応答の精度を高める。
無人航空機に搭載される映像処理手段には、リアルタイム映像解析機能が含まれ、無人航空機が撮影する映像データを瞬時に処理し、特定の物体や景色を識別する。この機能は、ディープラーニングに基づく物体検出モデルやセマンティックセグメンテーションモデルを用いて物体の種類や位置を認識し、無人航空機が捉えた環境の特徴を抽出する。また、無人航空機に備わる映像処理手段は、リアルタイムで映像データを分析し、物体識別機能により画面内の特定のオブジェクトを識別することができる。物体検出モデルとセマンティックセグメンテーションモデルが融合され、画像中の物体の種類と位置を特定することもできる。映像データの前処理では、ノイズリダクションやコントラスト調整が行われ、認識精度の向上に貢献する。さらに、画像前処理機能により、ノイズリダクションやコントラスト調整を行い、映像解析の精度を向上させることができる。
制御手段には、無人航空機の飛行経路計算機能が含まれ、解析された映像情報を基に、目的地までの最適な飛行経路を算出し、無人航空機を効率的に案内する。この飛行経路計算機能は、地形データや気象情報を統合し、障害物回避やエネルギー効率の最大化を図る。また、制御手段として、無人航空機は飛行経路計算機能を用いて目的地までの効率的な経路を算出する。この機能は、地形データ統合機能と気象情報統合機能を組み合わせ、飛行の安全性と効率性を確保することができる。さらに、無人航空機の飛行動作制御機能が、速度や高度、姿勢制御といった飛行の基本動作を精密に調整し、ユーザの指示に応じた動作を実行する。また、飛行動作制御機能が無人航空機の速度、高度、および姿勢を適切に調整し、ユーザの指示に沿った動作を実現することもできる。
映像処理手段の一部として、無人航空機による環境モニタリング機能も考えられる。これは、環境変化検知モデルを用いて自然災害や異常事態を検出し、状況に応じた対応を可能にする。また、無人航空機による環境モニタリング機能は、環境変化検知モデルを使用して、自然災害や異常事態を迅速に捉え、状況に適した対応を行うことができる。この監視機能は、広範囲にわたる環境の変化を効果的に検出し、情報収集と迅速な対処を実現する。
センサーを含まないデータ収集の例として、ユーザが無人航空機に搭載されたカメラを通じて手動で映像データを選択し、そのデータを制御装置に送信する手動選択手段が考えられる。この手動選択手段では、ユーザが特定の映像に注目している場合や、特定の状況下での映像分析が求められる場合に役立つ。ユーザはインタフェースを通じて映像データを選択し、制御装置に送信することで、映像解析手段による解析と制御手段による対応が行われる。また、手動選択手段として、ユーザはインタフェースを介して無人航空機のカメラで捉えた映像データを選択し、制御装置に送信することができる。この選択プロセスにより、映像データはユーザの特定の要求に基づいて選ばれ、映像処理手段による詳細な解析や制御手段による適切な飛行制御が行われる。
制御装置には、様々な状況に応じた行動パターンを学習するための強化学習アルゴリズムを組み込むことができる。このアルゴリズムにより、無人航空機は異なる環境や任務に対応するための適応能力を高める。また、制御装置には、複数の無人航空機の協調飛行を管理するためのマルチエージェントシステムを搭載することができる。これにより、複数の無人航空機が同時に行動を起こし、一つの目標に対して効率的に協力することが可能となる。さらに、制御装置は、緊急時の無人航空機の自動帰還機能や障害物自動回避機能を含む安全機能を備えることができる。これにより、無人航空機は自身の安全を確保しつつ、任務を完遂することができる。
映像処理手段には、夜間や悪天候下でも高精度な画像解析を行うための赤外線カメラや熱感知技術を組み込むことが可能である。これにより、無人航空機は昼夜を問わず、あらゆる環境下での映像データの収集と解析を行うことができる。加えて、映像処理手段は、動的なシーンにおける物体追跡アルゴリズムを用いて動く対象の追跡も行えるようにすることができる。この機能により、無人航空機は移動する物体を継続的に監視し、重要な情報を提供することができる。
制御手段には、ユーザの指示に基づいて無人航空機の群れをコントロールするスウォームインテリジェンス機能を追加することができる。これにより、複数の無人航空機が形成する群れは、複雑な環境での集団飛行や任務遂行をより効果的に行うことができる。また、制御手段には、リアルタイムの交通情報や天候変化に応じた動的な飛行経路再計算機能を搭載することができる。これにより、無人航空機は途中で情報が更新された場合でも迅速に対応し、任務遂行の効率を向上させることができる。
映像処理手段の一部として、無人航空機が収集する映像データをリアルタイムでクラウドサービスにアップロードし、広範囲のデータ分析や共有を行う機能を含めることができる。これにより、無人航空機が捉えた映像データは、迅速な意思決定や情報共有のために広い範囲のユーザーと共有される。また、映像処理手段は、災害発生時における被害状況の詳細なマッピング機能を持つことができる。これにより、無人航空機は災害発生直後の状況を詳しく把握し、救助隊や復旧作業において重要な情報を提供することができる。
センサーを含まないデータ収集の例として、ユーザが無人航空機を通じて取得した映像データを、AI支援の自動分析機能によってソーシャルメディアやニュースサイトに自動投稿することもできる。これにより、社会的な出来事や珍しい自然現象を広く公開し、関心を集めたり、意識を高めたりすることができる。また、ユーザーのプライバシー保護のためのデータ匿名化機能を含むことで、無人航空機が収集した映像データを安全に共有することができる。
制御装置に搭載された生成AIには、無人航空機が撮影した映像をリアルタイムで解析し、災害時の損傷状況や生存者の位置を特定する機能を追加することができる。これにより、救助活動の迅速化と効率化に貢献する。さらに、無人航空機の映像データを活用した3Dマッピング技術を統合し、被災地の立体的な地図を作成し、より詳細な状況把握を実現する。
映像処理手段には、昼夜や天候の変化に左右されない高感度センサーと映像強調技術を導入し、無人航空機が低照度環境でも鮮明な映像を撮影できる機能を備える。また、映像データの中から特定のパターンやシンボルを認識し、例えば救援要請のサインや特定の障害物を検出する機能を持つこともできる。
制御手段は、無人航空機が集団で飛行する際のフォーメーションやタイミングを自動調整する機能を持つ。これにより、複数の無人航空機が協力して広範囲をカバーし、効率的にデータ収集を行うことができる。さらに、無人航空機が予期せぬ障害物に遭遇した際に迅速に避けるための、環境認識に基づく自律回避機能を搭載することができる。
映像処理手段には、映像データ内での動きを検出し、それに応じて無人航空機のカメラを自動で追尾する機能を含むことができる。これにより、動的なシーンや追跡が必要な対象を途切れることなく監視し続けることが可能となる。
制御手段には、無人航空機のエネルギー消費を最適化するアルゴリズムを搭載し、任務時間の延長や運用コストの削減に貢献する。また、無人航空機の飛行経路をリアルタイムで最適化することにより、急な状況変化にも柔軟に対応する。
映像処理手段の拡張として、無人航空機が収集した映像データを多角的に解析し、例えば農業分野での作物の健康状態評価や、環境監視における生態系の変化検出など、異なる分野での応用が可能となる機能を備える。
制御装置には、ユーザとのインタラクティブなコミュニケーションを実現するための、自然言語理解能力をさらに向上させる機能を追加することができる。これにより、ユーザが直感的に無人航空機を操作できるようになり、幅広いユーザーが無人航空機を活用できるようになる。
映像処理手段には、ライブ映像にリアルタイムでテキストやアノテーションを挿入することで、映像の内容をよりわかりやすく伝える機能を追加することができる。これにより、例えば災害時の救助情報を現場の救助隊員や指揮官に即座に提供することが可能となる。
制御手段には、無人航空機の自己修復機能や、定期的なメンテナンスリマインダーを提供する機能を組み込むことができる。これにより、無人航空機の稼働率と信頼性が高まり、長期間にわたる安定した運用が実現する。
これらの追加機能により、無人航空機を活用した監視や災害対応、情報収集の能力が飛躍的に向上し、多様な状況に対応できる柔軟なシステムを構築することができる。
(形態例4)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、距離計測手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の距離を計測する。距離計測手段は、超音波センサーやレーザー距離計などを利用して無人航空機と障害物との距離を測定する手段である。制御装置は、計測された距離情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
距離計測手段は、例えば、無人航空機に搭載された超音波センサーやレーザー距離計によって実現される。制御手段は、例えば、データ処理装置12の特定処理部290によって実現される。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置に内蔵された生成AIは、自然言語解析手段を利用して人間の指示を理解する機能を持ち、この機能によって無人航空機の操作に必要なコマンドを生成する。また、制御装置に搭載された生成AIは、音声からテキストへの変換機能を有する音声認識手段と、文の意味を解釈するための文法解析手段及び意味解析手段を組み合わせることで、ユーザの指示を理解し、無人航空機の操作に必要なコマンドを生成することができる。生成されたコマンドは、飛行経路の計画や無人航空機の操縦動作に対する具体的な指示を含み、これらは無人航空機の制御アルゴリズムによって実行される。また、生成されたコマンドは、無人航空機の飛行経路や動作に関する詳細な指示を包含し、制御アルゴリズム手段によって実行されることができる。
距離計測手段としての超音波センサーは、無人航空機の前面や側面に設置され、周囲の障害物からの反射音波を検出することで距離を測定する。このセンサーは、環境に適応するためのエコーキャンセレーション機能や、干渉波を除去するフィルタリング機能を備えており、正確な距離情報を提供する。また、超音波センサーは、エコーロケーション機能を利用して周囲の障害物からの反射波を検出し、距離情報を取得することができる。このセンサーは、干渉音波除去機能やエコーキャンセレーション機能により、環境ノイズに影響されずに正確な距離情報を提供することができる。一方、レーザー距離計は、高精度な距離測定が可能であり、特に長距離の計測や微妙な障害物の検出に適している。レーザー距離計は、目標物にレーザー光を発射し、その反射光の時間差を利用して距離を計算する。また、レーザー距離計は、目標物に対するレーザー光線発射機能と反射光検出機能を有し、反射時間差計算機能によって距離を測定することができる。レーザー距離計は、精密な距離測定を可能にし、特に長距離や微細な障害物の検出に適していることができる。
制御手段は、距離計測手段からの情報を基に無人航空機の動作を調節する機能を持ち、この機能は無人航空機の飛行制御アルゴリズムによって実現される。飛行制御アルゴリズムは、PID制御やフィードフォワード制御などの制御理論に基づいて設計され、無人航空機が安定した飛行を維持しながら指示された動作を正確に実行できるようにする。制御手段は、無人航空機の姿勢や速度をリアルタイムで調節し、障害物を回避しながら目的地に到達する経路を最適化する。また、制御手段は、距離計測手段から提供される情報を利用して、無人航空機の姿勢や速度を調節し、障害物を回避する経路制御機能を有することができる。飛行制御アルゴリズム手段は、PID制御機能やフィードフォワード制御機能を活用し、無人航空機が指示に従って安定かつ正確に飛行するための動作調整を行うことができる。
センサーを含まない距離計測の例としては、GPSを用いた位置測定手段がある。無人航空機に搭載されたGPS受信機は、衛星から送信される信号を受け取り、その情報を基に無人航空機の現在位置を算出する。位置測定手段は、無人航空機が飛行する環境の広域的な位置情報を提供し、より大規模な飛行計画の立案に利用される。また、無人航空機間の相対的な位置関係を把握するために、複数の無人航空機がそれぞれのGPS情報を共有し、全体としての飛行隊形を調整する手段としても機能する。さらに、GPSによる位置測定手段は、衛星信号受信機能を備えたGPS受信機を介して、無人航空機の現在地を決定することができる。位置情報計算機能は、受信した衛星信号から無人航空機の位置を算出し、広域的な飛行計画立案に寄与することができる。さらに、無人航空機間で位置情報を共有することにより、飛行隊形調整機能としても機能し、全体としての飛行コーディネーションを実現することができる。
制御装置にはさらに、障害物検出の精度を向上させるための画像処理手段が追加される。例えば、機械学習に基づく物体認識アルゴリズムを活用して、無人航空機が撮影した映像から障害物を自動で検出し、その大きさや形状を認識することができる。これにより、無人航空機はより複雑な環境でも安全に飛行する能力を有する。また、無人航空機が撮影した映像データをリアルタイムで解析し、動的な環境変化に応じた飛行経路の調整を行う能力を備える。さらに、制御装置には、無人航空機間の通信を調整する通信制御手段が搭載され、複数の無人航空機が情報を共有し、協調飛行を行うことが可能となる。この通信制御手段は、隊列飛行や特定の任務実行時の協調動作を最適化する機能を持つ。
制御装置のAIは、実際の飛行環境から学習を行う自己学習機能を持ち、新たな障害物や未知の状況に遭遇した際にも最適な飛行経路を自動で生成する。AIは、無人航空機の経験を蓄積し、過去のデータを参照しながら飛行パターンを改善していく。この学習プロセスは、無人航空機がより環境に適応し、より効果的な任務遂行が可能となる。また、制御装置は、複数の無人航空機が同時に活動する際の衝突回避アルゴリズムも搭載し、安全かつ効率的な群れの動きを実現する。
距離計測手段としてのセンサーには、夜間や悪天候下でも正確な距離測定を行うための赤外線センサーや熱画像カメラが追加される。これらは、従来の超音波センサーやレーザー距離計の限界を補い、無人航空機がさらに厳しい環境下での作業を可能とする。また、これらのセンサーは、障害物の種類や温度分布を検出し、それに応じた飛行経路の選択を行うための追加情報を提供する。
制御手段には、先進的な衝突回避システムが組み込まれる。このシステムは、リアルタイムでの環境認識と予測モデリングを組み合わせ、無人航空機が予期せぬ障害物に迅速かつ効果的に反応できるようにする。無人航空機は、衝突回避システムによって自動的に飛行経路を変更し、安全を確保しながら任務を継続する。さらに、制御手段は無人航空機のエネルギー管理を最適化し、飛行時間の延長や任務効率の向上を図る機能も備える。
制御装置に搭載された生成AIは、複数の無人航空機を同時に監視し、それぞれの航空機の動作を調整することにより、群れのような協調動作を可能にする機能を持つ。無人航空機同士が情報を共有し、周囲の環境や他の航空機の位置を認識し合いながら、効率的かつ安全に任務を遂行する。この協調動作は、特に複雑な地形や障害物の多い環境で有効であり、捜索救助活動や災害時の状況把握などに応用できる。
また、無人航空機に搭載される距離計測手段には、障害物との衝突リスクを低減させるための新たなセンサーフュージョン技術を採用する。異なる種類のセンサーから得られる情報を統合し、より正確かつ信頼性の高い環境認識を実現する。例えば、超音波センサーの距離情報とレーザー距離計の精密な測定結果を組み合わせることで、無人航空機は障害物をより緻密に認識し、その周囲を安全に飛行する。
制御装置は、無人航空機の飛行データをクラウドにアップロードし、それを基にした大規模なデータ解析を行うこともできる。これにより、無人航空機の飛行効率を向上させる新しい飛行パターンの発見や、将来の飛行計画の改善に役立つ洞察を得ることが可能になる。さらに、クラウドベースのシミュレーションを利用して、仮想環境で無人航空機の飛行テストを行い、実際に飛行する前に様々なシナリオでの対応を学習させることもできる。
制御装置には、ユーザーが直感的に操作できるインタフェースも備えられる。タッチスクリーンディスプレイやジェスチャー認識技術を用いて、ユーザーは簡単な動作で無人航空機の飛行を指示できる。加えて、バーチャルリアリティ(VR)や拡張現実(AR)技術を組み合わせることで、ユーザーはより直感的に無人航空機の飛行を監視し、制御する体験を得ることができる。
さらに、無人航空機は、機械学習に基づく予測メンテナンス機能を備えることで、機体の故障リスクを事前に特定し、予防的な保守を行う。これにより、無人航空機の稼働率を高め、長期にわたる信頼性の維持に寄与する。
最後に、無人航空機の利用範囲を拡大するために、水中や地下での使用が可能な防水・防塵機能を持つモデルの開発も検討される。これにより、海洋調査や地下資源の探査など、従来の無人航空機では困難だった分野への応用が可能になる。
【0027】
以下に、各形態例の処理の流れについて説明する。
【0028】
(形態例1)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、動作プログラムを生成する。
ステップ3:生成された動作プログラムを無人航空機に送信し、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例2)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の位置情報を取得する。
ステップ3:取得した位置情報を基に、制御装置は無人航空機を制御する。
(形態例3)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の映像を処理する。
ステップ3:映像処理手段を利用して、制御装置は無人航空機の映像を解析する。
ステップ4:解析された映像情報を基に、制御装置は無人航空機を制御する。
(形態例4)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機と障害物との距離を計測する。
ステップ3:距離計測手段を利用して、制御装置は無人航空機と障害物との距離を測定する。
ステップ4:計測された距離情報を基に、制御装置は無人航空機を制御する。
【0029】
更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。
【0030】
(形態例1)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが喜んでいる場合には、無人航空機の飛行速度を上げたり、カメラの視点を広範囲に設定したりする。
生成手段は、例えば、データ処理装置12の特定処理部290によって実現される。認識手段および反映手段は、例えば、スマートデバイス14の制御部46Aによって実現される。また、認識手段および反映手段は、例えば、データ処理装置12の特定処理部290によって実現されてもよい。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置には、自然言語理解(NLU)技術を用いた解析手段が含まれ、これによりユーザが与えた指示を意図に沿って解釈する。この解析手段は、ユーザの発話をトークン化し、品詞タグ付けと構文解析を行う。また、解析手段は、発話内容をトークン化するトークン化手段と、品詞を識別する品詞タグ付け手段、文の構造を解析する構文解析手段を組み合わせて機能し、ユーザの命令に応じた動作プログラムを生成するプログラム生成手段を備える。さらに、意図認識手段によって発話の目的を特定し、適切な動作プログラムを生成するための情報を抽出する。動作プログラム生成手段は、解析された指示に基づき、無人航空機の飛行経路、速度、カメラ操作といった具体的な動作命令を生成する。また、動作プログラム生成手段は、無人航空機の飛行経路やカメラ操作などを制御するための指示を形成し、無人航空機が任務を遂行するために必要なパラメータを設定する。
感情認識手段には、音声分析や表情解析技術を用いてユーザの感情状態を把握する機能が含まれる。音声分析手段は、話し声のトーンやピッチの変化から感情を読み取る。また、音声分析手段は、話し声から感情を推定する。表情解析手段は、カメラによって捉えられたユーザの顔の表情から、喜びや悲しみなどの感情を識別する。また、表情解析手段は、視覚情報をもとに感情を識別する。これらの手段は、機械学習モデルを用いて訓練され、高い精度で感情を認識する。感情反映手段は、認識された感情に応じて無人航空機の飛行パターンやカメラ設定を調整する。たとえば、ユーザが喜びを示している場合、無人航空機はよりダイナミックな飛行パターンをとり、カメラの視野角を広げて景色を広範囲に捉えるようになる。また、感情反映手段は、認識された感情に基づいて無人航空機の挙動を変更し、例えば、喜びを感じているユーザに対して飛行速度を上げることで応答する。
無人航空機の飛行制御手段は、無人航空機の機種ごとの操縦特性を理解し、それに基づいて最適な飛行経路を計算する。また、無人航空機は、それぞれの機体特性を理解し、最適な飛行経路を算出する飛行制御手段を備えている。障害物回避手段は、センサーによって得られる周辺環境の情報を解析し、安全な飛行経路をリアルタイムでプランニングする。また、障害物を検出し、それを回避するための経路を計算する障害物回避手段も搭載している。この障害物回避手段は、機械学習に基づく予測モデルとセンサーフュージョン技術を組み合わせて、環境変化に柔軟に対応する。カメラ制御手段は、ユーザの指示や感情状態に基づいて、カメラのパン、チルト、ズーム操作を自動的に行う。これにより、ユーザが求める画像や映像の撮影が可能となる。また、カメラ制御手段は、ユーザの指示に基づいて無人航空機のカメラを遠隔操作し、所望の映像を撮影する。
システムの全体構成は、モジュラー設計が採用されており、無人航空機の種類や運用環境に合わせて柔軟にカスタマイズ可能である。また、システムは、モジュールごとに独立した機能を有し、無人航空機の種類や運用環境に合わせてカスタマイズできるように設計されており、クラウドベースのインフラによりデータの集中管理や制御ロジックのリモート更新が可能である。これにより、システムの拡張性や適応性が向上し、ユーザのニーズに応じたサービスの提供が実現される。また、システムはクラウドベースのアーキテクチャを採用し、データの処理や無人航空機の制御ロジックの更新をリモートで行うことができる。これにより、システムのメンテナンスやアップグレードが容易になるとともに、最新の技術を迅速に導入することが可能となる。さらに、センサーを含まないデータ収集手段として、ユーザが直接入力した指示や感情表出をシステムに登録する方法があり、これにより無人航空機の動作やカメラ制御のカスタマイズが行われる。
本発明における生成AI搭載の制御装置は、ユーザの指示をより深く理解し、無人航空機の動作プログラムを洗練させるために、コンテキスト認識機能を追加することができる。これにより、ユーザが与えた指示が特定の状況や環境に応じて最適化され、例えば、屋外の気象条件や周囲の騒音レベルに基づいて無人航空機の飛行パターンを調整する。また、センサーデータを活用したリアルタイム環境認識機能により、無人航空機が自動で天候変化に適応し、安全な飛行を維持する動作プログラムを生成する。
感情エンジンに関しては、ユーザの生理的信号を解析する生体センサーの統合により、心拍数や皮膚電気活動などから感情状態をより正確に読み取ることが可能となる。これにより、ユーザがストレスを感じている場合には、無人航空機は穏やかな飛行を行い、カメラは静かな風景を捉えるように調整される。さらに、ユーザの感情変化に応じて無人航空機が音楽を流すなどのエンターテインメント機能を提供することもできる。
無人航空機には、グループ飛行機能を追加し、複数の無人航空機が連携して複雑な飛行形態や撮影を実現する。この機能により、例えば、一台の無人航空機が主体的に被写体を追跡しながら、他の無人航空機が異なる角度から補助的な映像を撮影し、多角度からの映像を生成する。
カメラ制御手段では、拡張現実(AR)や仮想現実(VR)技術を組み込むことにより、撮影された映像にリアルタイムでデジタル情報を重ね合わせ、ユーザに対して没入感のある視覚体験を提供することが可能となる。例えば、無人航空機からの映像に地図情報や注釈を追加し、観光案内や教育用のコンテンツとして活用する。
また、制御装置には、ユーザが前もって無人航空機の挙動をプログラミングし、特定のイベントや条件が満たされた際に自動で実行されるトリガー機能を追加することができる。これにより、例えば、ユーザが特定の感情を示したときに特定の飛行パターンがトリガーされるようなシナリオを設定できる。
システム全体としては、各モジュールの交換やアップグレードが容易に行えるようなデザインとし、ユーザからのフィードバックをシステムに反映させるための機構を設ける。これにより、システムはユーザの使用状況や要望に応じて進化し続け、長期にわたって価値を提供し続けることができる。また、無人航空機の故障や損傷時には、自己診断機能によって問題を特定し、ユーザやメンテナンス担当者に通知することもできる。このように、本発明は、無人航空機を活用したユーザ中心のインタラクティブなエクスペリエンスを提供し、様々な応用分野での利用が期待される。
制御装置には、ユーザの感情に反応して無人航空機が特定の照明効果を発生させる機能を追加することができる。たとえば、ユーザが興奮状態にあるときは、無人航空機が鮮やかな色のLEDライトを使用して空中で光のショーを展開する。また、無人航空機がユーザの周囲を飛行しながら、状況に応じた香りを放出する機能を組み込むことで、五感を刺激する体験を提供する。
感情エンジンは、ユーザの感情認識の精度を向上させるために、ソーシャルメディアの投稿や日常の行動パターンから得られるデータを分析することで、感情の予測モデルを構築する。これにより、無人航空機はユーザの感情の変化を事前に予測し、よりタイムリーに対応する。
無人航空機の飛行制御手段には、環境音を分析して周囲の状況を把握する機能を追加し、騒音が多い場所では飛行高度を自動調整して騒音の影響を低減させる。また、夜間飛行時には無人航空機が周囲の明るさを認識して適切な照明を提供する機能も備える。
カメラ制御手段は、撮影された映像に対してリアルタイムでエフェクトやフィルターを適用する機能を搭載し、美しい映像作りをサポートする。さらに、無人航空機が撮影した映像をユーザのソーシャルメディアアカウントに自動投稿する機能も追加する。
システム全体では、ユーザのプライバシーを考慮し、感情データや行動データの収集と使用に関するプライバシーポリシーを設定し、ユーザが容易にコントロールできるようにする。また、無人航空機同士の通信を暗号化し、セキュリティを強化することで、ユーザのデータ保護を徹底する。
無人航空機は、ユーザが緊急時に迅速に対応できるよう、SOS信号の送信や近隣の救助機関への連絡を行う機能を備える。また、災害時の捜索救助活動において、無人航空機が生存者の位置を特定し、救助隊に情報を提供することも可能となる。
これらの機能により、本発明の無人航空機システムは、エンターテインメント、日常のコンパニオン、緊急時の支援として幅広い場面での利便性と安全性を提供し、ユーザの生活を豊かにすることが期待される。
(形態例2)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが怒っている場合には、無人航空機の飛行速度を抑えたり、カメラの視点を安定させたりする。
生成手段は、例えば、データ処理装置12の特定処理部290によって実現される。認識手段および反映手段は、例えば、スマートデバイス14の制御部46Aによって実現される。また、認識手段および反映手段は、例えば、データ処理装置12の特定処理部290によって実現されてもよい。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置に搭載された生成手段は、ユーザからの自然言語による指示を受け取る受信手段を含み、この受信手段は、音声認識技術を用いてユーザの発話からテキスト情報を抽出する。受け取ったテキスト情報は、自然言語処理技術によって解析され、指示の意図や内容を理解するための解析手段を有する。解析結果に基づいて、AIは無人航空機の動作プログラムを生成する生成手段を備えており、この生成手段には、機械学習アルゴリズムやルールベースのアルゴリズムが組み込まれている。また、制御装置に組み込まれた生成AIは、ユーザが発する自然言語のコマンドをテキストに変換する音声認識手段を有しており、この音声認識手段は、ユーザの発話をテキストデータに変換するための音声解析アルゴリズムを利用する。その後、テキスト化された指示は、意図解析手段によって内容が精査され、無人航空機の動作プログラムを生成するためのAIアルゴリズムによって処理される。このAIアルゴリズムは、条件分岐機能やパラメータ調整機能を有し、ユーザの指示に基づいて無人航空機の飛行経路や行動パターンを決定する。
感情認識手段は、ユーザの声のトーン、表情、身体言語などを解析するためのセンサーやカメラを含み、これらから得られるデータを用いてユーザの感情状態を判定する。この判定は、音声解析技術によって声の高さや強さ、話速などから感情を推定する手段や、顔認識技術を用いてユーザの表情から感情を読み取る手段を通じて行われる。感情エンジンは、ユーザの感情状態を識別するための複合センシング手段を備えており、この複合センシング手段は、音声センサーと視覚センサーからの情報を統合して処理する。音声センサーは、感情分析アルゴリズムを用いてユーザの声のトーンや発話のリズムから感情を推定する。視覚センサーは、顔認識技術を活用して表情の変化を検出し、感情状態を分析する。これらのセンサーによって得られた感情データは、無人航空機の操作に影響を与えるための感情反映アルゴリズムによって処理される。
無人航空機の動作プログラムは、例えば、飛行計画を立てるための航行経路算出手段や、障害物を回避するためのセンサーデータ処理手段を含む。航行経路算出手段は、GPSデータや地図情報を利用して最適な飛行ルートを計算する。また、無人航空機の飛行プログラムには、航行経路算出手段が含まれ、これは地理情報システム(GIS)データや気象情報を参照して、飛行ルートを計画する。センサーデータ処理手段は、ライダーや超音波センサーなどから得られた情報を処理し、周囲の障害物を検出して回避する動作を無人航空機に指示する。また、障害物回避手段として、無人航空機に搭載されたセンサーアレイからのデータを分析し、周囲の環境を把握することで衝突リスクを回避する。
通信手段は、制御装置と無人航空機間のデータ転送と指令の伝達を担い、リアルタイムでの飛行制御を可能にする。また、飛行中の無人航空機は、通信手段を介して常に制御装置とデータをやり取りし、リアルタイムで状況に応じた動作の調整が行われる。
システムは、ユーザインターフェースにおいても工夫が凝らされており、ユーザが簡単に無人航空機を指令できるように、直感的なデザインが採用されている。操作性を高めるために、タッチスクリーン入力手段やジェスチャー認識手段などが組み込まれている場合もある。
センサーフリーなデータ収集手段としては、ユーザが直接操作するインタラクティブ入力手段が用意されており、感情や動作の設定を手動でシステムに伝えることができる。また、センサーを含まないデータ収集の例としては、ユーザが手動で入力した感情状態や状況に基づくデータが挙げられる。この場合、ユーザはアプリケーションやウェブインターフェースを通じて、自身の感情や望む無人航空機の動作を直接指定する。これにより、無人航空機はユーザの手動入力に基づいて動作するプログラムを実行する。
各手段の実装には、マイクロプロセッサやメモリ、通信インターフェースなどのハードウェアコンポーネントが利用され、これらはシステム全体の効率的な動作を支える。
本発明のシステムには、ユーザーの感情や意図に基づいて無人航空機を操作するためのさらなる機能を追加することができる。例えば、制御装置に組み込まれた生成AIは、ユーザーの過去の指示や反応パターンを学習し、より個人化された応答や動作プログラムを生成することが可能となる。この学習機能により、システムはユーザーの振る舞いや好みを予測し、それに応じた無人航空機の動作を自動的に調整することができる。
また、無人航空機には、環境音を識別し、その情報をユーザーの感情状態の推定に活用する音響センシング機能を付加することができる。これにより、システムは周囲の騒音や音楽、動物の鳴き声などを分析し、ユーザーが置かれている環境の雰囲気をより詳細に把握することが可能となる。
感情エンジンには、ユーザーの生体信号を追跡するためのウェアラブルデバイスとの連携機能を追加することもできる。心拍数、皮膚の電気活動、体温などの生体情報を収集し、これらのデータを感情の推定に組み込むことで、ユーザーの感情状態をより正確に識別することが可能となる。
無人航空機の飛行プログラムには、緊急時の自動帰還機能や、ユーザーの安全を確保するための回避操縦機能を組み込むこともできる。これにより、予期せぬ障害物や気象条件の変化に対して、無人航空機は自律的に安全な行動を取ることができる。
さらに、無人航空機には、ユーザーとのインタラクティブなコミュニケーションを実現するための表情認識やジェスチャー解析機能を付加することができる。これにより、ユーザーが無人航空機に向けて行う身振りや表情を認識し、それに応じた動作を行うことが可能となる。
通信手段には、低遅延で高帯域の通信プロトコルを利用し、制御装置と無人航空機間のデータ転送をより迅速かつ安定に行うことができる。この高度な通信技術により、システムはリアルタイムでの情報交換を行い、遅延のない精密な飛行制御を実現することが可能となる。
このような機能の追加により、本発明のシステムはユーザーの感情や意図をより深く理解し、無人航空機を用いてより高度で柔軟なサービスを提供することが可能となる。ユーザーとシステムの相互作用は、より直感的でリッチな経験をもたらし、ユーザーが求めるタスクをより効率的かつ安全に遂行することを助ける。
制御装置に搭載された生成AIには、ユーザーの指示に対する応答速度を向上させるための予測機能が追加されることができる。この機能は、ユーザーの指示パターンや習慣を分析して、次に発せられるであろうコマンドを予測し、無人航空機が即座に対応できるようにする。無人航空機はユーザーの意図を先読みして動作を開始することで、反応時間を短縮し、より流動的な操作を実現する。
無人航空機の飛行プログラムには、複数の無人航空機が協調して動作するためのスウォームインテリジェンス機能が組み込まれることもできる。この機能により、無人航空機は群れを成して効率的にエリアをカバーし、ユーザーの指示に基づいた複雑なタスクも分担して行うことができる。
感情エンジンについては、ユーザーの感情に応じて無人航空機の照明や音を制御する機能を追加することができる。例えば、ユーザーがリラックスしている際には、無人航空機から柔らかい照明や穏やかな音楽を再生することで、周囲の雰囲気をより心地よいものにする。
また、無人航空機には、ユーザーの指示を視覚的に伝えるためのプロジェクションマッピング機能を搭載することができる。これにより、無人航空機は地面や壁面に情報を投影し、ユーザーに対して直感的なフィードバックを提供する。
通信手段には、人工衛星通信を活用したグローバルな通信ネットワークとの連携機能が追加されることもできる。これにより、無人航空機は地球上のどこにいても制御装置からの指令を受け取り、広範囲にわたるタスクに対応できる。
無人航空機のセンサーアレイには、環境モニタリング機能が追加され、大気汚染や温室効果ガスの濃度を測定し、リアルタイムでデータを制御装置に送信することができる。これにより、システムは環境監視の一環としても活用される。
これらの追加機能により、本発明のシステムはユーザーの感情や意図を反映した無人航空機の操作をさらに高度に行い、多種多様な応用シナリオに適応する。ユーザーは、より快適で満足のいく経験を得ることができ、システムの使い勝手も大幅に向上する。
(形態例3)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが驚いている場合には、無人航空機の飛行ルートを変更したり、カメラの視点を特定の対象に向けたりする。
生成手段は、例えば、データ処理装置12の特定処理部290によって実現される。認識手段および反映手段は、例えば、スマートデバイス14の制御部46Aによって実現される。また、認識手段および反映手段は、例えば、データ処理装置12の特定処理部290によって実現されてもよい。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
生成手段は、自然言語処理(NLP)技術を用いて、ユーザからの指示を解析する解析手段と、解析された指示に基づいて無人航空機の動作プログラムを作成するプログラム生成手段とを含む。また、生成手段は、ユーザの自然言語指示を解析し、無人航空機の動作プログラムを生成する機能が実現される機能を備える。また、生成手段は、データ処理装置やスマートデバイスにモジュール化されたソフトウェアコンポーネントとして統合されており、必要に応じてクラウドベースのサービスとしても提供される。解析手段は、音声認識技術によりユーザの発声をテキスト化し、意図解析機能により指示の目的や内容を把握する。また、解析手段は、ユーザの音声指示をテキストに変換し、その内容を理解するために音声認識技術と意図解析機能を利用する。プログラム生成手段は、解析されたユーザの指示に応じて、無人航空機の飛行経路、速度、高度、カメラ操作などの動作プログラムを自動生成する。また、プログラム生成手段は、解析された指示内容に基づいて、無人航空機の飛行経路やカメラ操作などの具体的な動作プログラムを自動的に作成する。このプロセスでは、無人航空機が安全に操作されるように、飛行安全規制や物理的な制約を考慮したアルゴリズムが用いられる。また、この生成過程では、無人航空機の安全な運用を確保するために、飛行安全規制を遵守し、物理的な制約を考慮したアルゴリズムが適用される。
認識手段は、ユーザの表情、声のトーン、言葉の選択などから感情を推定する感情分析機能を含む。また、感情エンジンにおいては、ユーザの感情をリアルタイムで捉えるための認識手段が備わっている。この機能は、機械学習により訓練された感情認識モデルを使用し、リアルタイムでユーザの感情状態を推定する。感情認識モデルは、大量の表情画像や音声データを分析し、特定の感情パターンを識別するために訓練されている。この認識手段は、ユーザの表情や声のトーン、言葉の選択から感情を推定する感情分析機能を有し、機械学習に基づく感情認識モデルを使用して、ユーザの感情状態を瞬時に推定する。このモデルは、豊富な表情画像や音声データを分析することで、様々な感情パターンを識別できるよう訓練されている。
反映手段は、認識されたユーザの感情に応じて無人航空機の操作を変更する操作変更機能を含む。例えば、ユーザが驚きの感情を示した場合、無人航空機の飛行経路を即座に変更することで、ユーザの関心がある対象にカメラを向けるなど、感情に応じた対応を行う。この機能は、無人航空機の動作プログラムをリアルタイムで調整し、ユーザの体験を向上させるためのものである。また、ユーザの感情が認識されると、反映手段がその感情を無人航空機の操作に反映させる。操作変更機能は、ユーザの感情に応じて、無人航空機の飛行経路の変更やカメラの視点調整など、感情に沿った対応を行う。この機能により、ユーザの体験が向上し、無人航空機の操作がよりダイナミックで魅力的なものになる。また、入力された感情データは、反映手段によって無人航空機の動作プログラムに反映される。この場合、感情認識にセンサー技術は必要なく、ユーザ主導の情報提供に基づいてシステムが動作する。また、ユーザが直接自らの感情状態を入力することで情報を提供する場合、これはセンサーによる感情認識を必要とせず、インターフェースを通じた手動入力によって行われる。入力された感情データは、ユーザ主導でシステムに提供され、無人航空機の動作プログラムに反映されることで、ユーザの意向に合わせた操作が可能になる。
本形態例のシステムには、さらなる機能拡張が可能である。無人航空機の群れを動的に制御し、複雑な空中ショーを実現する機能を追加することができる。これにより、イベントやエンターテインメント分野での利用が期待される。また、感情エンジンは、ユーザのストレスレベルを測定し、リラクゼーションを促進するために特定の飛行パターンや映像を提供する機能も備えている。ユーザがリラックスするための音楽や映像を同時に再生し、感情に基づいた全身のリラクゼーション体験を提供する。
さらに、制御装置には、ユーザの行動や環境変化を予測し、無人航空機の行動を先読みする予測手段も組み込むことができる。予測手段は、過去の飛行データや環境センサーからの情報を活用し、将来の飛行パターンを最適化する。これにより、無人航空機は状況に応じて自動的に飛行ルートを変更し、効率的な飛行を実現する。また、環境変化に応じた飛行ルートの自動調整機能を持つことで、突発的な気象変動や障害物の出現にも迅速に対応する。
制御装置と無人航空機の間の通信手段には、セキュリティ強化のために暗号化技術を採用する。これにより、外部からの不正アクセスを防ぎ、安全な通信を保証する。感情エンジンに関しては、ユーザの感情データを匿名化し、プライバシー保護を重視したデータ処理を行う。匿名化された感情データは、研究目的での利用や、より高度な感情認識モデルの開発に役立てられる。
無人航空機には、周囲の環境を3Dマッピングするセンサーを搭載し、リアルタイムでの環境認識能力を高める。3Dマッピングデータは、制御装置に送信され、飛行安全のための情報として活用される。また、このデータは、緊急時の救助活動や災害時の状況把握にも寄与する。
生成手段は、ユーザからのフィードバックを学習することで、無人航空機の動作プログラムを進化させる。この学習機能は、無人航空機のパフォーマンスを向上させ、より洗練された操作が可能となる。フィードバックに基づく学習機能は、ユーザの好みやニーズに合わせたカスタマイズを実現する。
最終的に、システムは、ユーザインタフェースの改善を図ることで、より直感的で使いやすい操作体験を提供する。インタフェースは、ユーザの操作履歴や好みに基づいて自動的に最適化され、無人航空機の操作を簡単にするためのガイドを提供する。これにより、あらゆる年齢層のユーザが、無人航空機をより快適に利用できるようになる。
無人航空機を用いたシステムには、さらに感情エンジンの能力を高める機能を追加することができる。例えば、ユーザの生体信号をリアルタイムで計測するセンサーを組み込み、心拍数や皮膚の電気抵抗などから感情の変化をより正確に把握することが可能となる。また、無人航空機のカメラがユーザの表情を撮影し、その映像データを感情エンジンが分析することで、ユーザの感情認識の精度を向上させることもできる。
制御装置の生成手段に関しては、複数のユーザからの指示を同時に処理し、それぞれの無人航空機に適切な動作プログラムを割り当てるマルチタスク処理機能を追加することができる。これにより、一つのイベントで複数のユーザが異なる要望を持つ場合でも、個々の要望に応じた無人航空機の操作が可能となる。さらに、無人航空機が持つセンサーからのデータを活用して、環境の変化を検知し、自動的に飛行プログラムを調整する環境適応機能を実装することも考えられる。これにより、無人航空機はより自律的に適切な行動を取ることができ、例えば、人が多く集まるイベントでは人を避ける動作や、特定の風景を撮影するために最適な角度を選択する動作が可能となる。
通信手段に関しては、無人航空機同士が情報を共有するネットワークを構築し、群れとしてのインテリジェントな動きを実現することが可能である。無人航空機がお互いの位置や状態をリアルタイムで把握し合い、協調して複数のタスクを効率的に遂行することができる。また、ユーザの指示に応じて無人航空機が形成するフォーメーションを柔軟に変更することで、ビジュアルアートや広告などの新しい用途が期待される。
感情エンジンには、ユーザの感情に応じた音楽や照明の自動調整機能を追加することもできる。ユーザが喜びを感じている際には明るく活動的な音楽と照明を、落ち着きを求めている際には穏やかな音楽と照明を提供することで、無人航空機を介した感情に応じた体験を強化する。さらに、無人航空機がユーザの健康やウェルネスをサポートするためのヘルスモニタリング機能を追加し、定期的な健康状態のチェックやリラクゼーションのためのアクティビティを提供することも考えられる。
これらの拡張により、無人航空機を利用したシステムは、エンターテインメントだけでなく、健康管理や個人のウェルネスの向上、緊急時の対応など、多岐にわたる分野での活用が期待される。また、ユーザインターフェースの改善により、より多くの人々が直感的に無人航空機を操作できるようになり、その利便性が広く認識されることとなる。
【0031】
以下に、各形態例の処理の流れについて説明する。
【0032】
(形態例1)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例2)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例3)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。例えば、ユーザが喜んでいる場合には、無人航空機はよりアグレッシブな動きをする。逆に、ユーザが怒っている場合には、無人航空機はより慎重な動きをする。
【0033】
特定処理部290は、特定処理の結果をスマートデバイス14に送信する。スマートデバイス14では、制御部46Aが、出力装置40に対して特定処理の結果を出力させる。マイクロフォン38Bは、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン38Bによって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
【0034】
データ生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。特定処理部290は、データ生成モデル58を用いながら、上述した特定処理を行う。
【0035】
上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、スマートデバイス14によって特定処理が行われるようにしてもよい。
【0036】
[第2実施形態]
【0037】
図3には、第2実施形態に係るデータ処理システム210の構成の一例が示されている。
【0038】
図3に示すように、データ処理システム210は、データ処理装置12及びスマート眼鏡214を備えている。データ処理装置12の一例としては、サーバが挙げられる。
【0039】
データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。
【0040】
スマート眼鏡214は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、及び通信I/F44を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、及びカメラ42も、バス52に接続されている。
【0041】
マイクロフォン238は、ユーザが発する音声を受け付けることで、ユーザから指示等を受け付ける。マイクロフォン238は、ユーザが発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。
【0042】
カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラであり、ユーザの周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。
【0043】
通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44及び26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。
【0044】
図4には、データ処理装置12及びスマート眼鏡214の要部機能の一例が示されている。図4に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。
【0045】
特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。
【0046】
ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。
【0047】
スマート眼鏡214では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。
【0048】
なお、データ処理装置12以外の他の装置がデータ生成モデル58を有してもよい。例えば、サーバ装置(例えば、ChatGPTサーバ)がデータ生成モデル58を有してもよい。この場合、データ処理装置12は、データ生成モデル58を有するサーバ装置と通信を行うことで、データ生成モデル58が用いられた処理結果(予測結果など)を得る。また、データ処理装置12は、サーバ装置であってもよいし、ユーザが保有する端末装置(例えば、携帯電話、ロボット、家電)であってもよい。次に、データ処理装置12の特定処理部290による特定処理について説明する。
【0049】
(形態例1)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、通信手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。無人航空機は、生成された動作プログラムに基づいて、指示に従って移動や回転などの操作を行う。通信手段は、制御装置と無人航空機の間で指示やデータの送受信を行うための手段である。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。通信手段は、データ処理装置12と無人航空機との間で指示やデータの送受信を行うための手段であり、データ処理装置12の通信I/F26によって実現される。無人航空機は、生成された動作プログラムに基づいて、指示に従って移動や回転などの操作を行うための制御部を含む。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
生成手段は、自然言語処理技術を活用して、ユーザからの指示を解析し、無人航空機の動作プログラムを生成する。また、生成手段は、人間の口頭またはテキスト入力による指示を音声認識手段とテキスト解析手段によってデジタルデータに変換し、その内容を解釈することもできる。この手段には、音声認識機能が含まれ、ユーザの口頭での指示をテキストデータに変換する。また、音声認識手段は、ユーザの音声指示を受け取り、音声データをテキスト化する機能を有する。テキスト解析手段が、指示の内容を理解し、意図を把握するために形態素解析や構文解析を行う。また、テキスト解析手段は、入力されたテキストの意味を理解するために形態素解析や構文解析を行う。意図解析手段が、指示の背後にある目的やタスクを特定し、動作プログラム生成手段が、解析された意図に基づいて具体的な動作プログラムを生成する。また、意図解析手段は、テキストに含まれる指示から具体的なタスクや目的を特定し、それに基づいて動作プログラム生成手段が動作プログラムを作成することもできる。動作プログラム生成手段は、確率論的なアルゴリズムや機械学習モデルを利用して、効率的で安全な無人航空機の動作計画を立案する。また、この動作プログラム生成手段は、無人航空機が遂行すべき動作シーケンスを定義し、それに必要なパラメータを算出することもできる。
無人航空機は、搭載された飛行制御手段を通じて、生成された動作プログラムに基づいた操作を自動で実行する。また、無人航空機には、飛行制御手段が内蔵されており、生成された動作プログラムに従って、自律的に飛行や回転などの操作を行うことができる。飛行制御手段は、センサーからのデータや、GPSによる位置情報を基に、無人航空機の姿勢や位置をリアルタイムで制御する。また、飛行制御手段は、姿勢制御機能、位置制御機能、速度制御機能を組み合わせて機能し、これらはセンサーデータやGPS情報に基づいて無人航空機の飛行状態を調整することもできる。障害物検知手段が周囲の環境を認識し、衝突回避手段が障害物を回避する経路を計算する。また、障害物検知手段は、レーダーやLiDARなどのセンサーを用いて周囲の障害物を検出し、衝突回避手段は検知された障害物を避けるための代替経路を計算し、安全に飛行することもできる。
通信手段は、無線通信技術を用いて、制御装置と無人航空機間のデータの送受信を可能にする。また、通信手段は、高度な無線通信技術を活用して制御装置と無人航空機間でのデータの送受信を行うこともできる。この手段には、信号のエンコードとデコードを行う符号化手段と、通信の信頼性を保つための誤り訂正手段が含まれる。符号化手段は、送信されるデータを効率的にエンコードし、受信側でデコードすることでデータの意味を回復する。誤り訂正手段は、通信過程で生じうるデータの誤りを検出し、修正することで通信の信頼性を保つ。通信手段は、低遅延で高い帯域幅を持つ通信プロトコルを採用し、動作プログラムや運用状況のデータを迅速に送受信する。また、通信プロトコルは、低遅延かつ高帯域を実現し、無人航空機の飛行状態やセンサーデータ、ビデオフィードをリアルタイムで送信するために最適化されていることもできる。制御装置は無人航空機の状態を常に把握し、必要に応じて追加の指示を出すことができる。また、無人航空機は、飛行中のセンサーデータやビデオフィードをリアルタイムで制御装置に送信し、モニタリングや分析を行う。また、無人航空機は、飛行中のデータを通信手段を通じて制御装置に送信し、オペレーターによるリアルタイムのモニタリングや、後の分析のためのデータ収集を可能にすることもできる。
無人航空機を活用した制御システムには、さまざまな追加機能を組み込むことが可能である。例えば、無人航空機には、環境モニタリング機能を追加し、空中からの精密な温度、湿度、大気圧の測定を行い、気象データを収集することができる。また、農業分野への応用として、土壌の水分や栄養状態を測定するセンサーを搭載し、精密農業をサポートする機能を提供することも有効である。
無人航空機には、救助活動をサポートする機能も追加できる。例えば、災害発生時には、建物の損壊状況や被災者の位置を把握し、救助隊に情報を提供する。また、サーマルカメラを搭載し、煙や火災の状況を検出し、消防活動の指揮や支援に役立てることができる。さらに、自律飛行能力を向上させるため、AIを用いて無人航空機同士が情報を共有し、群れとして協調動作を行うスウォーム機能を開発することで、より広範囲のモニタリングや複数のタスクを同時に遂行することが可能になる。
通信手段においては、通信の安定性を向上させるために、衛星通信やレーザー通信などの代替通信手段を検討する。これにより、遠隔地や通信インフラが破壊された災害地域でも、無人航空機との連携を維持することができる。さらに、無人航空機の運用をより安全かつ効率的に行うために、地上のレーダーシステムや他の航空機との通信を組み合わせて、飛行中の無人航空機の位置や状態を正確に把握し、衝突回避を支援するシステムを導入する。
無人航空機を使用した監視システムでは、映像解析技術の進展を取り入れ、リアルタイムで動画から物体や人物を識別し、行動パターンを解析することも考えられる。これにより、警備や監視業務を自動化し、犯罪防止や安全管理に貢献する。また、無人航空機が撮影した映像は、バーチャルリアリティや拡張現実に活用することで、教育やトレーニング、観光などの新たな体験を提供することができる。
最後に、制御装置には、無人航空機の動作ログやセンサーデータを活用した機械学習モデルを訓練し、無人航空機の飛行パフォーマンスを改善するための自己学習機能を追加する。これにより、無人航空機は過去の経験から学習し、より効果的な飛行ルートを選択し、タスクの効率化を図ることができる。
制御装置に搭載された生成AIを活用し、他の産業分野での自動化作業にも適用することが考えられる。例えば、農薬散布や種まきなどの農業作業を自動化し、人手を要する労働を削減する。無人航空機には、超音波センサーや近赤外線カメラを搭載し、作物の生育状態や病害の早期発見に役立てる。また、無人航空機による精密な農薬散布システムを開発し、農薬の使用量を最適化し、環境への影響を減らす。
制御装置の生成AIは、無人航空機に限らず、水中ロボットや地上の自律走行車にも応用可能である。これらの異なるプラットフォームを組み合わせることで、陸海空を網羅する監視ネットワークを構築し、環境監視、資源探査、災害対応など多岐にわたる分野での利用が期待できる。無人航空機を用いた環境モニタリングでは、複合ガスセンサーを搭載し、大気汚染の監視や温室効果ガスの測定を行うことも有効である。
さらに、制御装置と無人航空機の組み合わせは、災害救助以外にも、人命救助や捜索活動での利用が考えられる。高性能カメラと顔認識技術を組み合わせ、行方不明者の捜索や、海岸監視における遭難者の早期発見に役立てる。無人航空機に救命キットを搭載し、遭難者に対して迅速な救助物資の投下を行うシステムも開発する。
通信手段の強化により、データのリアルタイム性が重要な遠隔医療や災害時の緊急通信にも活用が可能となる。高解像度の映像伝送と低遅延通信を実現し、医師が遠隔地から手術を指導したり、災害現場からの緊急通信を確立するためのインフラとしての役割を担う。
制御装置のAIをさらに進化させ、無人航空機の群れが協調して複雑な作業を行うためのアルゴリズムを開発する。これにより、一つの大きなタスクを複数の無人航空機が分担して効率よく完遂することが可能になる。例えば、建設現場での材料運搬や、火災現場での消火活動などに応用する。
最終的に、制御装置のAIと無人航空機の組み合わせは、都市のインフラ管理や交通流の監視、公共安全の確保といったスマートシティの構築にも貢献する。無人航空機が提供するリアルタイムデータを活用し、都市運営の最適化や災害発生時の迅速な対応を行うためのシステムを構築する。また、無人航空機が集めた情報は、都市計画や交通政策の立案にも役立てる。これにより、持続可能で効率的な都市の発展を支援する。
(形態例2)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、位置情報取得手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の位置情報を取得する。位置情報取得手段は、GPSやセンサーなどを利用して無人航空機の位置を特定する手段である。制御装置は、取得した位置情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
位置情報取得手段は、無人航空機に搭載されたGPSやセンサーによって実現される。制御手段は、データ処理装置12の特定処理部290によって実現され、取得した位置情報を基に、指示に従って無人航空機を制御する。無人航空機は、制御装置からの指示に基づいて動作するための制御部を含む。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置は、自然言語理解モジュールを含む解析手段を用いて、ユーザからの指示を解析し、意図を把握する。また、制御装置は、ユーザからの自然言語指示を受け取る指示受付手段と、これを解析するための自然言語理解モジュールが備わっている。この自然言語理解モジュールは、音声認識技術を用いて音声指示をテキストデータに変換する音声テキスト変換手段を含む。また、音声テキスト変換機能は、音声認識アルゴリズムによってユーザの指示を文字情報に変換することができる。変換されたテキストデータをさらに解析するためのトークン化、品詞タグ付け、名詞句解析、動詞句解析、依存関係解析などの言語処理手段を含む。また、言語処理機能は、トークン化手段、品詞タグ付け手段、構文解析手段などを用いて、指示の意図を明確に把握することもできる。これにより、ユーザの指示に含まれるコマンド、パラメータ、条件などが正確に特定される。解析された指示は、無人航空機の制御に必要なコマンドとして生成AIによって解釈され、対応する行動指令を生成するコマンド生成手段を介して無人航空機の制御部に送信される。これにより、ユーザの意図がコマンドとして解釈され、無人航空機に送信される行動指令を生成する。
位置情報取得手段には、無人航空機の正確な位置を追跡するための複合的な位置情報処理手段が含まれる。また、位置情報取得手段として、無人航空機に搭載されたGPSモジュールがあり、地球上の位置情報を取得することができる。このGPSモジュールは、地球上の任意の地点の緯度、経度、高度情報を取得する。さらに、GNSS(Global Navigation Satellite System)信号を解析するGNSS解析手段が、より高い位置情報の精度と信頼性を提供することができる。また、これと併用されるGNSS解析手段は、衛星からの信号を用いて位置の精度を高めることもできる。一方、内蔵された加速度センサーやジャイロスコープなどの慣性測定ユニット(IMU)は、無人航空機の姿勢や動きを継続的に追跡し、GPS信号が不安定な環境でも安定した位置情報の取得を支援する。また、無人航空機の動きを検出するためのIMUが、慣性に基づいた情報を提供し、GPS信号が不安定な状況下でも位置情報の正確性を保つことができる。センサーを含まない例として、無人航空機がビーコンや地上局との通信により自身の位置情報を取得する通信ベースの位置情報取得手段が考えられる。また、センサーを使用しない位置情報取得の例として、通信ベースの位置情報取得手段が挙げられる。この手段では、地上のビーコンから発信される信号や、他の無人航空機との通信を通じて、相対位置や絶対位置を確定する。ビーコンは、特定の周波数の電波を発信し、無人航空機の搭載した受信モジュールがこれを受信することで、位置情報を算出するための参照点となる。また、無人航空機は受信した信号をもとに自身の位置を算出することができる。このようなシステムでは、地上局との通信を介して、無人航空機の現在位置や飛行経路の調整情報がリアルタイムで交換される。
制御手段は、無人航空機の飛行経路を計画し、調整する飛行経路計画手段を含む。また、制御手段としては、無人航空機の飛行経路を計画し、調整する飛行経路計画機能が含まれる。これには、無人航空機の動作をシミュレートし、飛行経路上の障害物や安全上の制約を考慮して、最適な飛行経路を算出するシミュレーション手段が組み込まれている。また、この機能は、シミュレーション手段を用いて飛行経路をシミュレートし、障害物回避手段や安全上の制約を考慮して最適な経路を算出することができる。さらに、無人航空機が遭遇する可能性のある緊急事態に迅速に対応するための緊急回避手段や、複数の無人航空機を協調して制御するための群制御手段も含まれる。また、緊急事態に対応する緊急回避機能や、複数の無人航空機を一元的に制御する群制御機能も備わっている。
本形態例の制御装置には、さらに複雑な環境下での飛行能力を向上させるために、高度な障害物検知システムを組み込むことが可能である。例えば、レーザースキャナーや超音波センサーを利用した3Dマッピング技術を活用し、飛行中の無人航空機が周囲の環境を精密に認識し、動的に変化する障害物にも迅速かつ自律的に対応する機能が追加される。また、衛星画像や地理情報システム(GIS)データを解析することで、飛行計画における地形の特徴や障害物の情報をより詳細に考慮し、高度な飛行経路の最適化が可能となる。
無人航空機の群制御においては、AIを利用したスウォームインテリジェンスに基づく協調飛行アルゴリズムを導入することで、複数の無人航空機が一体となって作業を効率的に行えるようになる。例えば、農薬散布や捜索救助活動において、複数の無人航空機が分散して作業を行う際に、全体の作業効率を最大化するための動的な飛行経路調整が行われる。これにより、無人航空機は個々の状況に応じて役割を分担し、協調することが可能となる。
制御装置の自然言語理解モジュールには、ユーザが用いる専門用語や業界固有の言葉を理解するための専門用語辞書やコンテキスト解析機能が追加され、特定の業界や用途に特化した指示を正確に解析し、具体的な操作コマンドに変換する能力が向上する。また、無人航空機の環境認識能力を高めるために、センサーデータと合わせてソーシャルメディアやインターネットの情報を解析し、人々の活動パターンやイベントの発生状況を把握する機能が追加される。
位置情報取得手段においては、無人航空機が使用するGPSモジュールに補正信号を提供する地上参照局のネットワークを組み込むことで、より高精度な位置情報を提供する差分GPS(DGPS)システムを導入することが可能である。さらに、遠隔地からの操作や監視を可能とするために、衛星通信を利用したリアルタイムのデータリンクシステムを組み込むことで、地球のどこからでも無人航空機の制御が行えるようになる。
これらの機能を統合することで、無人航空機はより複雑な任務に対応し、ユーザのニーズに合わせた柔軟かつ高度な運用が実現される。例えば、災害救助や環境モニタリング、セキュリティ監視などの分野において、無人航空機を活用した先進的なソリューションが提供されることになる。
制御装置には、ユーザの指示をより精密に解釈するためのコンテキスト認識機能を組み込むことができる。これにより、同じ命令でも異なる状況に応じて最適な行動を取ることが可能となる。また、ユーザとの対話を通じて、不明瞭な指示に対する問い返し機能を持つことで、コミュニケーションの精度を高め、誤解を防ぐことができる。さらに、複数のユーザからの指示を同時に処理するマルチタスク処理能力を備えることで、大規模なオペレーションにおける高い柔軟性を実現する。
位置情報取得手段には、無人航空機の周囲をリアルタイムに3DスキャンするLiDARセンサーを追加することで、より高度な環境認識と正確な位置決めを実現する。また、ビジュアルオドメトリーを活用して、カメラで撮影した映像から無人航空機の動きを推定することで、GPSが利用できない環境でも安定した位置情報を提供する。これにより、都市部の高層建築物間や密林内など、GPS信号の受信が困難な場所での活動も可能となる。
制御手段には、無人航空機が自律的に障害物を回避し、飛行経路を調整する自己学習型障害物回避アルゴリズムを採用する。また、無人航空機間の通信により、周囲の無人航空機の状況をリアルタイムで共有し、衝突を避けながら効率的に飛行することを可能とする協調回避アルゴリズムを導入する。これにより、複数の無人航空機が密集して飛行する状況でも、安全性を確保しつつ任務を遂行することができる。
制御装置のAIは、無人航空機が集めたデータを元に、継続的に環境モデルを更新し、その環境モデルを基にした予測型制御を行うことができる。これにより、無人航空機は現状のみならず、将来の変化にも対応した自律飛行を実現する。また、無人航空機は、予め設定された行動パターンを超えて、その場の状況に応じて最適な判断を下すことができる。
最終的に、本形態例で提案されるシステムは、無人航空機を用いた高度な監視、調査、災害対応など様々なアプリケーションに適用可能であり、高度な自律性とユーザビリティを兼ね備えた次世代の無人航空機制御システムとなる。それにより、人間のアクセスが困難または危険な地域での活動や、時間的制約のある緊急任務において、無人航空機の有効利用が促進されることが期待される。
(形態例3)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、映像処理手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の映像を処理する。映像処理手段は、カメラや画像認識技術を利用して無人航空機の映像を解析する手段である。制御装置は、解析された映像情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
映像処理手段は、無人航空機に搭載されたカメラや画像認識技術によって実現される。制御手段は、データ処理装置12の特定処理部290によって実現され、解析された映像情報を基に、指示に従って無人航空機を制御する。無人航空機は、制御装置からの指示に基づいて動作するための制御部を含む。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置には、自然言語処理モデルを用いた指示解析手段が含まれ、ユーザからの指示をテキストまたは音声形式で受け取り、意図を把握する機能を持つ。指示解析手段は、形態素解析や構文解析によって自然言語の文を理解し、意味解析によって指示の意図を正確に把握する。また、制御装置に搭載された自然言語処理モデルは、ユーザの音声やテキスト指示を受信し、それらのデータを形態素分割機能によって言語の基本単位に分割することができる。次に、構文解析機能が文の構造を明らかにし、意味解析機能が文脈に応じた指示の意図を特定することもできる。これらの解析結果をもとに、機械学習により構築された言語理解モデルがユーザの意図を精確に把握し、対応するアクションを生成する。この過程において、機械学習に基づく言語モデルが訓練データを基に学習を行い、ユーザの指示に対する応答の精度を高める。
無人航空機に搭載される映像処理手段には、リアルタイム映像解析機能が含まれ、無人航空機が撮影する映像データを瞬時に処理し、特定の物体や景色を識別する。この機能は、ディープラーニングに基づく物体検出モデルやセマンティックセグメンテーションモデルを用いて物体の種類や位置を認識し、無人航空機が捉えた環境の特徴を抽出する。また、無人航空機に備わる映像処理手段は、リアルタイムで映像データを分析し、物体識別機能により画面内の特定のオブジェクトを識別することができる。物体検出モデルとセマンティックセグメンテーションモデルが融合され、画像中の物体の種類と位置を特定することもできる。映像データの前処理では、ノイズリダクションやコントラスト調整が行われ、認識精度の向上に貢献する。さらに、画像前処理機能により、ノイズリダクションやコントラスト調整を行い、映像解析の精度を向上させることができる。
制御手段には、無人航空機の飛行経路計算機能が含まれ、解析された映像情報を基に、目的地までの最適な飛行経路を算出し、無人航空機を効率的に案内する。この飛行経路計算機能は、地形データや気象情報を統合し、障害物回避やエネルギー効率の最大化を図る。また、制御手段として、無人航空機は飛行経路計算機能を用いて目的地までの効率的な経路を算出する。この機能は、地形データ統合機能と気象情報統合機能を組み合わせ、飛行の安全性と効率性を確保することができる。さらに、無人航空機の飛行動作制御機能が、速度や高度、姿勢制御といった飛行の基本動作を精密に調整し、ユーザの指示に応じた動作を実行する。また、飛行動作制御機能が無人航空機の速度、高度、および姿勢を適切に調整し、ユーザの指示に沿った動作を実現することもできる。
映像処理手段の一部として、無人航空機による環境モニタリング機能も考えられる。これは、環境変化検知モデルを用いて自然災害や異常事態を検出し、状況に応じた対応を可能にする。また、無人航空機による環境モニタリング機能は、環境変化検知モデルを使用して、自然災害や異常事態を迅速に捉え、状況に適した対応を行うことができる。この監視機能は、広範囲にわたる環境の変化を効果的に検出し、情報収集と迅速な対処を実現する。
センサーを含まないデータ収集の例として、ユーザが無人航空機に搭載されたカメラを通じて手動で映像データを選択し、そのデータを制御装置に送信する手動選択手段が考えられる。この手動選択手段では、ユーザが特定の映像に注目している場合や、特定の状況下での映像分析が求められる場合に役立つ。ユーザはインタフェースを通じて映像データを選択し、制御装置に送信することで、映像解析手段による解析と制御手段による対応が行われる。また、手動選択手段として、ユーザはインタフェースを介して無人航空機のカメラで捉えた映像データを選択し、制御装置に送信することができる。この選択プロセスにより、映像データはユーザの特定の要求に基づいて選ばれ、映像処理手段による詳細な解析や制御手段による適切な飛行制御が行われる。
制御装置には、様々な状況に応じた行動パターンを学習するための強化学習アルゴリズムを組み込むことができる。このアルゴリズムにより、無人航空機は異なる環境や任務に対応するための適応能力を高める。また、制御装置には、複数の無人航空機の協調飛行を管理するためのマルチエージェントシステムを搭載することができる。これにより、複数の無人航空機が同時に行動を起こし、一つの目標に対して効率的に協力することが可能となる。さらに、制御装置は、緊急時の無人航空機の自動帰還機能や障害物自動回避機能を含む安全機能を備えることができる。これにより、無人航空機は自身の安全を確保しつつ、任務を完遂することができる。
映像処理手段には、夜間や悪天候下でも高精度な画像解析を行うための赤外線カメラや熱感知技術を組み込むことが可能である。これにより、無人航空機は昼夜を問わず、あらゆる環境下での映像データの収集と解析を行うことができる。加えて、映像処理手段は、動的なシーンにおける物体追跡アルゴリズムを用いて動く対象の追跡も行えるようにすることができる。この機能により、無人航空機は移動する物体を継続的に監視し、重要な情報を提供することができる。
制御手段には、ユーザの指示に基づいて無人航空機の群れをコントロールするスウォームインテリジェンス機能を追加することができる。これにより、複数の無人航空機が形成する群れは、複雑な環境での集団飛行や任務遂行をより効果的に行うことができる。また、制御手段には、リアルタイムの交通情報や天候変化に応じた動的な飛行経路再計算機能を搭載することができる。これにより、無人航空機は途中で情報が更新された場合でも迅速に対応し、任務遂行の効率を向上させることができる。
映像処理手段の一部として、無人航空機が収集する映像データをリアルタイムでクラウドサービスにアップロードし、広範囲のデータ分析や共有を行う機能を含めることができる。これにより、無人航空機が捉えた映像データは、迅速な意思決定や情報共有のために広い範囲のユーザーと共有される。また、映像処理手段は、災害発生時における被害状況の詳細なマッピング機能を持つことができる。これにより、無人航空機は災害発生直後の状況を詳しく把握し、救助隊や復旧作業において重要な情報を提供することができる。
センサーを含まないデータ収集の例として、ユーザが無人航空機を通じて取得した映像データを、AI支援の自動分析機能によってソーシャルメディアやニュースサイトに自動投稿することもできる。これにより、社会的な出来事や珍しい自然現象を広く公開し、関心を集めたり、意識を高めたりすることができる。また、ユーザーのプライバシー保護のためのデータ匿名化機能を含むことで、無人航空機が収集した映像データを安全に共有することができる。
制御装置に搭載された生成AIには、無人航空機が撮影した映像をリアルタイムで解析し、災害時の損傷状況や生存者の位置を特定する機能を追加することができる。これにより、救助活動の迅速化と効率化に貢献する。さらに、無人航空機の映像データを活用した3Dマッピング技術を統合し、被災地の立体的な地図を作成し、より詳細な状況把握を実現する。
映像処理手段には、昼夜や天候の変化に左右されない高感度センサーと映像強調技術を導入し、無人航空機が低照度環境でも鮮明な映像を撮影できる機能を備える。また、映像データの中から特定のパターンやシンボルを認識し、例えば救援要請のサインや特定の障害物を検出する機能を持つこともできる。
制御手段は、無人航空機が集団で飛行する際のフォーメーションやタイミングを自動調整する機能を持つ。これにより、複数の無人航空機が協力して広範囲をカバーし、効率的にデータ収集を行うことができる。さらに、無人航空機が予期せぬ障害物に遭遇した際に迅速に避けるための、環境認識に基づく自律回避機能を搭載することができる。
映像処理手段には、映像データ内での動きを検出し、それに応じて無人航空機のカメラを自動で追尾する機能を含むことができる。これにより、動的なシーンや追跡が必要な対象を途切れることなく監視し続けることが可能となる。
制御手段には、無人航空機のエネルギー消費を最適化するアルゴリズムを搭載し、任務時間の延長や運用コストの削減に貢献する。また、無人航空機の飛行経路をリアルタイムで最適化することにより、急な状況変化にも柔軟に対応する。
映像処理手段の拡張として、無人航空機が収集した映像データを多角的に解析し、例えば農業分野での作物の健康状態評価や、環境監視における生態系の変化検出など、異なる分野での応用が可能となる機能を備える。
制御装置には、ユーザとのインタラクティブなコミュニケーションを実現するための、自然言語理解能力をさらに向上させる機能を追加することができる。これにより、ユーザが直感的に無人航空機を操作できるようになり、幅広いユーザーが無人航空機を活用できるようになる。
映像処理手段には、ライブ映像にリアルタイムでテキストやアノテーションを挿入することで、映像の内容をよりわかりやすく伝える機能を追加することができる。これにより、例えば災害時の救助情報を現場の救助隊員や指揮官に即座に提供することが可能となる。
制御手段には、無人航空機の自己修復機能や、定期的なメンテナンスリマインダーを提供する機能を組み込むことができる。これにより、無人航空機の稼働率と信頼性が高まり、長期間にわたる安定した運用が実現する。
これらの追加機能により、無人航空機を活用した監視や災害対応、情報収集の能力が飛躍的に向上し、多様な状況に対応できる柔軟なシステムを構築することができる。
(形態例4)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、距離計測手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の距離を計測する。距離計測手段は、超音波センサーやレーザー距離計などを利用して無人航空機と障害物との距離を測定する手段である。制御装置は、計測された距離情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
距離計測手段は、無人航空機に搭載された超音波センサーやレーザー距離計によって実現される。制御手段は、データ処理装置12の特定処理部290によって実現され、計測された距離情報を基に、指示に従って無人航空機を制御する。無人航空機は、制御装置からの指示に基づいて動作するための制御部を含む。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置に内蔵された生成AIは、自然言語解析手段を利用して人間の指示を理解する機能を持ち、この機能によって無人航空機の操作に必要なコマンドを生成する。また、制御装置に搭載された生成AIは、音声からテキストへの変換機能を有する音声認識手段と、文の意味を解釈するための文法解析手段及び意味解析手段を組み合わせることで、ユーザの指示を理解し、無人航空機の操作に必要なコマンドを生成することができる。生成されたコマンドは、飛行経路の計画や無人航空機の操縦動作に対する具体的な指示を含み、これらは無人航空機の制御アルゴリズムによって実行される。また、生成されたコマンドは、無人航空機の飛行経路や動作に関する詳細な指示を包含し、制御アルゴリズム手段によって実行されることができる。
距離計測手段としての超音波センサーは、無人航空機の前面や側面に設置され、周囲の障害物からの反射音波を検出することで距離を測定する。このセンサーは、環境に適応するためのエコーキャンセレーション機能や、干渉波を除去するフィルタリング機能を備えており、正確な距離情報を提供する。また、超音波センサーは、エコーロケーション機能を利用して周囲の障害物からの反射波を検出し、距離情報を取得することができる。このセンサーは、干渉音波除去機能やエコーキャンセレーション機能により、環境ノイズに影響されずに正確な距離情報を提供することができる。一方、レーザー距離計は、高精度な距離測定が可能であり、特に長距離の計測や微妙な障害物の検出に適している。レーザー距離計は、目標物にレーザー光を発射し、その反射光の時間差を利用して距離を計算する。また、レーザー距離計は、目標物に対するレーザー光線発射機能と反射光検出機能を有し、反射時間差計算機能によって距離を測定することができる。レーザー距離計は、精密な距離測定を可能にし、特に長距離や微細な障害物の検出に適していることができる。
制御手段は、距離計測手段からの情報を基に無人航空機の動作を調節する機能を持ち、この機能は無人航空機の飛行制御アルゴリズムによって実現される。飛行制御アルゴリズムは、PID制御やフィードフォワード制御などの制御理論に基づいて設計され、無人航空機が安定した飛行を維持しながら指示された動作を正確に実行できるようにする。制御手段は、無人航空機の姿勢や速度をリアルタイムで調節し、障害物を回避しながら目的地に到達する経路を最適化する。また、制御手段は、距離計測手段から提供される情報を利用して、無人航空機の姿勢や速度を調節し、障害物を回避する経路制御機能を有することができる。飛行制御アルゴリズム手段は、PID制御機能やフィードフォワード制御機能を活用し、無人航空機が指示に従って安定かつ正確に飛行するための動作調整を行うことができる。
センサーを含まない距離計測の例としては、GPSを用いた位置測定手段がある。無人航空機に搭載されたGPS受信機は、衛星から送信される信号を受け取り、その情報を基に無人航空機の現在位置を算出する。位置測定手段は、無人航空機が飛行する環境の広域的な位置情報を提供し、より大規模な飛行計画の立案に利用される。また、無人航空機間の相対的な位置関係を把握するために、複数の無人航空機がそれぞれのGPS情報を共有し、全体としての飛行隊形を調整する手段としても機能する。さらに、GPSによる位置測定手段は、衛星信号受信機能を備えたGPS受信機を介して、無人航空機の現在地を決定することができる。位置情報計算機能は、受信した衛星信号から無人航空機の位置を算出し、広域的な飛行計画立案に寄与することができる。さらに、無人航空機間で位置情報を共有することにより、飛行隊形調整機能としても機能し、全体としての飛行コーディネーションを実現することができる。
制御装置にはさらに、障害物検出の精度を向上させるための画像処理手段が追加される。例えば、機械学習に基づく物体認識アルゴリズムを活用して、無人航空機が撮影した映像から障害物を自動で検出し、その大きさや形状を認識することができる。これにより、無人航空機はより複雑な環境でも安全に飛行する能力を有する。また、無人航空機が撮影した映像データをリアルタイムで解析し、動的な環境変化に応じた飛行経路の調整を行う能力を備える。さらに、制御装置には、無人航空機間の通信を調整する通信制御手段が搭載され、複数の無人航空機が情報を共有し、協調飛行を行うことが可能となる。この通信制御手段は、隊列飛行や特定の任務実行時の協調動作を最適化する機能を持つ。
制御装置のAIは、実際の飛行環境から学習を行う自己学習機能を持ち、新たな障害物や未知の状況に遭遇した際にも最適な飛行経路を自動で生成する。AIは、無人航空機の経験を蓄積し、過去のデータを参照しながら飛行パターンを改善していく。この学習プロセスは、無人航空機がより環境に適応し、より効果的な任務遂行が可能となる。また、制御装置は、複数の無人航空機が同時に活動する際の衝突回避アルゴリズムも搭載し、安全かつ効率的な群れの動きを実現する。
距離計測手段としてのセンサーには、夜間や悪天候下でも正確な距離測定を行うための赤外線センサーや熱画像カメラが追加される。これらは、従来の超音波センサーやレーザー距離計の限界を補い、無人航空機がさらに厳しい環境下での作業を可能とする。また、これらのセンサーは、障害物の種類や温度分布を検出し、それに応じた飛行経路の選択を行うための追加情報を提供する。
制御手段には、先進的な衝突回避システムが組み込まれる。このシステムは、リアルタイムでの環境認識と予測モデリングを組み合わせ、無人航空機が予期せぬ障害物に迅速かつ効果的に反応できるようにする。無人航空機は、衝突回避システムによって自動的に飛行経路を変更し、安全を確保しながら任務を継続する。さらに、制御手段は無人航空機のエネルギー管理を最適化し、飛行時間の延長や任務効率の向上を図る機能も備える。
制御装置に搭載された生成AIは、複数の無人航空機を同時に監視し、それぞれの航空機の動作を調整することにより、群れのような協調動作を可能にする機能を持つ。無人航空機同士が情報を共有し、周囲の環境や他の航空機の位置を認識し合いながら、効率的かつ安全に任務を遂行する。この協調動作は、特に複雑な地形や障害物の多い環境で有効であり、捜索救助活動や災害時の状況把握などに応用できる。
また、無人航空機に搭載される距離計測手段には、障害物との衝突リスクを低減させるための新たなセンサーフュージョン技術を採用する。異なる種類のセンサーから得られる情報を統合し、より正確かつ信頼性の高い環境認識を実現する。例えば、超音波センサーの距離情報とレーザー距離計の精密な測定結果を組み合わせることで、無人航空機は障害物をより緻密に認識し、その周囲を安全に飛行する。
制御装置は、無人航空機の飛行データをクラウドにアップロードし、それを基にした大規模なデータ解析を行うこともできる。これにより、無人航空機の飛行効率を向上させる新しい飛行パターンの発見や、将来の飛行計画の改善に役立つ洞察を得ることが可能になる。さらに、クラウドベースのシミュレーションを利用して、仮想環境で無人航空機の飛行テストを行い、実際に飛行する前に様々なシナリオでの対応を学習させることもできる。
制御装置には、ユーザーが直感的に操作できるインタフェースも備えられる。タッチスクリーンディスプレイやジェスチャー認識技術を用いて、ユーザーは簡単な動作で無人航空機の飛行を指示できる。加えて、バーチャルリアリティ(VR)や拡張現実(AR)技術を組み合わせることで、ユーザーはより直感的に無人航空機の飛行を監視し、制御する体験を得ることができる。
さらに、無人航空機は、機械学習に基づく予測メンテナンス機能を備えることで、機体の故障リスクを事前に特定し、予防的な保守を行う。これにより、無人航空機の稼働率を高め、長期にわたる信頼性の維持に寄与する。
最後に、無人航空機の利用範囲を拡大するために、水中や地下での使用が可能な防水・防塵機能を持つモデルの開発も検討される。これにより、海洋調査や地下資源の探査など、従来の無人航空機では困難だった分野への応用が可能になる。
【0050】
以下に、各形態例の処理の流れについて説明する。
【0051】
(形態例1)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、動作プログラムを生成する。
ステップ3:生成された動作プログラムを無人航空機に送信し、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例2)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の位置情報を取得する。
ステップ3:取得した位置情報を基に、制御装置は無人航空機を制御する。
(形態例3)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の映像を処理する。
ステップ3:映像処理手段を利用して、制御装置は無人航空機の映像を解析する。
ステップ4:解析された映像情報を基に、制御装置は無人航空機を制御する。
(形態例4)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機と障害物との距離を計測する。
ステップ3:距離計測手段を利用して、制御装置は無人航空機と障害物との距離を測定する。
ステップ4:計測された距離情報を基に、制御装置は無人航空機を制御する。
【0052】
なお、更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。
【0053】
(形態例1)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが喜んでいる場合には、無人航空機の飛行速度を上げたり、カメラの視点を広範囲に設定したりする。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。認識手段は、感情エンジンを含み、データ処理装置12とは異なる装置で実現される。反映手段は、例えば、データ処理装置12の特定処理部290によって実現され、ユーザの感情を認識した結果に基づいて無人航空機の操作を調整する。例えば、ユーザが喜んでいる場合には、無人航空機の飛行速度を上げたり、カメラの視点を広範囲に設定したりする。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置には、自然言語理解(NLU)技術を用いた解析手段が含まれ、これによりユーザが与えた指示を意図に沿って解釈する。この解析手段は、ユーザの発話をトークン化し、品詞タグ付けと構文解析を行う。また、解析手段は、発話内容をトークン化するトークン化手段と、品詞を識別する品詞タグ付け手段、文の構造を解析する構文解析手段を組み合わせて機能し、ユーザの命令に応じた動作プログラムを生成するプログラム生成手段を備える。さらに、意図認識手段によって発話の目的を特定し、適切な動作プログラムを生成するための情報を抽出する。動作プログラム生成手段は、解析された指示に基づき、無人航空機の飛行経路、速度、カメラ操作といった具体的な動作命令を生成する。また、動作プログラム生成手段は、無人航空機の飛行経路やカメラ操作などを制御するための指示を形成し、無人航空機が任務を遂行するために必要なパラメータを設定する。
感情認識手段には、音声分析や表情解析技術を用いてユーザの感情状態を把握する機能が含まれる。音声分析手段は、話し声のトーンやピッチの変化から感情を読み取る。また、音声分析手段は、話し声から感情を推定する。表情解析手段は、カメラによって捉えられたユーザの顔の表情から、喜びや悲しみなどの感情を識別する。また、表情解析手段は、視覚情報をもとに感情を識別する。これらの手段は、機械学習モデルを用いて訓練され、高い精度で感情を認識する。感情反映手段は、認識された感情に応じて無人航空機の飛行パターンやカメラ設定を調整する。たとえば、ユーザが喜びを示している場合、無人航空機はよりダイナミックな飛行パターンをとり、カメラの視野角を広げて景色を広範囲に捉えるようになる。また、感情反映手段は、認識された感情に基づいて無人航空機の挙動を変更し、例えば、喜びを感じているユーザに対して飛行速度を上げることで応答する。
無人航空機の飛行制御手段は、無人航空機の機種ごとの操縦特性を理解し、それに基づいて最適な飛行経路を計算する。また、無人航空機は、それぞれの機体特性を理解し、最適な飛行経路を算出する飛行制御手段を備えている。障害物回避手段は、センサーによって得られる周辺環境の情報を解析し、安全な飛行経路をリアルタイムでプランニングする。また、障害物を検出し、それを回避するための経路を計算する障害物回避手段も搭載している。この障害物回避手段は、機械学習に基づく予測モデルとセンサーフュージョン技術を組み合わせて、環境変化に柔軟に対応する。カメラ制御手段は、ユーザの指示や感情状態に基づいて、カメラのパン、チルト、ズーム操作を自動的に行う。これにより、ユーザが求める画像や映像の撮影が可能となる。また、カメラ制御手段は、ユーザの指示に基づいて無人航空機のカメラを遠隔操作し、所望の映像を撮影する。
システムの全体構成は、モジュラー設計が採用されており、無人航空機の種類や運用環境に合わせて柔軟にカスタマイズ可能である。また、システムは、モジュールごとに独立した機能を有し、無人航空機の種類や運用環境に合わせてカスタマイズできるように設計されており、クラウドベースのインフラによりデータの集中管理や制御ロジックのリモート更新が可能である。これにより、システムの拡張性や適応性が向上し、ユーザのニーズに応じたサービスの提供が実現される。また、システムはクラウドベースのアーキテクチャを採用し、データの処理や無人航空機の制御ロジックの更新をリモートで行うことができる。これにより、システムのメンテナンスやアップグレードが容易になるとともに、最新の技術を迅速に導入することが可能となる。さらに、センサーを含まないデータ収集手段として、ユーザが直接入力した指示や感情表出をシステムに登録する方法があり、これにより無人航空機の動作やカメラ制御のカスタマイズが行われる。
本発明における生成AI搭載の制御装置は、ユーザの指示をより深く理解し、無人航空機の動作プログラムを洗練させるために、コンテキスト認識機能を追加することができる。これにより、ユーザが与えた指示が特定の状況や環境に応じて最適化され、例えば、屋外の気象条件や周囲の騒音レベルに基づいて無人航空機の飛行パターンを調整する。また、センサーデータを活用したリアルタイム環境認識機能により、無人航空機が自動で天候変化に適応し、安全な飛行を維持する動作プログラムを生成する。
感情エンジンに関しては、ユーザの生理的信号を解析する生体センサーの統合により、心拍数や皮膚電気活動などから感情状態をより正確に読み取ることが可能となる。これにより、ユーザがストレスを感じている場合には、無人航空機は穏やかな飛行を行い、カメラは静かな風景を捉えるように調整される。さらに、ユーザの感情変化に応じて無人航空機が音楽を流すなどのエンターテインメント機能を提供することもできる。
無人航空機には、グループ飛行機能を追加し、複数の無人航空機が連携して複雑な飛行形態や撮影を実現する。この機能により、例えば、一台の無人航空機が主体的に被写体を追跡しながら、他の無人航空機が異なる角度から補助的な映像を撮影し、多角度からの映像を生成する。
カメラ制御手段では、拡張現実(AR)や仮想現実(VR)技術を組み込むことにより、撮影された映像にリアルタイムでデジタル情報を重ね合わせ、ユーザに対して没入感のある視覚体験を提供することが可能となる。例えば、無人航空機からの映像に地図情報や注釈を追加し、観光案内や教育用のコンテンツとして活用する。
また、制御装置には、ユーザが前もって無人航空機の挙動をプログラミングし、特定のイベントや条件が満たされた際に自動で実行されるトリガー機能を追加することができる。これにより、例えば、ユーザが特定の感情を示したときに特定の飛行パターンがトリガーされるようなシナリオを設定できる。
システム全体としては、各モジュールの交換やアップグレードが容易に行えるようなデザインとし、ユーザからのフィードバックをシステムに反映させるための機構を設ける。これにより、システムはユーザの使用状況や要望に応じて進化し続け、長期にわたって価値を提供し続けることができる。また、無人航空機の故障や損傷時には、自己診断機能によって問題を特定し、ユーザやメンテナンス担当者に通知することもできる。このように、本発明は、無人航空機を活用したユーザ中心のインタラクティブなエクスペリエンスを提供し、様々な応用分野での利用が期待される。
制御装置には、ユーザの感情に反応して無人航空機が特定の照明効果を発生させる機能を追加することができる。たとえば、ユーザが興奮状態にあるときは、無人航空機が鮮やかな色のLEDライトを使用して空中で光のショーを展開する。また、無人航空機がユーザの周囲を飛行しながら、状況に応じた香りを放出する機能を組み込むことで、五感を刺激する体験を提供する。
感情エンジンは、ユーザの感情認識の精度を向上させるために、ソーシャルメディアの投稿や日常の行動パターンから得られるデータを分析することで、感情の予測モデルを構築する。これにより、無人航空機はユーザの感情の変化を事前に予測し、よりタイムリーに対応する。
無人航空機の飛行制御手段には、環境音を分析して周囲の状況を把握する機能を追加し、騒音が多い場所では飛行高度を自動調整して騒音の影響を低減させる。また、夜間飛行時には無人航空機が周囲の明るさを認識して適切な照明を提供する機能も備える。
カメラ制御手段は、撮影された映像に対してリアルタイムでエフェクトやフィルターを適用する機能を搭載し、美しい映像作りをサポートする。さらに、無人航空機が撮影した映像をユーザのソーシャルメディアアカウントに自動投稿する機能も追加する。
システム全体では、ユーザのプライバシーを考慮し、感情データや行動データの収集と使用に関するプライバシーポリシーを設定し、ユーザが容易にコントロールできるようにする。また、無人航空機同士の通信を暗号化し、セキュリティを強化することで、ユーザのデータ保護を徹底する。
無人航空機は、ユーザが緊急時に迅速に対応できるよう、SOS信号の送信や近隣の救助機関への連絡を行う機能を備える。また、災害時の捜索救助活動において、無人航空機が生存者の位置を特定し、救助隊に情報を提供することも可能となる。
これらの機能により、本発明の無人航空機システムは、エンターテインメント、日常のコンパニオン、緊急時の支援として幅広い場面での利便性と安全性を提供し、ユーザの生活を豊かにすることが期待される。
(形態例2)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが怒っている場合には、無人航空機の飛行速度を抑えたり、カメラの視点を安定させたりする。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。認識手段は、感情エンジンを含み、データ処理装置12とは異なる装置で実現される。反映手段は、例えば、データ処理装置12の特定処理部290によって実現され、ユーザの感情を認識した結果に基づいて無人航空機の操作を調整する。例えば、ユーザが怒っている場合には、無人航空機の飛行速度を抑えたり、カメラの視点を安定させたりする。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置に搭載された生成手段は、ユーザからの自然言語による指示を受け取る受信手段を含み、この受信手段は、音声認識技術を用いてユーザの発話からテキスト情報を抽出する。受け取ったテキスト情報は、自然言語処理技術によって解析され、指示の意図や内容を理解するための解析手段を有する。解析結果に基づいて、AIは無人航空機の動作プログラムを生成する生成手段を備えており、この生成手段には、機械学習アルゴリズムやルールベースのアルゴリズムが組み込まれている。また、制御装置に組み込まれた生成AIは、ユーザが発する自然言語のコマンドをテキストに変換する音声認識手段を有しており、この音声認識手段は、ユーザの発話をテキストデータに変換するための音声解析アルゴリズムを利用する。その後、テキスト化された指示は、意図解析手段によって内容が精査され、無人航空機の動作プログラムを生成するためのAIアルゴリズムによって処理される。このAIアルゴリズムは、条件分岐機能やパラメータ調整機能を有し、ユーザの指示に基づいて無人航空機の飛行経路や行動パターンを決定する。
感情認識手段は、ユーザの声のトーン、表情、身体言語などを解析するためのセンサーやカメラを含み、これらから得られるデータを用いてユーザの感情状態を判定する。この判定は、音声解析技術によって声の高さや強さ、話速などから感情を推定する手段や、顔認識技術を用いてユーザの表情から感情を読み取る手段を通じて行われる。感情エンジンは、ユーザの感情状態を識別するための複合センシング手段を備えており、この複合センシング手段は、音声センサーと視覚センサーからの情報を統合して処理する。音声センサーは、感情分析アルゴリズムを用いてユーザの声のトーンや発話のリズムから感情を推定する。視覚センサーは、顔認識技術を活用して表情の変化を検出し、感情状態を分析する。これらのセンサーによって得られた感情データは、無人航空機の操作に影響を与えるための感情反映アルゴリズムによって処理される。
無人航空機の動作プログラムは、例えば、飛行計画を立てるための航行経路算出手段や、障害物を回避するためのセンサーデータ処理手段を含む。航行経路算出手段は、GPSデータや地図情報を利用して最適な飛行ルートを計算する。また、無人航空機の飛行プログラムには、航行経路算出手段が含まれ、これは地理情報システム(GIS)データや気象情報を参照して、飛行ルートを計画する。センサーデータ処理手段は、ライダーや超音波センサーなどから得られた情報を処理し、周囲の障害物を検出して回避する動作を無人航空機に指示する。また、障害物回避手段として、無人航空機に搭載されたセンサーアレイからのデータを分析し、周囲の環境を把握することで衝突リスクを回避する。
通信手段は、制御装置と無人航空機間のデータ転送と指令の伝達を担い、リアルタイムでの飛行制御を可能にする。また、飛行中の無人航空機は、通信手段を介して常に制御装置とデータをやり取りし、リアルタイムで状況に応じた動作の調整が行われる。
システムは、ユーザインターフェースにおいても工夫が凝らされており、ユーザが簡単に無人航空機を指令できるように、直感的なデザインが採用されている。操作性を高めるために、タッチスクリーン入力手段やジェスチャー認識手段などが組み込まれている場合もある。
センサーフリーなデータ収集手段としては、ユーザが直接操作するインタラクティブ入力手段が用意されており、感情や動作の設定を手動でシステムに伝えることができる。また、センサーを含まないデータ収集の例としては、ユーザが手動で入力した感情状態や状況に基づくデータが挙げられる。この場合、ユーザはアプリケーションやウェブインターフェースを通じて、自身の感情や望む無人航空機の動作を直接指定する。これにより、無人航空機はユーザの手動入力に基づいて動作するプログラムを実行する。
各手段の実装には、マイクロプロセッサやメモリ、通信インターフェースなどのハードウェアコンポーネントが利用され、これらはシステム全体の効率的な動作を支える。
本発明のシステムには、ユーザーの感情や意図に基づいて無人航空機を操作するためのさらなる機能を追加することができる。例えば、制御装置に組み込まれた生成AIは、ユーザーの過去の指示や反応パターンを学習し、より個人化された応答や動作プログラムを生成することが可能となる。この学習機能により、システムはユーザーの振る舞いや好みを予測し、それに応じた無人航空機の動作を自動的に調整することができる。
また、無人航空機には、環境音を識別し、その情報をユーザーの感情状態の推定に活用する音響センシング機能を付加することができる。これにより、システムは周囲の騒音や音楽、動物の鳴き声などを分析し、ユーザーが置かれている環境の雰囲気をより詳細に把握することが可能となる。
感情エンジンには、ユーザーの生体信号を追跡するためのウェアラブルデバイスとの連携機能を追加することもできる。心拍数、皮膚の電気活動、体温などの生体情報を収集し、これらのデータを感情の推定に組み込むことで、ユーザーの感情状態をより正確に識別することが可能となる。
無人航空機の飛行プログラムには、緊急時の自動帰還機能や、ユーザーの安全を確保するための回避操縦機能を組み込むこともできる。これにより、予期せぬ障害物や気象条件の変化に対して、無人航空機は自律的に安全な行動を取ることができる。
さらに、無人航空機には、ユーザーとのインタラクティブなコミュニケーションを実現するための表情認識やジェスチャー解析機能を付加することができる。これにより、ユーザーが無人航空機に向けて行う身振りや表情を認識し、それに応じた動作を行うことが可能となる。
通信手段には、低遅延で高帯域の通信プロトコルを利用し、制御装置と無人航空機間のデータ転送をより迅速かつ安定に行うことができる。この高度な通信技術により、システムはリアルタイムでの情報交換を行い、遅延のない精密な飛行制御を実現することが可能となる。
このような機能の追加により、本発明のシステムはユーザーの感情や意図をより深く理解し、無人航空機を用いてより高度で柔軟なサービスを提供することが可能となる。ユーザーとシステムの相互作用は、より直感的でリッチな経験をもたらし、ユーザーが求めるタスクをより効率的かつ安全に遂行することを助ける。
制御装置に搭載された生成AIには、ユーザーの指示に対する応答速度を向上させるための予測機能が追加されることができる。この機能は、ユーザーの指示パターンや習慣を分析して、次に発せられるであろうコマンドを予測し、無人航空機が即座に対応できるようにする。無人航空機はユーザーの意図を先読みして動作を開始することで、反応時間を短縮し、より流動的な操作を実現する。
無人航空機の飛行プログラムには、複数の無人航空機が協調して動作するためのスウォームインテリジェンス機能が組み込まれることもできる。この機能により、無人航空機は群れを成して効率的にエリアをカバーし、ユーザーの指示に基づいた複雑なタスクも分担して行うことができる。
感情エンジンについては、ユーザーの感情に応じて無人航空機の照明や音を制御する機能を追加することができる。例えば、ユーザーがリラックスしている際には、無人航空機から柔らかい照明や穏やかな音楽を再生することで、周囲の雰囲気をより心地よいものにする。
また、無人航空機には、ユーザーの指示を視覚的に伝えるためのプロジェクションマッピング機能を搭載することができる。これにより、無人航空機は地面や壁面に情報を投影し、ユーザーに対して直感的なフィードバックを提供する。
通信手段には、人工衛星通信を活用したグローバルな通信ネットワークとの連携機能が追加されることもできる。これにより、無人航空機は地球上のどこにいても制御装置からの指令を受け取り、広範囲にわたるタスクに対応できる。
無人航空機のセンサーアレイには、環境モニタリング機能が追加され、大気汚染や温室効果ガスの濃度を測定し、リアルタイムでデータを制御装置に送信することができる。これにより、システムは環境監視の一環としても活用される。
これらの追加機能により、本発明のシステムはユーザーの感情や意図を反映した無人航空機の操作をさらに高度に行い、多種多様な応用シナリオに適応する。ユーザーは、より快適で満足のいく経験を得ることができ、システムの使い勝手も大幅に向上する。
(形態例3)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが驚いている場合には、無人航空機の飛行ルートを変更したり、カメラの視点を特定の対象に向けたりする。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。認識手段は、感情エンジンを含み、データ処理装置12とは異なる装置で実現される。反映手段は、例えば、データ処理装置12の特定処理部290によって実現され、ユーザの感情を認識した結果に基づいて無人航空機の操作を調整する。例えば、ユーザが驚いている場合には、無人航空機の飛行ルートを変更したり、カメラの視点を特定の対象に向けたりする。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
生成手段は、自然言語処理(NLP)技術を用いて、ユーザからの指示を解析する解析手段と、解析された指示に基づいて無人航空機の動作プログラムを作成するプログラム生成手段とを含む。また、生成手段は、ユーザの自然言語指示を解析し、無人航空機の動作プログラムを生成する機能が実現される機能を備える。また、生成手段は、データ処理装置やスマートデバイスにモジュール化されたソフトウェアコンポーネントとして統合されており、必要に応じてクラウドベースのサービスとしても提供される。解析手段は、音声認識技術によりユーザの発声をテキスト化し、意図解析機能により指示の目的や内容を把握する。また、解析手段は、ユーザの音声指示をテキストに変換し、その内容を理解するために音声認識技術と意図解析機能を利用する。プログラム生成手段は、解析されたユーザの指示に応じて、無人航空機の飛行経路、速度、高度、カメラ操作などの動作プログラムを自動生成する。また、プログラム生成手段は、解析された指示内容に基づいて、無人航空機の飛行経路やカメラ操作などの具体的な動作プログラムを自動的に作成する。このプロセスでは、無人航空機が安全に操作されるように、飛行安全規制や物理的な制約を考慮したアルゴリズムが用いられる。また、この生成過程では、無人航空機の安全な運用を確保するために、飛行安全規制を遵守し、物理的な制約を考慮したアルゴリズムが適用される。
認識手段は、ユーザの表情、声のトーン、言葉の選択などから感情を推定する感情分析機能を含む。また、感情エンジンにおいては、ユーザの感情をリアルタイムで捉えるための認識手段が備わっている。この機能は、機械学習により訓練された感情認識モデルを使用し、リアルタイムでユーザの感情状態を推定する。感情認識モデルは、大量の表情画像や音声データを分析し、特定の感情パターンを識別するために訓練されている。この認識手段は、ユーザの表情や声のトーン、言葉の選択から感情を推定する感情分析機能を有し、機械学習に基づく感情認識モデルを使用して、ユーザの感情状態を瞬時に推定する。このモデルは、豊富な表情画像や音声データを分析することで、様々な感情パターンを識別できるよう訓練されている。
反映手段は、認識されたユーザの感情に応じて無人航空機の操作を変更する操作変更機能を含む。例えば、ユーザが驚きの感情を示した場合、無人航空機の飛行経路を即座に変更することで、ユーザの関心がある対象にカメラを向けるなど、感情に応じた対応を行う。この機能は、無人航空機の動作プログラムをリアルタイムで調整し、ユーザの体験を向上させるためのものである。また、ユーザの感情が認識されると、反映手段がその感情を無人航空機の操作に反映させる。操作変更機能は、ユーザの感情に応じて、無人航空機の飛行経路の変更やカメラの視点調整など、感情に沿った対応を行う。この機能により、ユーザの体験が向上し、無人航空機の操作がよりダイナミックで魅力的なものになる。また、入力された感情データは、反映手段によって無人航空機の動作プログラムに反映される。この場合、感情認識にセンサー技術は必要なく、ユーザ主導の情報提供に基づいてシステムが動作する。また、ユーザが直接自らの感情状態を入力することで情報を提供する場合、これはセンサーによる感情認識を必要とせず、インターフェースを通じた手動入力によって行われる。入力された感情データは、ユーザ主導でシステムに提供され、無人航空機の動作プログラムに反映されることで、ユーザの意向に合わせた操作が可能になる。
本形態例のシステムには、さらなる機能拡張が可能である。無人航空機の群れを動的に制御し、複雑な空中ショーを実現する機能を追加することができる。これにより、イベントやエンターテインメント分野での利用が期待される。また、感情エンジンは、ユーザのストレスレベルを測定し、リラクゼーションを促進するために特定の飛行パターンや映像を提供する機能も備えている。ユーザがリラックスするための音楽や映像を同時に再生し、感情に基づいた全身のリラクゼーション体験を提供する。
さらに、制御装置には、ユーザの行動や環境変化を予測し、無人航空機の行動を先読みする予測手段も組み込むことができる。予測手段は、過去の飛行データや環境センサーからの情報を活用し、将来の飛行パターンを最適化する。これにより、無人航空機は状況に応じて自動的に飛行ルートを変更し、効率的な飛行を実現する。また、環境変化に応じた飛行ルートの自動調整機能を持つことで、突発的な気象変動や障害物の出現にも迅速に対応する。
制御装置と無人航空機の間の通信手段には、セキュリティ強化のために暗号化技術を採用する。これにより、外部からの不正アクセスを防ぎ、安全な通信を保証する。感情エンジンに関しては、ユーザの感情データを匿名化し、プライバシー保護を重視したデータ処理を行う。匿名化された感情データは、研究目的での利用や、より高度な感情認識モデルの開発に役立てられる。
無人航空機には、周囲の環境を3Dマッピングするセンサーを搭載し、リアルタイムでの環境認識能力を高める。3Dマッピングデータは、制御装置に送信され、飛行安全のための情報として活用される。また、このデータは、緊急時の救助活動や災害時の状況把握にも寄与する。
生成手段は、ユーザからのフィードバックを学習することで、無人航空機の動作プログラムを進化させる。この学習機能は、無人航空機のパフォーマンスを向上させ、より洗練された操作が可能となる。フィードバックに基づく学習機能は、ユーザの好みやニーズに合わせたカスタマイズを実現する。
最終的に、システムは、ユーザインタフェースの改善を図ることで、より直感的で使いやすい操作体験を提供する。インタフェースは、ユーザの操作履歴や好みに基づいて自動的に最適化され、無人航空機の操作を簡単にするためのガイドを提供する。これにより、あらゆる年齢層のユーザが、無人航空機をより快適に利用できるようになる。
無人航空機を用いたシステムには、さらに感情エンジンの能力を高める機能を追加することができる。例えば、ユーザの生体信号をリアルタイムで計測するセンサーを組み込み、心拍数や皮膚の電気抵抗などから感情の変化をより正確に把握することが可能となる。また、無人航空機のカメラがユーザの表情を撮影し、その映像データを感情エンジンが分析することで、ユーザの感情認識の精度を向上させることもできる。
制御装置の生成手段に関しては、複数のユーザからの指示を同時に処理し、それぞれの無人航空機に適切な動作プログラムを割り当てるマルチタスク処理機能を追加することができる。これにより、一つのイベントで複数のユーザが異なる要望を持つ場合でも、個々の要望に応じた無人航空機の操作が可能となる。さらに、無人航空機が持つセンサーからのデータを活用して、環境の変化を検知し、自動的に飛行プログラムを調整する環境適応機能を実装することも考えられる。これにより、無人航空機はより自律的に適切な行動を取ることができ、例えば、人が多く集まるイベントでは人を避ける動作や、特定の風景を撮影するために最適な角度を選択する動作が可能となる。
通信手段に関しては、無人航空機同士が情報を共有するネットワークを構築し、群れとしてのインテリジェントな動きを実現することが可能である。無人航空機がお互いの位置や状態をリアルタイムで把握し合い、協調して複数のタスクを効率的に遂行することができる。また、ユーザの指示に応じて無人航空機が形成するフォーメーションを柔軟に変更することで、ビジュアルアートや広告などの新しい用途が期待される。
感情エンジンには、ユーザの感情に応じた音楽や照明の自動調整機能を追加することもできる。ユーザが喜びを感じている際には明るく活動的な音楽と照明を、落ち着きを求めている際には穏やかな音楽と照明を提供することで、無人航空機を介した感情に応じた体験を強化する。さらに、無人航空機がユーザの健康やウェルネスをサポートするためのヘルスモニタリング機能を追加し、定期的な健康状態のチェックやリラクゼーションのためのアクティビティを提供することも考えられる。
これらの拡張により、無人航空機を利用したシステムは、エンターテインメントだけでなく、健康管理や個人のウェルネスの向上、緊急時の対応など、多岐にわたる分野での活用が期待される。また、ユーザインターフェースの改善により、より多くの人々が直感的に無人航空機を操作できるようになり、その利便性が広く認識されることとなる。
【0054】
以下に、各形態例の処理の流れについて説明する。
【0055】
(形態例1)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例2)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例3)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。例えば、ユーザが喜んでいる場合には、無人航空機はよりアグレッシブな動きをする。逆に、ユーザが怒っている場合には、無人航空機はより慎重な動きをする。
【0056】
特定処理部290は、特定処理の結果をスマート眼鏡214に送信する。スマート眼鏡214では、制御部46Aが、スピーカ240に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
【0057】
データ生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。特定処理部290は、データ生成モデル58を用いながら、上述した特定処理を行う。
【0058】
上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、スマート眼鏡214によって特定処理が行われるようにしてもよい。
【0059】
[第3実施形態]
【0060】
図5には、第3実施形態に係るデータ処理システム310の構成の一例が示されている。
【0061】
図5に示すように、データ処理システム310は、データ処理装置12及びヘッドセット型端末314を備えている。データ処理装置12の一例としては、サーバが挙げられる。
【0062】
データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。
【0063】
ヘッドセット型端末314は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、通信I/F44、及びディスプレイ343を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、カメラ42、及びディスプレイ343も、バス52に接続されている。
【0064】
マイクロフォン238は、ユーザが発する音声を受け付けることで、ユーザから指示等を受け付ける。マイクロフォン238は、ユーザが発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。
【0065】
カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラであり、ユーザの周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。
【0066】
通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44及び26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。
【0067】
図6には、データ処理装置12及びヘッドセット型端末314の要部機能の一例が示されている。図6に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。
【0068】
特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。
【0069】
ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。
【0070】
ヘッドセット型端末314では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。
【0071】
なお、データ処理装置12以外の他の装置がデータ生成モデル58を有してもよい。例えば、サーバ装置(例えば、ChatGPTサーバ)がデータ生成モデル58を有してもよい。この場合、データ処理装置12は、データ生成モデル58を有するサーバ装置と通信を行うことで、データ生成モデル58が用いられた処理結果(予測結果など)を得る。また、データ処理装置12は、サーバ装置であってもよいし、ユーザが保有する端末装置(例えば、携帯電話、ロボット、家電)であってもよい。次に、データ処理装置12の特定処理部290による特定処理について説明する。
【0072】
(形態例1)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、通信手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。無人航空機は、生成された動作プログラムに基づいて、指示に従って移動や回転などの操作を行う。通信手段は、制御装置と無人航空機の間で指示やデータの送受信を行うための手段である。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。無人航空機は、生成された動作プログラムに基づいて、指示に従って移動や回転などの操作を行う。通信手段は、データ処理装置12の通信I/F26とヘッドセット型端末314の通信I/F44を用いて、制御装置と無人航空機の間で指示やデータの送受信を行うための手段である。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
生成手段は、自然言語処理技術を活用して、ユーザからの指示を解析し、無人航空機の動作プログラムを生成する。また、生成手段は、人間の口頭またはテキスト入力による指示を音声認識手段とテキスト解析手段によってデジタルデータに変換し、その内容を解釈することもできる。この手段には、音声認識機能が含まれ、ユーザの口頭での指示をテキストデータに変換する。また、音声認識手段は、ユーザの音声指示を受け取り、音声データをテキスト化する機能を有する。テキスト解析手段が、指示の内容を理解し、意図を把握するために形態素解析や構文解析を行う。また、テキスト解析手段は、入力されたテキストの意味を理解するために形態素解析や構文解析を行う。意図解析手段が、指示の背後にある目的やタスクを特定し、動作プログラム生成手段が、解析された意図に基づいて具体的な動作プログラムを生成する。また、意図解析手段は、テキストに含まれる指示から具体的なタスクや目的を特定し、それに基づいて動作プログラム生成手段が動作プログラムを作成することもできる。動作プログラム生成手段は、確率論的なアルゴリズムや機械学習モデルを利用して、効率的で安全な無人航空機の動作計画を立案する。また、この動作プログラム生成手段は、無人航空機が遂行すべき動作シーケンスを定義し、それに必要なパラメータを算出することもできる。
無人航空機は、搭載された飛行制御手段を通じて、生成された動作プログラムに基づいた操作を自動で実行する。また、無人航空機には、飛行制御手段が内蔵されており、生成された動作プログラムに従って、自律的に飛行や回転などの操作を行うことができる。飛行制御手段は、センサーからのデータや、GPSによる位置情報を基に、無人航空機の姿勢や位置をリアルタイムで制御する。また、飛行制御手段は、姿勢制御機能、位置制御機能、速度制御機能を組み合わせて機能し、これらはセンサーデータやGPS情報に基づいて無人航空機の飛行状態を調整することもできる。障害物検知手段が周囲の環境を認識し、衝突回避手段が障害物を回避する経路を計算する。また、障害物検知手段は、レーダーやLiDARなどのセンサーを用いて周囲の障害物を検出し、衝突回避手段は検知された障害物を避けるための代替経路を計算し、安全に飛行することもできる。
通信手段は、無線通信技術を用いて、制御装置と無人航空機間のデータの送受信を可能にする。また、通信手段は、高度な無線通信技術を活用して制御装置と無人航空機間でのデータの送受信を行うこともできる。この手段には、信号のエンコードとデコードを行う符号化手段と、通信の信頼性を保つための誤り訂正手段が含まれる。符号化手段は、送信されるデータを効率的にエンコードし、受信側でデコードすることでデータの意味を回復する。誤り訂正手段は、通信過程で生じうるデータの誤りを検出し、修正することで通信の信頼性を保つ。通信手段は、低遅延で高い帯域幅を持つ通信プロトコルを採用し、動作プログラムや運用状況のデータを迅速に送受信する。また、通信プロトコルは、低遅延かつ高帯域を実現し、無人航空機の飛行状態やセンサーデータ、ビデオフィードをリアルタイムで送信するために最適化されていることもできる。制御装置は無人航空機の状態を常に把握し、必要に応じて追加の指示を出すことができる。また、無人航空機は、飛行中のセンサーデータやビデオフィードをリアルタイムで制御装置に送信し、モニタリングや分析を行う。また、無人航空機は、飛行中のデータを通信手段を通じて制御装置に送信し、オペレーターによるリアルタイムのモニタリングや、後の分析のためのデータ収集を可能にすることもできる。
無人航空機を活用した制御システムには、さまざまな追加機能を組み込むことが可能である。例えば、無人航空機には、環境モニタリング機能を追加し、空中からの精密な温度、湿度、大気圧の測定を行い、気象データを収集することができる。また、農業分野への応用として、土壌の水分や栄養状態を測定するセンサーを搭載し、精密農業をサポートする機能を提供することも有効である。
無人航空機には、救助活動をサポートする機能も追加できる。例えば、災害発生時には、建物の損壊状況や被災者の位置を把握し、救助隊に情報を提供する。また、サーマルカメラを搭載し、煙や火災の状況を検出し、消防活動の指揮や支援に役立てることができる。さらに、自律飛行能力を向上させるため、AIを用いて無人航空機同士が情報を共有し、群れとして協調動作を行うスウォーム機能を開発することで、より広範囲のモニタリングや複数のタスクを同時に遂行することが可能になる。
通信手段においては、通信の安定性を向上させるために、衛星通信やレーザー通信などの代替通信手段を検討する。これにより、遠隔地や通信インフラが破壊された災害地域でも、無人航空機との連携を維持することができる。さらに、無人航空機の運用をより安全かつ効率的に行うために、地上のレーダーシステムや他の航空機との通信を組み合わせて、飛行中の無人航空機の位置や状態を正確に把握し、衝突回避を支援するシステムを導入する。
無人航空機を使用した監視システムでは、映像解析技術の進展を取り入れ、リアルタイムで動画から物体や人物を識別し、行動パターンを解析することも考えられる。これにより、警備や監視業務を自動化し、犯罪防止や安全管理に貢献する。また、無人航空機が撮影した映像は、バーチャルリアリティや拡張現実に活用することで、教育やトレーニング、観光などの新たな体験を提供することができる。
最後に、制御装置には、無人航空機の動作ログやセンサーデータを活用した機械学習モデルを訓練し、無人航空機の飛行パフォーマンスを改善するための自己学習機能を追加する。これにより、無人航空機は過去の経験から学習し、より効果的な飛行ルートを選択し、タスクの効率化を図ることができる。
制御装置に搭載された生成AIを活用し、他の産業分野での自動化作業にも適用することが考えられる。例えば、農薬散布や種まきなどの農業作業を自動化し、人手を要する労働を削減する。無人航空機には、超音波センサーや近赤外線カメラを搭載し、作物の生育状態や病害の早期発見に役立てる。また、無人航空機による精密な農薬散布システムを開発し、農薬の使用量を最適化し、環境への影響を減らす。
制御装置の生成AIは、無人航空機に限らず、水中ロボットや地上の自律走行車にも応用可能である。これらの異なるプラットフォームを組み合わせることで、陸海空を網羅する監視ネットワークを構築し、環境監視、資源探査、災害対応など多岐にわたる分野での利用が期待できる。無人航空機を用いた環境モニタリングでは、複合ガスセンサーを搭載し、大気汚染の監視や温室効果ガスの測定を行うことも有効である。
さらに、制御装置と無人航空機の組み合わせは、災害救助以外にも、人命救助や捜索活動での利用が考えられる。高性能カメラと顔認識技術を組み合わせ、行方不明者の捜索や、海岸監視における遭難者の早期発見に役立てる。無人航空機に救命キットを搭載し、遭難者に対して迅速な救助物資の投下を行うシステムも開発する。
通信手段の強化により、データのリアルタイム性が重要な遠隔医療や災害時の緊急通信にも活用が可能となる。高解像度の映像伝送と低遅延通信を実現し、医師が遠隔地から手術を指導したり、災害現場からの緊急通信を確立するためのインフラとしての役割を担う。
制御装置のAIをさらに進化させ、無人航空機の群れが協調して複雑な作業を行うためのアルゴリズムを開発する。これにより、一つの大きなタスクを複数の無人航空機が分担して効率よく完遂することが可能になる。例えば、建設現場での材料運搬や、火災現場での消火活動などに応用する。
最終的に、制御装置のAIと無人航空機の組み合わせは、都市のインフラ管理や交通流の監視、公共安全の確保といったスマートシティの構築にも貢献する。無人航空機が提供するリアルタイムデータを活用し、都市運営の最適化や災害発生時の迅速な対応を行うためのシステムを構築する。また、無人航空機が集めた情報は、都市計画や交通政策の立案にも役立てる。これにより、持続可能で効率的な都市の発展を支援する。
(形態例2)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、位置情報取得手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の位置情報を取得する。位置情報取得手段は、GPSやセンサーなどを利用して無人航空機の位置を特定する手段である。制御装置は、取得した位置情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
位置情報取得手段は、無人航空機に搭載されたGPSやセンサーなどを利用して位置を特定する手段であり、データ処理装置12とは異なる装置で実現される。制御手段は、データ処理装置12の特定処理部290によって実現され、取得した位置情報を基に、指示に従って無人航空機を制御する。また、制御手段は、ヘッドセット型端末314の制御部46Aによって実現されてもよい。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置は、自然言語理解モジュールを含む解析手段を用いて、ユーザからの指示を解析し、意図を把握する。また、制御装置は、ユーザからの自然言語指示を受け取る指示受付手段と、これを解析するための自然言語理解モジュールが備わっている。この自然言語理解モジュールは、音声認識技術を用いて音声指示をテキストデータに変換する音声テキスト変換手段を含む。また、音声テキスト変換機能は、音声認識アルゴリズムによってユーザの指示を文字情報に変換することができる。変換されたテキストデータをさらに解析するためのトークン化、品詞タグ付け、名詞句解析、動詞句解析、依存関係解析などの言語処理手段を含む。また、言語処理機能は、トークン化手段、品詞タグ付け手段、構文解析手段などを用いて、指示の意図を明確に把握することもできる。これにより、ユーザの指示に含まれるコマンド、パラメータ、条件などが正確に特定される。解析された指示は、無人航空機の制御に必要なコマンドとして生成AIによって解釈され、対応する行動指令を生成するコマンド生成手段を介して無人航空機の制御部に送信される。これにより、ユーザの意図がコマンドとして解釈され、無人航空機に送信される行動指令を生成する。
位置情報取得手段には、無人航空機の正確な位置を追跡するための複合的な位置情報処理手段が含まれる。また、位置情報取得手段として、無人航空機に搭載されたGPSモジュールがあり、地球上の位置情報を取得することができる。このGPSモジュールは、地球上の任意の地点の緯度、経度、高度情報を取得する。さらに、GNSS(Global Navigation Satellite System)信号を解析するGNSS解析手段が、より高い位置情報の精度と信頼性を提供することができる。また、これと併用されるGNSS解析手段は、衛星からの信号を用いて位置の精度を高めることもできる。一方、内蔵された加速度センサーやジャイロスコープなどの慣性測定ユニット(IMU)は、無人航空機の姿勢や動きを継続的に追跡し、GPS信号が不安定な環境でも安定した位置情報の取得を支援する。また、無人航空機の動きを検出するためのIMUが、慣性に基づいた情報を提供し、GPS信号が不安定な状況下でも位置情報の正確性を保つことができる。センサーを含まない例として、無人航空機がビーコンや地上局との通信により自身の位置情報を取得する通信ベースの位置情報取得手段が考えられる。また、センサーを使用しない位置情報取得の例として、通信ベースの位置情報取得手段が挙げられる。この手段では、地上のビーコンから発信される信号や、他の無人航空機との通信を通じて、相対位置や絶対位置を確定する。ビーコンは、特定の周波数の電波を発信し、無人航空機の搭載した受信モジュールがこれを受信することで、位置情報を算出するための参照点となる。また、無人航空機は受信した信号をもとに自身の位置を算出することができる。このようなシステムでは、地上局との通信を介して、無人航空機の現在位置や飛行経路の調整情報がリアルタイムで交換される。
制御手段は、無人航空機の飛行経路を計画し、調整する飛行経路計画手段を含む。また、制御手段としては、無人航空機の飛行経路を計画し、調整する飛行経路計画機能が含まれる。これには、無人航空機の動作をシミュレートし、飛行経路上の障害物や安全上の制約を考慮して、最適な飛行経路を算出するシミュレーション手段が組み込まれている。また、この機能は、シミュレーション手段を用いて飛行経路をシミュレートし、障害物回避手段や安全上の制約を考慮して最適な経路を算出することができる。さらに、無人航空機が遭遇する可能性のある緊急事態に迅速に対応するための緊急回避手段や、複数の無人航空機を協調して制御するための群制御手段も含まれる。また、緊急事態に対応する緊急回避機能や、複数の無人航空機を一元的に制御する群制御機能も備わっている。
本形態例の制御装置には、さらに複雑な環境下での飛行能力を向上させるために、高度な障害物検知システムを組み込むことが可能である。例えば、レーザースキャナーや超音波センサーを利用した3Dマッピング技術を活用し、飛行中の無人航空機が周囲の環境を精密に認識し、動的に変化する障害物にも迅速かつ自律的に対応する機能が追加される。また、衛星画像や地理情報システム(GIS)データを解析することで、飛行計画における地形の特徴や障害物の情報をより詳細に考慮し、高度な飛行経路の最適化が可能となる。
無人航空機の群制御においては、AIを利用したスウォームインテリジェンスに基づく協調飛行アルゴリズムを導入することで、複数の無人航空機が一体となって作業を効率的に行えるようになる。例えば、農薬散布や捜索救助活動において、複数の無人航空機が分散して作業を行う際に、全体の作業効率を最大化するための動的な飛行経路調整が行われる。これにより、無人航空機は個々の状況に応じて役割を分担し、協調することが可能となる。
制御装置の自然言語理解モジュールには、ユーザが用いる専門用語や業界固有の言葉を理解するための専門用語辞書やコンテキスト解析機能が追加され、特定の業界や用途に特化した指示を正確に解析し、具体的な操作コマンドに変換する能力が向上する。また、無人航空機の環境認識能力を高めるために、センサーデータと合わせてソーシャルメディアやインターネットの情報を解析し、人々の活動パターンやイベントの発生状況を把握する機能が追加される。
位置情報取得手段においては、無人航空機が使用するGPSモジュールに補正信号を提供する地上参照局のネットワークを組み込むことで、より高精度な位置情報を提供する差分GPS(DGPS)システムを導入することが可能である。さらに、遠隔地からの操作や監視を可能とするために、衛星通信を利用したリアルタイムのデータリンクシステムを組み込むことで、地球のどこからでも無人航空機の制御が行えるようになる。
これらの機能を統合することで、無人航空機はより複雑な任務に対応し、ユーザのニーズに合わせた柔軟かつ高度な運用が実現される。例えば、災害救助や環境モニタリング、セキュリティ監視などの分野において、無人航空機を活用した先進的なソリューションが提供されることになる。
制御装置には、ユーザの指示をより精密に解釈するためのコンテキスト認識機能を組み込むことができる。これにより、同じ命令でも異なる状況に応じて最適な行動を取ることが可能となる。また、ユーザとの対話を通じて、不明瞭な指示に対する問い返し機能を持つことで、コミュニケーションの精度を高め、誤解を防ぐことができる。さらに、複数のユーザからの指示を同時に処理するマルチタスク処理能力を備えることで、大規模なオペレーションにおける高い柔軟性を実現する。
位置情報取得手段には、無人航空機の周囲をリアルタイムに3DスキャンするLiDARセンサーを追加することで、より高度な環境認識と正確な位置決めを実現する。また、ビジュアルオドメトリーを活用して、カメラで撮影した映像から無人航空機の動きを推定することで、GPSが利用できない環境でも安定した位置情報を提供する。これにより、都市部の高層建築物間や密林内など、GPS信号の受信が困難な場所での活動も可能となる。
制御手段には、無人航空機が自律的に障害物を回避し、飛行経路を調整する自己学習型障害物回避アルゴリズムを採用する。また、無人航空機間の通信により、周囲の無人航空機の状況をリアルタイムで共有し、衝突を避けながら効率的に飛行することを可能とする協調回避アルゴリズムを導入する。これにより、複数の無人航空機が密集して飛行する状況でも、安全性を確保しつつ任務を遂行することができる。
制御装置のAIは、無人航空機が集めたデータを元に、継続的に環境モデルを更新し、その環境モデルを基にした予測型制御を行うことができる。これにより、無人航空機は現状のみならず、将来の変化にも対応した自律飛行を実現する。また、無人航空機は、予め設定された行動パターンを超えて、その場の状況に応じて最適な判断を下すことができる。
最終的に、本形態例で提案されるシステムは、無人航空機を用いた高度な監視、調査、災害対応など様々なアプリケーションに適用可能であり、高度な自律性とユーザビリティを兼ね備えた次世代の無人航空機制御システムとなる。それにより、人間のアクセスが困難または危険な地域での活動や、時間的制約のある緊急任務において、無人航空機の有効利用が促進されることが期待される。
(形態例3)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、映像処理手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の映像を処理する。映像処理手段は、カメラや画像認識技術を利用して無人航空機の映像を解析する手段である。制御装置は、解析された映像情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
映像処理手段は、無人航空機に搭載されたカメラや画像認識技術を利用して映像を解析する手段であり、データ処理装置12とは異なる装置で実現される。制御手段は、データ処理装置12の特定処理部290によって実現され、解析された映像情報を基に、指示に従って無人航空機を制御する。また、制御手段は、ヘッドセット型端末314の制御部46Aによって実現されてもよい。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置には、自然言語処理モデルを用いた指示解析手段が含まれ、ユーザからの指示をテキストまたは音声形式で受け取り、意図を把握する機能を持つ。指示解析手段は、形態素解析や構文解析によって自然言語の文を理解し、意味解析によって指示の意図を正確に把握する。また、制御装置に搭載された自然言語処理モデルは、ユーザの音声やテキスト指示を受信し、それらのデータを形態素分割機能によって言語の基本単位に分割することができる。次に、構文解析機能が文の構造を明らかにし、意味解析機能が文脈に応じた指示の意図を特定することもできる。これらの解析結果をもとに、機械学習により構築された言語理解モデルがユーザの意図を精確に把握し、対応するアクションを生成する。この過程において、機械学習に基づく言語モデルが訓練データを基に学習を行い、ユーザの指示に対する応答の精度を高める。
無人航空機に搭載される映像処理手段には、リアルタイム映像解析機能が含まれ、無人航空機が撮影する映像データを瞬時に処理し、特定の物体や景色を識別する。この機能は、ディープラーニングに基づく物体検出モデルやセマンティックセグメンテーションモデルを用いて物体の種類や位置を認識し、無人航空機が捉えた環境の特徴を抽出する。また、無人航空機に備わる映像処理手段は、リアルタイムで映像データを分析し、物体識別機能により画面内の特定のオブジェクトを識別することができる。物体検出モデルとセマンティックセグメンテーションモデルが融合され、画像中の物体の種類と位置を特定することもできる。映像データの前処理では、ノイズリダクションやコントラスト調整が行われ、認識精度の向上に貢献する。さらに、画像前処理機能により、ノイズリダクションやコントラスト調整を行い、映像解析の精度を向上させることができる。
制御手段には、無人航空機の飛行経路計算機能が含まれ、解析された映像情報を基に、目的地までの最適な飛行経路を算出し、無人航空機を効率的に案内する。この飛行経路計算機能は、地形データや気象情報を統合し、障害物回避やエネルギー効率の最大化を図る。また、制御手段として、無人航空機は飛行経路計算機能を用いて目的地までの効率的な経路を算出する。この機能は、地形データ統合機能と気象情報統合機能を組み合わせ、飛行の安全性と効率性を確保することができる。さらに、無人航空機の飛行動作制御機能が、速度や高度、姿勢制御といった飛行の基本動作を精密に調整し、ユーザの指示に応じた動作を実行する。また、飛行動作制御機能が無人航空機の速度、高度、および姿勢を適切に調整し、ユーザの指示に沿った動作を実現することもできる。
映像処理手段の一部として、無人航空機による環境モニタリング機能も考えられる。これは、環境変化検知モデルを用いて自然災害や異常事態を検出し、状況に応じた対応を可能にする。また、無人航空機による環境モニタリング機能は、環境変化検知モデルを使用して、自然災害や異常事態を迅速に捉え、状況に適した対応を行うことができる。この監視機能は、広範囲にわたる環境の変化を効果的に検出し、情報収集と迅速な対処を実現する。
センサーを含まないデータ収集の例として、ユーザが無人航空機に搭載されたカメラを通じて手動で映像データを選択し、そのデータを制御装置に送信する手動選択手段が考えられる。この手動選択手段では、ユーザが特定の映像に注目している場合や、特定の状況下での映像分析が求められる場合に役立つ。ユーザはインタフェースを通じて映像データを選択し、制御装置に送信することで、映像解析手段による解析と制御手段による対応が行われる。また、手動選択手段として、ユーザはインタフェースを介して無人航空機のカメラで捉えた映像データを選択し、制御装置に送信することができる。この選択プロセスにより、映像データはユーザの特定の要求に基づいて選ばれ、映像処理手段による詳細な解析や制御手段による適切な飛行制御が行われる。
制御装置には、様々な状況に応じた行動パターンを学習するための強化学習アルゴリズムを組み込むことができる。このアルゴリズムにより、無人航空機は異なる環境や任務に対応するための適応能力を高める。また、制御装置には、複数の無人航空機の協調飛行を管理するためのマルチエージェントシステムを搭載することができる。これにより、複数の無人航空機が同時に行動を起こし、一つの目標に対して効率的に協力することが可能となる。さらに、制御装置は、緊急時の無人航空機の自動帰還機能や障害物自動回避機能を含む安全機能を備えることができる。これにより、無人航空機は自身の安全を確保しつつ、任務を完遂することができる。
映像処理手段には、夜間や悪天候下でも高精度な画像解析を行うための赤外線カメラや熱感知技術を組み込むことが可能である。これにより、無人航空機は昼夜を問わず、あらゆる環境下での映像データの収集と解析を行うことができる。加えて、映像処理手段は、動的なシーンにおける物体追跡アルゴリズムを用いて動く対象の追跡も行えるようにすることができる。この機能により、無人航空機は移動する物体を継続的に監視し、重要な情報を提供することができる。
制御手段には、ユーザの指示に基づいて無人航空機の群れをコントロールするスウォームインテリジェンス機能を追加することができる。これにより、複数の無人航空機が形成する群れは、複雑な環境での集団飛行や任務遂行をより効果的に行うことができる。また、制御手段には、リアルタイムの交通情報や天候変化に応じた動的な飛行経路再計算機能を搭載することができる。これにより、無人航空機は途中で情報が更新された場合でも迅速に対応し、任務遂行の効率を向上させることができる。
映像処理手段の一部として、無人航空機が収集する映像データをリアルタイムでクラウドサービスにアップロードし、広範囲のデータ分析や共有を行う機能を含めることができる。これにより、無人航空機が捉えた映像データは、迅速な意思決定や情報共有のために広い範囲のユーザーと共有される。また、映像処理手段は、災害発生時における被害状況の詳細なマッピング機能を持つことができる。これにより、無人航空機は災害発生直後の状況を詳しく把握し、救助隊や復旧作業において重要な情報を提供することができる。
センサーを含まないデータ収集の例として、ユーザが無人航空機を通じて取得した映像データを、AI支援の自動分析機能によってソーシャルメディアやニュースサイトに自動投稿することもできる。これにより、社会的な出来事や珍しい自然現象を広く公開し、関心を集めたり、意識を高めたりすることができる。また、ユーザーのプライバシー保護のためのデータ匿名化機能を含むことで、無人航空機が収集した映像データを安全に共有することができる。
制御装置に搭載された生成AIには、無人航空機が撮影した映像をリアルタイムで解析し、災害時の損傷状況や生存者の位置を特定する機能を追加することができる。これにより、救助活動の迅速化と効率化に貢献する。さらに、無人航空機の映像データを活用した3Dマッピング技術を統合し、被災地の立体的な地図を作成し、より詳細な状況把握を実現する。
映像処理手段には、昼夜や天候の変化に左右されない高感度センサーと映像強調技術を導入し、無人航空機が低照度環境でも鮮明な映像を撮影できる機能を備える。また、映像データの中から特定のパターンやシンボルを認識し、例えば救援要請のサインや特定の障害物を検出する機能を持つこともできる。
制御手段は、無人航空機が集団で飛行する際のフォーメーションやタイミングを自動調整する機能を持つ。これにより、複数の無人航空機が協力して広範囲をカバーし、効率的にデータ収集を行うことができる。さらに、無人航空機が予期せぬ障害物に遭遇した際に迅速に避けるための、環境認識に基づく自律回避機能を搭載することができる。
映像処理手段には、映像データ内での動きを検出し、それに応じて無人航空機のカメラを自動で追尾する機能を含むことができる。これにより、動的なシーンや追跡が必要な対象を途切れることなく監視し続けることが可能となる。
制御手段には、無人航空機のエネルギー消費を最適化するアルゴリズムを搭載し、任務時間の延長や運用コストの削減に貢献する。また、無人航空機の飛行経路をリアルタイムで最適化することにより、急な状況変化にも柔軟に対応する。
映像処理手段の拡張として、無人航空機が収集した映像データを多角的に解析し、例えば農業分野での作物の健康状態評価や、環境監視における生態系の変化検出など、異なる分野での応用が可能となる機能を備える。
制御装置には、ユーザとのインタラクティブなコミュニケーションを実現するための、自然言語理解能力をさらに向上させる機能を追加することができる。これにより、ユーザが直感的に無人航空機を操作できるようになり、幅広いユーザーが無人航空機を活用できるようになる。
映像処理手段には、ライブ映像にリアルタイムでテキストやアノテーションを挿入することで、映像の内容をよりわかりやすく伝える機能を追加することができる。これにより、例えば災害時の救助情報を現場の救助隊員や指揮官に即座に提供することが可能となる。
制御手段には、無人航空機の自己修復機能や、定期的なメンテナンスリマインダーを提供する機能を組み込むことができる。これにより、無人航空機の稼働率と信頼性が高まり、長期間にわたる安定した運用が実現する。
これらの追加機能により、無人航空機を活用した監視や災害対応、情報収集の能力が飛躍的に向上し、多様な状況に対応できる柔軟なシステムを構築することができる。
(形態例4)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、距離計測手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の距離を計測する。距離計測手段は、超音波センサーやレーザー距離計などを利用して無人航空機と障害物との距離を測定する手段である。制御装置は、計測された距離情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
距離計測手段は、無人航空機に搭載された超音波センサーやレーザー距離計などを利用して無人航空機と障害物との距離を測定する手段であり、データ処理装置12とは異なる装置で実現される。制御手段は、データ処理装置12の特定処理部290によって実現され、計測された距離情報を基に、指示に従って無人航空機を制御する。また、制御手段は、ヘッドセット型端末314の制御部46Aによって実現されてもよい。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置に内蔵された生成AIは、自然言語解析手段を利用して人間の指示を理解する機能を持ち、この機能によって無人航空機の操作に必要なコマンドを生成する。また、制御装置に搭載された生成AIは、音声からテキストへの変換機能を有する音声認識手段と、文の意味を解釈するための文法解析手段及び意味解析手段を組み合わせることで、ユーザの指示を理解し、無人航空機の操作に必要なコマンドを生成することができる。生成されたコマンドは、飛行経路の計画や無人航空機の操縦動作に対する具体的な指示を含み、これらは無人航空機の制御アルゴリズムによって実行される。また、生成されたコマンドは、無人航空機の飛行経路や動作に関する詳細な指示を包含し、制御アルゴリズム手段によって実行されることができる。
距離計測手段としての超音波センサーは、無人航空機の前面や側面に設置され、周囲の障害物からの反射音波を検出することで距離を測定する。このセンサーは、環境に適応するためのエコーキャンセレーション機能や、干渉波を除去するフィルタリング機能を備えており、正確な距離情報を提供する。また、超音波センサーは、エコーロケーション機能を利用して周囲の障害物からの反射波を検出し、距離情報を取得することができる。このセンサーは、干渉音波除去機能やエコーキャンセレーション機能により、環境ノイズに影響されずに正確な距離情報を提供することができる。一方、レーザー距離計は、高精度な距離測定が可能であり、特に長距離の計測や微妙な障害物の検出に適している。レーザー距離計は、目標物にレーザー光を発射し、その反射光の時間差を利用して距離を計算する。また、レーザー距離計は、目標物に対するレーザー光線発射機能と反射光検出機能を有し、反射時間差計算機能によって距離を測定することができる。レーザー距離計は、精密な距離測定を可能にし、特に長距離や微細な障害物の検出に適していることができる。
制御手段は、距離計測手段からの情報を基に無人航空機の動作を調節する機能を持ち、この機能は無人航空機の飛行制御アルゴリズムによって実現される。飛行制御アルゴリズムは、PID制御やフィードフォワード制御などの制御理論に基づいて設計され、無人航空機が安定した飛行を維持しながら指示された動作を正確に実行できるようにする。制御手段は、無人航空機の姿勢や速度をリアルタイムで調節し、障害物を回避しながら目的地に到達する経路を最適化する。また、制御手段は、距離計測手段から提供される情報を利用して、無人航空機の姿勢や速度を調節し、障害物を回避する経路制御機能を有することができる。飛行制御アルゴリズム手段は、PID制御機能やフィードフォワード制御機能を活用し、無人航空機が指示に従って安定かつ正確に飛行するための動作調整を行うことができる。
センサーを含まない距離計測の例としては、GPSを用いた位置測定手段がある。無人航空機に搭載されたGPS受信機は、衛星から送信される信号を受け取り、その情報を基に無人航空機の現在位置を算出する。位置測定手段は、無人航空機が飛行する環境の広域的な位置情報を提供し、より大規模な飛行計画の立案に利用される。また、無人航空機間の相対的な位置関係を把握するために、複数の無人航空機がそれぞれのGPS情報を共有し、全体としての飛行隊形を調整する手段としても機能する。さらに、GPSによる位置測定手段は、衛星信号受信機能を備えたGPS受信機を介して、無人航空機の現在地を決定することができる。位置情報計算機能は、受信した衛星信号から無人航空機の位置を算出し、広域的な飛行計画立案に寄与することができる。さらに、無人航空機間で位置情報を共有することにより、飛行隊形調整機能としても機能し、全体としての飛行コーディネーションを実現することができる。
制御装置にはさらに、障害物検出の精度を向上させるための画像処理手段が追加される。例えば、機械学習に基づく物体認識アルゴリズムを活用して、無人航空機が撮影した映像から障害物を自動で検出し、その大きさや形状を認識することができる。これにより、無人航空機はより複雑な環境でも安全に飛行する能力を有する。また、無人航空機が撮影した映像データをリアルタイムで解析し、動的な環境変化に応じた飛行経路の調整を行う能力を備える。さらに、制御装置には、無人航空機間の通信を調整する通信制御手段が搭載され、複数の無人航空機が情報を共有し、協調飛行を行うことが可能となる。この通信制御手段は、隊列飛行や特定の任務実行時の協調動作を最適化する機能を持つ。
制御装置のAIは、実際の飛行環境から学習を行う自己学習機能を持ち、新たな障害物や未知の状況に遭遇した際にも最適な飛行経路を自動で生成する。AIは、無人航空機の経験を蓄積し、過去のデータを参照しながら飛行パターンを改善していく。この学習プロセスは、無人航空機がより環境に適応し、より効果的な任務遂行が可能となる。また、制御装置は、複数の無人航空機が同時に活動する際の衝突回避アルゴリズムも搭載し、安全かつ効率的な群れの動きを実現する。
距離計測手段としてのセンサーには、夜間や悪天候下でも正確な距離測定を行うための赤外線センサーや熱画像カメラが追加される。これらは、従来の超音波センサーやレーザー距離計の限界を補い、無人航空機がさらに厳しい環境下での作業を可能とする。また、これらのセンサーは、障害物の種類や温度分布を検出し、それに応じた飛行経路の選択を行うための追加情報を提供する。
制御手段には、先進的な衝突回避システムが組み込まれる。このシステムは、リアルタイムでの環境認識と予測モデリングを組み合わせ、無人航空機が予期せぬ障害物に迅速かつ効果的に反応できるようにする。無人航空機は、衝突回避システムによって自動的に飛行経路を変更し、安全を確保しながら任務を継続する。さらに、制御手段は無人航空機のエネルギー管理を最適化し、飛行時間の延長や任務効率の向上を図る機能も備える。
制御装置に搭載された生成AIは、複数の無人航空機を同時に監視し、それぞれの航空機の動作を調整することにより、群れのような協調動作を可能にする機能を持つ。無人航空機同士が情報を共有し、周囲の環境や他の航空機の位置を認識し合いながら、効率的かつ安全に任務を遂行する。この協調動作は、特に複雑な地形や障害物の多い環境で有効であり、捜索救助活動や災害時の状況把握などに応用できる。
また、無人航空機に搭載される距離計測手段には、障害物との衝突リスクを低減させるための新たなセンサーフュージョン技術を採用する。異なる種類のセンサーから得られる情報を統合し、より正確かつ信頼性の高い環境認識を実現する。例えば、超音波センサーの距離情報とレーザー距離計の精密な測定結果を組み合わせることで、無人航空機は障害物をより緻密に認識し、その周囲を安全に飛行する。
制御装置は、無人航空機の飛行データをクラウドにアップロードし、それを基にした大規模なデータ解析を行うこともできる。これにより、無人航空機の飛行効率を向上させる新しい飛行パターンの発見や、将来の飛行計画の改善に役立つ洞察を得ることが可能になる。さらに、クラウドベースのシミュレーションを利用して、仮想環境で無人航空機の飛行テストを行い、実際に飛行する前に様々なシナリオでの対応を学習させることもできる。
制御装置には、ユーザーが直感的に操作できるインタフェースも備えられる。タッチスクリーンディスプレイやジェスチャー認識技術を用いて、ユーザーは簡単な動作で無人航空機の飛行を指示できる。加えて、バーチャルリアリティ(VR)や拡張現実(AR)技術を組み合わせることで、ユーザーはより直感的に無人航空機の飛行を監視し、制御する体験を得ることができる。
さらに、無人航空機は、機械学習に基づく予測メンテナンス機能を備えることで、機体の故障リスクを事前に特定し、予防的な保守を行う。これにより、無人航空機の稼働率を高め、長期にわたる信頼性の維持に寄与する。
最後に、無人航空機の利用範囲を拡大するために、水中や地下での使用が可能な防水・防塵機能を持つモデルの開発も検討される。これにより、海洋調査や地下資源の探査など、従来の無人航空機では困難だった分野への応用が可能になる。
【0073】
以下に、各形態例の処理の流れについて説明する。
【0074】
(形態例1)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、動作プログラムを生成する。
ステップ3:生成された動作プログラムを無人航空機に送信し、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例2)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の位置情報を取得する。
ステップ3:取得した位置情報を基に、制御装置は無人航空機を制御する。
(形態例3)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の映像を処理する。
ステップ3:映像処理手段を利用して、制御装置は無人航空機の映像を解析する。
ステップ4:解析された映像情報を基に、制御装置は無人航空機を制御する。
(形態例4)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機と障害物との距離を計測する。
ステップ3:距離計測手段を利用して、制御装置は無人航空機と障害物との距離を測定する。
ステップ4:計測された距離情報を基に、制御装置は無人航空機を制御する。
【0075】
なお、更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。
【0076】
(形態例1)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが喜んでいる場合には、無人航空機の飛行速度を上げたり、カメラの視点を広範囲に設定したりする。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。認識手段は、ヘッドセット型端末314のマイクロフォン238を用いてユーザの音声を捕捉し、感情エンジンによってユーザの感情を認識する。反映手段は、ヘッドセット型端末314の制御部46Aによって実現され、ユーザの感情に応じて無人航空機の飛行速度を上げたり、カメラの視点を広範囲に設定したりする。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置には、自然言語理解(NLU)技術を用いた解析手段が含まれ、これによりユーザが与えた指示を意図に沿って解釈する。この解析手段は、ユーザの発話をトークン化し、品詞タグ付けと構文解析を行う。また、解析手段は、発話内容をトークン化するトークン化手段と、品詞を識別する品詞タグ付け手段、文の構造を解析する構文解析手段を組み合わせて機能し、ユーザの命令に応じた動作プログラムを生成するプログラム生成手段を備える。さらに、意図認識手段によって発話の目的を特定し、適切な動作プログラムを生成するための情報を抽出する。動作プログラム生成手段は、解析された指示に基づき、無人航空機の飛行経路、速度、カメラ操作といった具体的な動作命令を生成する。また、動作プログラム生成手段は、無人航空機の飛行経路やカメラ操作などを制御するための指示を形成し、無人航空機が任務を遂行するために必要なパラメータを設定する。
感情認識手段には、音声分析や表情解析技術を用いてユーザの感情状態を把握する機能が含まれる。音声分析手段は、話し声のトーンやピッチの変化から感情を読み取る。また、音声分析手段は、話し声から感情を推定する。表情解析手段は、カメラによって捉えられたユーザの顔の表情から、喜びや悲しみなどの感情を識別する。また、表情解析手段は、視覚情報をもとに感情を識別する。これらの手段は、機械学習モデルを用いて訓練され、高い精度で感情を認識する。感情反映手段は、認識された感情に応じて無人航空機の飛行パターンやカメラ設定を調整する。たとえば、ユーザが喜びを示している場合、無人航空機はよりダイナミックな飛行パターンをとり、カメラの視野角を広げて景色を広範囲に捉えるようになる。また、感情反映手段は、認識された感情に基づいて無人航空機の挙動を変更し、例えば、喜びを感じているユーザに対して飛行速度を上げることで応答する。
無人航空機の飛行制御手段は、無人航空機の機種ごとの操縦特性を理解し、それに基づいて最適な飛行経路を計算する。また、無人航空機は、それぞれの機体特性を理解し、最適な飛行経路を算出する飛行制御手段を備えている。障害物回避手段は、センサーによって得られる周辺環境の情報を解析し、安全な飛行経路をリアルタイムでプランニングする。また、障害物を検出し、それを回避するための経路を計算する障害物回避手段も搭載している。この障害物回避手段は、機械学習に基づく予測モデルとセンサーフュージョン技術を組み合わせて、環境変化に柔軟に対応する。カメラ制御手段は、ユーザの指示や感情状態に基づいて、カメラのパン、チルト、ズーム操作を自動的に行う。これにより、ユーザが求める画像や映像の撮影が可能となる。また、カメラ制御手段は、ユーザの指示に基づいて無人航空機のカメラを遠隔操作し、所望の映像を撮影する。
システムの全体構成は、モジュラー設計が採用されており、無人航空機の種類や運用環境に合わせて柔軟にカスタマイズ可能である。また、システムは、モジュールごとに独立した機能を有し、無人航空機の種類や運用環境に合わせてカスタマイズできるように設計されており、クラウドベースのインフラによりデータの集中管理や制御ロジックのリモート更新が可能である。これにより、システムの拡張性や適応性が向上し、ユーザのニーズに応じたサービスの提供が実現される。また、システムはクラウドベースのアーキテクチャを採用し、データの処理や無人航空機の制御ロジックの更新をリモートで行うことができる。これにより、システムのメンテナンスやアップグレードが容易になるとともに、最新の技術を迅速に導入することが可能となる。さらに、センサーを含まないデータ収集手段として、ユーザが直接入力した指示や感情表出をシステムに登録する方法があり、これにより無人航空機の動作やカメラ制御のカスタマイズが行われる。
本発明における生成AI搭載の制御装置は、ユーザの指示をより深く理解し、無人航空機の動作プログラムを洗練させるために、コンテキスト認識機能を追加することができる。これにより、ユーザが与えた指示が特定の状況や環境に応じて最適化され、例えば、屋外の気象条件や周囲の騒音レベルに基づいて無人航空機の飛行パターンを調整する。また、センサーデータを活用したリアルタイム環境認識機能により、無人航空機が自動で天候変化に適応し、安全な飛行を維持する動作プログラムを生成する。
感情エンジンに関しては、ユーザの生理的信号を解析する生体センサーの統合により、心拍数や皮膚電気活動などから感情状態をより正確に読み取ることが可能となる。これにより、ユーザがストレスを感じている場合には、無人航空機は穏やかな飛行を行い、カメラは静かな風景を捉えるように調整される。さらに、ユーザの感情変化に応じて無人航空機が音楽を流すなどのエンターテインメント機能を提供することもできる。
無人航空機には、グループ飛行機能を追加し、複数の無人航空機が連携して複雑な飛行形態や撮影を実現する。この機能により、例えば、一台の無人航空機が主体的に被写体を追跡しながら、他の無人航空機が異なる角度から補助的な映像を撮影し、多角度からの映像を生成する。
カメラ制御手段では、拡張現実(AR)や仮想現実(VR)技術を組み込むことにより、撮影された映像にリアルタイムでデジタル情報を重ね合わせ、ユーザに対して没入感のある視覚体験を提供することが可能となる。例えば、無人航空機からの映像に地図情報や注釈を追加し、観光案内や教育用のコンテンツとして活用する。
また、制御装置には、ユーザが前もって無人航空機の挙動をプログラミングし、特定のイベントや条件が満たされた際に自動で実行されるトリガー機能を追加することができる。これにより、例えば、ユーザが特定の感情を示したときに特定の飛行パターンがトリガーされるようなシナリオを設定できる。
システム全体としては、各モジュールの交換やアップグレードが容易に行えるようなデザインとし、ユーザからのフィードバックをシステムに反映させるための機構を設ける。これにより、システムはユーザの使用状況や要望に応じて進化し続け、長期にわたって価値を提供し続けることができる。また、無人航空機の故障や損傷時には、自己診断機能によって問題を特定し、ユーザやメンテナンス担当者に通知することもできる。このように、本発明は、無人航空機を活用したユーザ中心のインタラクティブなエクスペリエンスを提供し、様々な応用分野での利用が期待される。
制御装置には、ユーザの感情に反応して無人航空機が特定の照明効果を発生させる機能を追加することができる。たとえば、ユーザが興奮状態にあるときは、無人航空機が鮮やかな色のLEDライトを使用して空中で光のショーを展開する。また、無人航空機がユーザの周囲を飛行しながら、状況に応じた香りを放出する機能を組み込むことで、五感を刺激する体験を提供する。
感情エンジンは、ユーザの感情認識の精度を向上させるために、ソーシャルメディアの投稿や日常の行動パターンから得られるデータを分析することで、感情の予測モデルを構築する。これにより、無人航空機はユーザの感情の変化を事前に予測し、よりタイムリーに対応する。
無人航空機の飛行制御手段には、環境音を分析して周囲の状況を把握する機能を追加し、騒音が多い場所では飛行高度を自動調整して騒音の影響を低減させる。また、夜間飛行時には無人航空機が周囲の明るさを認識して適切な照明を提供する機能も備える。
カメラ制御手段は、撮影された映像に対してリアルタイムでエフェクトやフィルターを適用する機能を搭載し、美しい映像作りをサポートする。さらに、無人航空機が撮影した映像をユーザのソーシャルメディアアカウントに自動投稿する機能も追加する。
システム全体では、ユーザのプライバシーを考慮し、感情データや行動データの収集と使用に関するプライバシーポリシーを設定し、ユーザが容易にコントロールできるようにする。また、無人航空機同士の通信を暗号化し、セキュリティを強化することで、ユーザのデータ保護を徹底する。
無人航空機は、ユーザが緊急時に迅速に対応できるよう、SOS信号の送信や近隣の救助機関への連絡を行う機能を備える。また、災害時の捜索救助活動において、無人航空機が生存者の位置を特定し、救助隊に情報を提供することも可能となる。
これらの機能により、本発明の無人航空機システムは、エンターテインメント、日常のコンパニオン、緊急時の支援として幅広い場面での利便性と安全性を提供し、ユーザの生活を豊かにすることが期待される。
(形態例2)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが怒っている場合には、無人航空機の飛行速度を抑えたり、カメラの視点を安定させたりする。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。認識手段は、ヘッドセット型端末314のマイクロフォン238を用いてユーザの音声を捕捉し、感情エンジンによってユーザの感情を認識する。反映手段は、ヘッドセット型端末314の制御部46Aによって実現され、ユーザの感情に応じて無人航空機の飛行速度を抑えたり、カメラの視点を安定させたりする。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置に搭載された生成手段は、ユーザからの自然言語による指示を受け取る受信手段を含み、この受信手段は、音声認識技術を用いてユーザの発話からテキスト情報を抽出する。受け取ったテキスト情報は、自然言語処理技術によって解析され、指示の意図や内容を理解するための解析手段を有する。解析結果に基づいて、AIは無人航空機の動作プログラムを生成する生成手段を備えており、この生成手段には、機械学習アルゴリズムやルールベースのアルゴリズムが組み込まれている。また、制御装置に組み込まれた生成AIは、ユーザが発する自然言語のコマンドをテキストに変換する音声認識手段を有しており、この音声認識手段は、ユーザの発話をテキストデータに変換するための音声解析アルゴリズムを利用する。その後、テキスト化された指示は、意図解析手段によって内容が精査され、無人航空機の動作プログラムを生成するためのAIアルゴリズムによって処理される。このAIアルゴリズムは、条件分岐機能やパラメータ調整機能を有し、ユーザの指示に基づいて無人航空機の飛行経路や行動パターンを決定する。
感情認識手段は、ユーザの声のトーン、表情、身体言語などを解析するためのセンサーやカメラを含み、これらから得られるデータを用いてユーザの感情状態を判定する。この判定は、音声解析技術によって声の高さや強さ、話速などから感情を推定する手段や、顔認識技術を用いてユーザの表情から感情を読み取る手段を通じて行われる。感情エンジンは、ユーザの感情状態を識別するための複合センシング手段を備えており、この複合センシング手段は、音声センサーと視覚センサーからの情報を統合して処理する。音声センサーは、感情分析アルゴリズムを用いてユーザの声のトーンや発話のリズムから感情を推定する。視覚センサーは、顔認識技術を活用して表情の変化を検出し、感情状態を分析する。これらのセンサーによって得られた感情データは、無人航空機の操作に影響を与えるための感情反映アルゴリズムによって処理される。
無人航空機の動作プログラムは、例えば、飛行計画を立てるための航行経路算出手段や、障害物を回避するためのセンサーデータ処理手段を含む。航行経路算出手段は、GPSデータや地図情報を利用して最適な飛行ルートを計算する。また、無人航空機の飛行プログラムには、航行経路算出手段が含まれ、これは地理情報システム(GIS)データや気象情報を参照して、飛行ルートを計画する。センサーデータ処理手段は、ライダーや超音波センサーなどから得られた情報を処理し、周囲の障害物を検出して回避する動作を無人航空機に指示する。また、障害物回避手段として、無人航空機に搭載されたセンサーアレイからのデータを分析し、周囲の環境を把握することで衝突リスクを回避する。
通信手段は、制御装置と無人航空機間のデータ転送と指令の伝達を担い、リアルタイムでの飛行制御を可能にする。また、飛行中の無人航空機は、通信手段を介して常に制御装置とデータをやり取りし、リアルタイムで状況に応じた動作の調整が行われる。
システムは、ユーザインターフェースにおいても工夫が凝らされており、ユーザが簡単に無人航空機を指令できるように、直感的なデザインが採用されている。操作性を高めるために、タッチスクリーン入力手段やジェスチャー認識手段などが組み込まれている場合もある。
センサーフリーなデータ収集手段としては、ユーザが直接操作するインタラクティブ入力手段が用意されており、感情や動作の設定を手動でシステムに伝えることができる。また、センサーを含まないデータ収集の例としては、ユーザが手動で入力した感情状態や状況に基づくデータが挙げられる。この場合、ユーザはアプリケーションやウェブインターフェースを通じて、自身の感情や望む無人航空機の動作を直接指定する。これにより、無人航空機はユーザの手動入力に基づいて動作するプログラムを実行する。
各手段の実装には、マイクロプロセッサやメモリ、通信インターフェースなどのハードウェアコンポーネントが利用され、これらはシステム全体の効率的な動作を支える。
本発明のシステムには、ユーザーの感情や意図に基づいて無人航空機を操作するためのさらなる機能を追加することができる。例えば、制御装置に組み込まれた生成AIは、ユーザーの過去の指示や反応パターンを学習し、より個人化された応答や動作プログラムを生成することが可能となる。この学習機能により、システムはユーザーの振る舞いや好みを予測し、それに応じた無人航空機の動作を自動的に調整することができる。
また、無人航空機には、環境音を識別し、その情報をユーザーの感情状態の推定に活用する音響センシング機能を付加することができる。これにより、システムは周囲の騒音や音楽、動物の鳴き声などを分析し、ユーザーが置かれている環境の雰囲気をより詳細に把握することが可能となる。
感情エンジンには、ユーザーの生体信号を追跡するためのウェアラブルデバイスとの連携機能を追加することもできる。心拍数、皮膚の電気活動、体温などの生体情報を収集し、これらのデータを感情の推定に組み込むことで、ユーザーの感情状態をより正確に識別することが可能となる。
無人航空機の飛行プログラムには、緊急時の自動帰還機能や、ユーザーの安全を確保するための回避操縦機能を組み込むこともできる。これにより、予期せぬ障害物や気象条件の変化に対して、無人航空機は自律的に安全な行動を取ることができる。
さらに、無人航空機には、ユーザーとのインタラクティブなコミュニケーションを実現するための表情認識やジェスチャー解析機能を付加することができる。これにより、ユーザーが無人航空機に向けて行う身振りや表情を認識し、それに応じた動作を行うことが可能となる。
通信手段には、低遅延で高帯域の通信プロトコルを利用し、制御装置と無人航空機間のデータ転送をより迅速かつ安定に行うことができる。この高度な通信技術により、システムはリアルタイムでの情報交換を行い、遅延のない精密な飛行制御を実現することが可能となる。
このような機能の追加により、本発明のシステムはユーザーの感情や意図をより深く理解し、無人航空機を用いてより高度で柔軟なサービスを提供することが可能となる。ユーザーとシステムの相互作用は、より直感的でリッチな経験をもたらし、ユーザーが求めるタスクをより効率的かつ安全に遂行することを助ける。
制御装置に搭載された生成AIには、ユーザーの指示に対する応答速度を向上させるための予測機能が追加されることができる。この機能は、ユーザーの指示パターンや習慣を分析して、次に発せられるであろうコマンドを予測し、無人航空機が即座に対応できるようにする。無人航空機はユーザーの意図を先読みして動作を開始することで、反応時間を短縮し、より流動的な操作を実現する。
無人航空機の飛行プログラムには、複数の無人航空機が協調して動作するためのスウォームインテリジェンス機能が組み込まれることもできる。この機能により、無人航空機は群れを成して効率的にエリアをカバーし、ユーザーの指示に基づいた複雑なタスクも分担して行うことができる。
感情エンジンについては、ユーザーの感情に応じて無人航空機の照明や音を制御する機能を追加することができる。例えば、ユーザーがリラックスしている際には、無人航空機から柔らかい照明や穏やかな音楽を再生することで、周囲の雰囲気をより心地よいものにする。
また、無人航空機には、ユーザーの指示を視覚的に伝えるためのプロジェクションマッピング機能を搭載することができる。これにより、無人航空機は地面や壁面に情報を投影し、ユーザーに対して直感的なフィードバックを提供する。
通信手段には、人工衛星通信を活用したグローバルな通信ネットワークとの連携機能が追加されることもできる。これにより、無人航空機は地球上のどこにいても制御装置からの指令を受け取り、広範囲にわたるタスクに対応できる。
無人航空機のセンサーアレイには、環境モニタリング機能が追加され、大気汚染や温室効果ガスの濃度を測定し、リアルタイムでデータを制御装置に送信することができる。これにより、システムは環境監視の一環としても活用される。
これらの追加機能により、本発明のシステムはユーザーの感情や意図を反映した無人航空機の操作をさらに高度に行い、多種多様な応用シナリオに適応する。ユーザーは、より快適で満足のいく経験を得ることができ、システムの使い勝手も大幅に向上する。
(形態例3)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが驚いている場合には、無人航空機の飛行ルートを変更したり、カメラの視点を特定の対象に向けたりする。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。認識手段は、ヘッドセット型端末314のマイクロフォン238を用いてユーザの音声を捕捉し、感情エンジンによってユーザの感情を認識する。反映手段は、ヘッドセット型端末314の制御部46Aによって実現され、ユーザの感情に応じて無人航空機の飛行ルートを変更したり、カメラの視点を特定の対象に向けたりする。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
生成手段は、自然言語処理(NLP)技術を用いて、ユーザからの指示を解析する解析手段と、解析された指示に基づいて無人航空機の動作プログラムを作成するプログラム生成手段とを含む。また、生成手段は、ユーザの自然言語指示を解析し、無人航空機の動作プログラムを生成する機能が実現される機能を備える。また、生成手段は、データ処理装置やスマートデバイスにモジュール化されたソフトウェアコンポーネントとして統合されており、必要に応じてクラウドベースのサービスとしても提供される。解析手段は、音声認識技術によりユーザの発声をテキスト化し、意図解析機能により指示の目的や内容を把握する。また、解析手段は、ユーザの音声指示をテキストに変換し、その内容を理解するために音声認識技術と意図解析機能を利用する。プログラム生成手段は、解析されたユーザの指示に応じて、無人航空機の飛行経路、速度、高度、カメラ操作などの動作プログラムを自動生成する。また、プログラム生成手段は、解析された指示内容に基づいて、無人航空機の飛行経路やカメラ操作などの具体的な動作プログラムを自動的に作成する。このプロセスでは、無人航空機が安全に操作されるように、飛行安全規制や物理的な制約を考慮したアルゴリズムが用いられる。また、この生成過程では、無人航空機の安全な運用を確保するために、飛行安全規制を遵守し、物理的な制約を考慮したアルゴリズムが適用される。
認識手段は、ユーザの表情、声のトーン、言葉の選択などから感情を推定する感情分析機能を含む。また、感情エンジンにおいては、ユーザの感情をリアルタイムで捉えるための認識手段が備わっている。この機能は、機械学習により訓練された感情認識モデルを使用し、リアルタイムでユーザの感情状態を推定する。感情認識モデルは、大量の表情画像や音声データを分析し、特定の感情パターンを識別するために訓練されている。この認識手段は、ユーザの表情や声のトーン、言葉の選択から感情を推定する感情分析機能を有し、機械学習に基づく感情認識モデルを使用して、ユーザの感情状態を瞬時に推定する。このモデルは、豊富な表情画像や音声データを分析することで、様々な感情パターンを識別できるよう訓練されている。
反映手段は、認識されたユーザの感情に応じて無人航空機の操作を変更する操作変更機能を含む。例えば、ユーザが驚きの感情を示した場合、無人航空機の飛行経路を即座に変更することで、ユーザの関心がある対象にカメラを向けるなど、感情に応じた対応を行う。この機能は、無人航空機の動作プログラムをリアルタイムで調整し、ユーザの体験を向上させるためのものである。また、ユーザの感情が認識されると、反映手段がその感情を無人航空機の操作に反映させる。操作変更機能は、ユーザの感情に応じて、無人航空機の飛行経路の変更やカメラの視点調整など、感情に沿った対応を行う。この機能により、ユーザの体験が向上し、無人航空機の操作がよりダイナミックで魅力的なものになる。また、入力された感情データは、反映手段によって無人航空機の動作プログラムに反映される。この場合、感情認識にセンサー技術は必要なく、ユーザ主導の情報提供に基づいてシステムが動作する。また、ユーザが直接自らの感情状態を入力することで情報を提供する場合、これはセンサーによる感情認識を必要とせず、インターフェースを通じた手動入力によって行われる。入力された感情データは、ユーザ主導でシステムに提供され、無人航空機の動作プログラムに反映されることで、ユーザの意向に合わせた操作が可能になる。
本形態例のシステムには、さらなる機能拡張が可能である。無人航空機の群れを動的に制御し、複雑な空中ショーを実現する機能を追加することができる。これにより、イベントやエンターテインメント分野での利用が期待される。また、感情エンジンは、ユーザのストレスレベルを測定し、リラクゼーションを促進するために特定の飛行パターンや映像を提供する機能も備えている。ユーザがリラックスするための音楽や映像を同時に再生し、感情に基づいた全身のリラクゼーション体験を提供する。
さらに、制御装置には、ユーザの行動や環境変化を予測し、無人航空機の行動を先読みする予測手段も組み込むことができる。予測手段は、過去の飛行データや環境センサーからの情報を活用し、将来の飛行パターンを最適化する。これにより、無人航空機は状況に応じて自動的に飛行ルートを変更し、効率的な飛行を実現する。また、環境変化に応じた飛行ルートの自動調整機能を持つことで、突発的な気象変動や障害物の出現にも迅速に対応する。
制御装置と無人航空機の間の通信手段には、セキュリティ強化のために暗号化技術を採用する。これにより、外部からの不正アクセスを防ぎ、安全な通信を保証する。感情エンジンに関しては、ユーザの感情データを匿名化し、プライバシー保護を重視したデータ処理を行う。匿名化された感情データは、研究目的での利用や、より高度な感情認識モデルの開発に役立てられる。
無人航空機には、周囲の環境を3Dマッピングするセンサーを搭載し、リアルタイムでの環境認識能力を高める。3Dマッピングデータは、制御装置に送信され、飛行安全のための情報として活用される。また、このデータは、緊急時の救助活動や災害時の状況把握にも寄与する。
生成手段は、ユーザからのフィードバックを学習することで、無人航空機の動作プログラムを進化させる。この学習機能は、無人航空機のパフォーマンスを向上させ、より洗練された操作が可能となる。フィードバックに基づく学習機能は、ユーザの好みやニーズに合わせたカスタマイズを実現する。
最終的に、システムは、ユーザインタフェースの改善を図ることで、より直感的で使いやすい操作体験を提供する。インタフェースは、ユーザの操作履歴や好みに基づいて自動的に最適化され、無人航空機の操作を簡単にするためのガイドを提供する。これにより、あらゆる年齢層のユーザが、無人航空機をより快適に利用できるようになる。
無人航空機を用いたシステムには、さらに感情エンジンの能力を高める機能を追加することができる。例えば、ユーザの生体信号をリアルタイムで計測するセンサーを組み込み、心拍数や皮膚の電気抵抗などから感情の変化をより正確に把握することが可能となる。また、無人航空機のカメラがユーザの表情を撮影し、その映像データを感情エンジンが分析することで、ユーザの感情認識の精度を向上させることもできる。
制御装置の生成手段に関しては、複数のユーザからの指示を同時に処理し、それぞれの無人航空機に適切な動作プログラムを割り当てるマルチタスク処理機能を追加することができる。これにより、一つのイベントで複数のユーザが異なる要望を持つ場合でも、個々の要望に応じた無人航空機の操作が可能となる。さらに、無人航空機が持つセンサーからのデータを活用して、環境の変化を検知し、自動的に飛行プログラムを調整する環境適応機能を実装することも考えられる。これにより、無人航空機はより自律的に適切な行動を取ることができ、例えば、人が多く集まるイベントでは人を避ける動作や、特定の風景を撮影するために最適な角度を選択する動作が可能となる。
通信手段に関しては、無人航空機同士が情報を共有するネットワークを構築し、群れとしてのインテリジェントな動きを実現することが可能である。無人航空機がお互いの位置や状態をリアルタイムで把握し合い、協調して複数のタスクを効率的に遂行することができる。また、ユーザの指示に応じて無人航空機が形成するフォーメーションを柔軟に変更することで、ビジュアルアートや広告などの新しい用途が期待される。
感情エンジンには、ユーザの感情に応じた音楽や照明の自動調整機能を追加することもできる。ユーザが喜びを感じている際には明るく活動的な音楽と照明を、落ち着きを求めている際には穏やかな音楽と照明を提供することで、無人航空機を介した感情に応じた体験を強化する。さらに、無人航空機がユーザの健康やウェルネスをサポートするためのヘルスモニタリング機能を追加し、定期的な健康状態のチェックやリラクゼーションのためのアクティビティを提供することも考えられる。
これらの拡張により、無人航空機を利用したシステムは、エンターテインメントだけでなく、健康管理や個人のウェルネスの向上、緊急時の対応など、多岐にわたる分野での活用が期待される。また、ユーザインターフェースの改善により、より多くの人々が直感的に無人航空機を操作できるようになり、その利便性が広く認識されることとなる。
【0077】
以下に、各形態例の処理の流れについて説明する。
【0078】
(形態例1)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例2)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例3)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。例えば、ユーザが喜んでいる場合には、無人航空機はよりアグレッシブな動きをする。逆に、ユーザが怒っている場合には、無人航空機はより慎重な動きをする。
【0079】
特定処理部290は、特定処理の結果をヘッドセット型端末314に送信する。ヘッドセット型端末314では、制御部46Aが、スピーカ240及びディスプレイ343に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
【0080】
データ生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。特定処理部290は、データ生成モデル58を用いながら、上述した特定処理を行う。
【0081】
上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、ヘッドセット型端末314によって特定処理が行われるようにしてもよい。
[第4実施形態]
【0082】
図7には、第4実施形態に係るデータ処理システム410の構成の一例が示されている。
【0083】
図7に示すように、データ処理システム410は、データ処理装置12及びロボット414を備えている。データ処理装置12の一例としては、サーバが挙げられる。
【0084】
データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。
【0085】
ロボット414は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、通信I/F44、及び制御対象443を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、カメラ42、及び制御対象443も、バス52に接続されている。
【0086】
マイクロフォン238は、ユーザが発する音声を受け付けることで、ユーザから指示等を受け付ける。マイクロフォン238は、ユーザが発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。
【0087】
カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラであり、ユーザの周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。
【0088】
通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44及び26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。
【0089】
制御対象443は、表示装置、目部のLED、並びに、腕、手及び足等を駆動するモータ等を含む。ロボット414の姿勢や仕草は、腕、手及び足等のモータを制御することにより制御される。ロボット414の感情の一部は、これらのモータを制御することにより表現できる。また、ロボット414の目部のLEDの発光状態を制御することによっても、ロボット414の表情を表現できる。
【0090】
図8には、データ処理装置12及びロボット414の要部機能の一例が示されている。図8に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。
【0091】
特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。
【0092】
ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。
【0093】
ロボット414では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。
【0094】
なお、データ処理装置12以外の他の装置がデータ生成モデル58を有してもよい。例えば、サーバ装置(例えば、ChatGPTサーバ)がデータ生成モデル58を有してもよい。この場合、データ処理装置12は、データ生成モデル58を有するサーバ装置と通信を行うことで、データ生成モデル58が用いられた処理結果(予測結果など)を得る。また、データ処理装置12は、サーバ装置であってもよいし、ユーザが保有する端末装置(例えば、携帯電話、ロボット、家電)であってもよい。次に、データ処理装置12の特定処理部290による特定処理について説明する。
【0095】
(形態例1)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、通信手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。無人航空機は、生成された動作プログラムに基づいて、指示に従って移動や回転などの操作を行う。通信手段は、制御装置と無人航空機の間で指示やデータの送受信を行うための手段である。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。通信手段は、データ処理装置12の通信I/F26とロボット414の通信I/F44を介して、制御装置と無人航空機の間で指示やデータの送受信を行うための手段として実現される。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
生成手段は、自然言語処理技術を活用して、ユーザからの指示を解析し、無人航空機の動作プログラムを生成する。また、生成手段は、人間の口頭またはテキスト入力による指示を音声認識手段とテキスト解析手段によってデジタルデータに変換し、その内容を解釈することもできる。この手段には、音声認識機能が含まれ、ユーザの口頭での指示をテキストデータに変換する。また、音声認識手段は、ユーザの音声指示を受け取り、音声データをテキスト化する機能を有する。テキスト解析手段が、指示の内容を理解し、意図を把握するために形態素解析や構文解析を行う。また、テキスト解析手段は、入力されたテキストの意味を理解するために形態素解析や構文解析を行う。意図解析手段が、指示の背後にある目的やタスクを特定し、動作プログラム生成手段が、解析された意図に基づいて具体的な動作プログラムを生成する。また、意図解析手段は、テキストに含まれる指示から具体的なタスクや目的を特定し、それに基づいて動作プログラム生成手段が動作プログラムを作成することもできる。動作プログラム生成手段は、確率論的なアルゴリズムや機械学習モデルを利用して、効率的で安全な無人航空機の動作計画を立案する。また、この動作プログラム生成手段は、無人航空機が遂行すべき動作シーケンスを定義し、それに必要なパラメータを算出することもできる。
無人航空機は、搭載された飛行制御手段を通じて、生成された動作プログラムに基づいた操作を自動で実行する。また、無人航空機には、飛行制御手段が内蔵されており、生成された動作プログラムに従って、自律的に飛行や回転などの操作を行うことができる。飛行制御手段は、センサーからのデータや、GPSによる位置情報を基に、無人航空機の姿勢や位置をリアルタイムで制御する。また、飛行制御手段は、姿勢制御機能、位置制御機能、速度制御機能を組み合わせて機能し、これらはセンサーデータやGPS情報に基づいて無人航空機の飛行状態を調整することもできる。障害物検知手段が周囲の環境を認識し、衝突回避手段が障害物を回避する経路を計算する。また、障害物検知手段は、レーダーやLiDARなどのセンサーを用いて周囲の障害物を検出し、衝突回避手段は検知された障害物を避けるための代替経路を計算し、安全に飛行することもできる。
通信手段は、無線通信技術を用いて、制御装置と無人航空機間のデータの送受信を可能にする。また、通信手段は、高度な無線通信技術を活用して制御装置と無人航空機間でのデータの送受信を行うこともできる。この手段には、信号のエンコードとデコードを行う符号化手段と、通信の信頼性を保つための誤り訂正手段が含まれる。符号化手段は、送信されるデータを効率的にエンコードし、受信側でデコードすることでデータの意味を回復する。誤り訂正手段は、通信過程で生じうるデータの誤りを検出し、修正することで通信の信頼性を保つ。通信手段は、低遅延で高い帯域幅を持つ通信プロトコルを採用し、動作プログラムや運用状況のデータを迅速に送受信する。また、通信プロトコルは、低遅延かつ高帯域を実現し、無人航空機の飛行状態やセンサーデータ、ビデオフィードをリアルタイムで送信するために最適化されていることもできる。制御装置は無人航空機の状態を常に把握し、必要に応じて追加の指示を出すことができる。また、無人航空機は、飛行中のセンサーデータやビデオフィードをリアルタイムで制御装置に送信し、モニタリングや分析を行う。また、無人航空機は、飛行中のデータを通信手段を通じて制御装置に送信し、オペレーターによるリアルタイムのモニタリングや、後の分析のためのデータ収集を可能にすることもできる。
無人航空機を活用した制御システムには、さまざまな追加機能を組み込むことが可能である。例えば、無人航空機には、環境モニタリング機能を追加し、空中からの精密な温度、湿度、大気圧の測定を行い、気象データを収集することができる。また、農業分野への応用として、土壌の水分や栄養状態を測定するセンサーを搭載し、精密農業をサポートする機能を提供することも有効である。
無人航空機には、救助活動をサポートする機能も追加できる。例えば、災害発生時には、建物の損壊状況や被災者の位置を把握し、救助隊に情報を提供する。また、サーマルカメラを搭載し、煙や火災の状況を検出し、消防活動の指揮や支援に役立てることができる。さらに、自律飛行能力を向上させるため、AIを用いて無人航空機同士が情報を共有し、群れとして協調動作を行うスウォーム機能を開発することで、より広範囲のモニタリングや複数のタスクを同時に遂行することが可能になる。
通信手段においては、通信の安定性を向上させるために、衛星通信やレーザー通信などの代替通信手段を検討する。これにより、遠隔地や通信インフラが破壊された災害地域でも、無人航空機との連携を維持することができる。さらに、無人航空機の運用をより安全かつ効率的に行うために、地上のレーダーシステムや他の航空機との通信を組み合わせて、飛行中の無人航空機の位置や状態を正確に把握し、衝突回避を支援するシステムを導入する。
無人航空機を使用した監視システムでは、映像解析技術の進展を取り入れ、リアルタイムで動画から物体や人物を識別し、行動パターンを解析することも考えられる。これにより、警備や監視業務を自動化し、犯罪防止や安全管理に貢献する。また、無人航空機が撮影した映像は、バーチャルリアリティや拡張現実に活用することで、教育やトレーニング、観光などの新たな体験を提供することができる。
最後に、制御装置には、無人航空機の動作ログやセンサーデータを活用した機械学習モデルを訓練し、無人航空機の飛行パフォーマンスを改善するための自己学習機能を追加する。これにより、無人航空機は過去の経験から学習し、より効果的な飛行ルートを選択し、タスクの効率化を図ることができる。
制御装置に搭載された生成AIを活用し、他の産業分野での自動化作業にも適用することが考えられる。例えば、農薬散布や種まきなどの農業作業を自動化し、人手を要する労働を削減する。無人航空機には、超音波センサーや近赤外線カメラを搭載し、作物の生育状態や病害の早期発見に役立てる。また、無人航空機による精密な農薬散布システムを開発し、農薬の使用量を最適化し、環境への影響を減らす。
制御装置の生成AIは、無人航空機に限らず、水中ロボットや地上の自律走行車にも応用可能である。これらの異なるプラットフォームを組み合わせることで、陸海空を網羅する監視ネットワークを構築し、環境監視、資源探査、災害対応など多岐にわたる分野での利用が期待できる。無人航空機を用いた環境モニタリングでは、複合ガスセンサーを搭載し、大気汚染の監視や温室効果ガスの測定を行うことも有効である。
さらに、制御装置と無人航空機の組み合わせは、災害救助以外にも、人命救助や捜索活動での利用が考えられる。高性能カメラと顔認識技術を組み合わせ、行方不明者の捜索や、海岸監視における遭難者の早期発見に役立てる。無人航空機に救命キットを搭載し、遭難者に対して迅速な救助物資の投下を行うシステムも開発する。
通信手段の強化により、データのリアルタイム性が重要な遠隔医療や災害時の緊急通信にも活用が可能となる。高解像度の映像伝送と低遅延通信を実現し、医師が遠隔地から手術を指導したり、災害現場からの緊急通信を確立するためのインフラとしての役割を担う。
制御装置のAIをさらに進化させ、無人航空機の群れが協調して複雑な作業を行うためのアルゴリズムを開発する。これにより、一つの大きなタスクを複数の無人航空機が分担して効率よく完遂することが可能になる。例えば、建設現場での材料運搬や、火災現場での消火活動などに応用する。
最終的に、制御装置のAIと無人航空機の組み合わせは、都市のインフラ管理や交通流の監視、公共安全の確保といったスマートシティの構築にも貢献する。無人航空機が提供するリアルタイムデータを活用し、都市運営の最適化や災害発生時の迅速な対応を行うためのシステムを構築する。また、無人航空機が集めた情報は、都市計画や交通政策の立案にも役立てる。これにより、持続可能で効率的な都市の発展を支援する。
(形態例2)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、位置情報取得手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の位置情報を取得する。位置情報取得手段は、GPSやセンサーなどを利用して無人航空機の位置を特定する手段である。制御装置は、取得した位置情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
位置情報取得手段は、例えば、GPSやセンサーなどを利用して無人航空機の位置を特定する手段として、ロボット414に実装される。制御手段は、データ処理装置12の特定処理部290によって実現され、取得した位置情報を基に、指示に従って無人航空機を制御する。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置は、自然言語理解モジュールを含む解析手段を用いて、ユーザからの指示を解析し、意図を把握する。また、制御装置は、ユーザからの自然言語指示を受け取る指示受付手段と、これを解析するための自然言語理解モジュールが備わっている。この自然言語理解モジュールは、音声認識技術を用いて音声指示をテキストデータに変換する音声テキスト変換手段を含む。また、音声テキスト変換機能は、音声認識アルゴリズムによってユーザの指示を文字情報に変換することができる。変換されたテキストデータをさらに解析するためのトークン化、品詞タグ付け、名詞句解析、動詞句解析、依存関係解析などの言語処理手段を含む。また、言語処理機能は、トークン化手段、品詞タグ付け手段、構文解析手段などを用いて、指示の意図を明確に把握することもできる。これにより、ユーザの指示に含まれるコマンド、パラメータ、条件などが正確に特定される。解析された指示は、無人航空機の制御に必要なコマンドとして生成AIによって解釈され、対応する行動指令を生成するコマンド生成手段を介して無人航空機の制御部に送信される。これにより、ユーザの意図がコマンドとして解釈され、無人航空機に送信される行動指令を生成する。
位置情報取得手段には、無人航空機の正確な位置を追跡するための複合的な位置情報処理手段が含まれる。また、位置情報取得手段として、無人航空機に搭載されたGPSモジュールがあり、地球上の位置情報を取得することができる。このGPSモジュールは、地球上の任意の地点の緯度、経度、高度情報を取得する。さらに、GNSS(Global Navigation Satellite System)信号を解析するGNSS解析手段が、より高い位置情報の精度と信頼性を提供することができる。また、これと併用されるGNSS解析手段は、衛星からの信号を用いて位置の精度を高めることもできる。一方、内蔵された加速度センサーやジャイロスコープなどの慣性測定ユニット(IMU)は、無人航空機の姿勢や動きを継続的に追跡し、GPS信号が不安定な環境でも安定した位置情報の取得を支援する。また、無人航空機の動きを検出するためのIMUが、慣性に基づいた情報を提供し、GPS信号が不安定な状況下でも位置情報の正確性を保つことができる。センサーを含まない例として、無人航空機がビーコンや地上局との通信により自身の位置情報を取得する通信ベースの位置情報取得手段が考えられる。また、センサーを使用しない位置情報取得の例として、通信ベースの位置情報取得手段が挙げられる。この手段では、地上のビーコンから発信される信号や、他の無人航空機との通信を通じて、相対位置や絶対位置を確定する。ビーコンは、特定の周波数の電波を発信し、無人航空機の搭載した受信モジュールがこれを受信することで、位置情報を算出するための参照点となる。また、無人航空機は受信した信号をもとに自身の位置を算出することができる。このようなシステムでは、地上局との通信を介して、無人航空機の現在位置や飛行経路の調整情報がリアルタイムで交換される。
制御手段は、無人航空機の飛行経路を計画し、調整する飛行経路計画手段を含む。また、制御手段としては、無人航空機の飛行経路を計画し、調整する飛行経路計画機能が含まれる。これには、無人航空機の動作をシミュレートし、飛行経路上の障害物や安全上の制約を考慮して、最適な飛行経路を算出するシミュレーション手段が組み込まれている。また、この機能は、シミュレーション手段を用いて飛行経路をシミュレートし、障害物回避手段や安全上の制約を考慮して最適な経路を算出することができる。さらに、無人航空機が遭遇する可能性のある緊急事態に迅速に対応するための緊急回避手段や、複数の無人航空機を協調して制御するための群制御手段も含まれる。また、緊急事態に対応する緊急回避機能や、複数の無人航空機を一元的に制御する群制御機能も備わっている。
本形態例の制御装置には、さらに複雑な環境下での飛行能力を向上させるために、高度な障害物検知システムを組み込むことが可能である。例えば、レーザースキャナーや超音波センサーを利用した3Dマッピング技術を活用し、飛行中の無人航空機が周囲の環境を精密に認識し、動的に変化する障害物にも迅速かつ自律的に対応する機能が追加される。また、衛星画像や地理情報システム(GIS)データを解析することで、飛行計画における地形の特徴や障害物の情報をより詳細に考慮し、高度な飛行経路の最適化が可能となる。
無人航空機の群制御においては、AIを利用したスウォームインテリジェンスに基づく協調飛行アルゴリズムを導入することで、複数の無人航空機が一体となって作業を効率的に行えるようになる。例えば、農薬散布や捜索救助活動において、複数の無人航空機が分散して作業を行う際に、全体の作業効率を最大化するための動的な飛行経路調整が行われる。これにより、無人航空機は個々の状況に応じて役割を分担し、協調することが可能となる。
制御装置の自然言語理解モジュールには、ユーザが用いる専門用語や業界固有の言葉を理解するための専門用語辞書やコンテキスト解析機能が追加され、特定の業界や用途に特化した指示を正確に解析し、具体的な操作コマンドに変換する能力が向上する。また、無人航空機の環境認識能力を高めるために、センサーデータと合わせてソーシャルメディアやインターネットの情報を解析し、人々の活動パターンやイベントの発生状況を把握する機能が追加される。
位置情報取得手段においては、無人航空機が使用するGPSモジュールに補正信号を提供する地上参照局のネットワークを組み込むことで、より高精度な位置情報を提供する差分GPS(DGPS)システムを導入することが可能である。さらに、遠隔地からの操作や監視を可能とするために、衛星通信を利用したリアルタイムのデータリンクシステムを組み込むことで、地球のどこからでも無人航空機の制御が行えるようになる。
これらの機能を統合することで、無人航空機はより複雑な任務に対応し、ユーザのニーズに合わせた柔軟かつ高度な運用が実現される。例えば、災害救助や環境モニタリング、セキュリティ監視などの分野において、無人航空機を活用した先進的なソリューションが提供されることになる。
制御装置には、ユーザの指示をより精密に解釈するためのコンテキスト認識機能を組み込むことができる。これにより、同じ命令でも異なる状況に応じて最適な行動を取ることが可能となる。また、ユーザとの対話を通じて、不明瞭な指示に対する問い返し機能を持つことで、コミュニケーションの精度を高め、誤解を防ぐことができる。さらに、複数のユーザからの指示を同時に処理するマルチタスク処理能力を備えることで、大規模なオペレーションにおける高い柔軟性を実現する。
位置情報取得手段には、無人航空機の周囲をリアルタイムに3DスキャンするLiDARセンサーを追加することで、より高度な環境認識と正確な位置決めを実現する。また、ビジュアルオドメトリーを活用して、カメラで撮影した映像から無人航空機の動きを推定することで、GPSが利用できない環境でも安定した位置情報を提供する。これにより、都市部の高層建築物間や密林内など、GPS信号の受信が困難な場所での活動も可能となる。
制御手段には、無人航空機が自律的に障害物を回避し、飛行経路を調整する自己学習型障害物回避アルゴリズムを採用する。また、無人航空機間の通信により、周囲の無人航空機の状況をリアルタイムで共有し、衝突を避けながら効率的に飛行することを可能とする協調回避アルゴリズムを導入する。これにより、複数の無人航空機が密集して飛行する状況でも、安全性を確保しつつ任務を遂行することができる。
制御装置のAIは、無人航空機が集めたデータを元に、継続的に環境モデルを更新し、その環境モデルを基にした予測型制御を行うことができる。これにより、無人航空機は現状のみならず、将来の変化にも対応した自律飛行を実現する。また、無人航空機は、予め設定された行動パターンを超えて、その場の状況に応じて最適な判断を下すことができる。
最終的に、本形態例で提案されるシステムは、無人航空機を用いた高度な監視、調査、災害対応など様々なアプリケーションに適用可能であり、高度な自律性とユーザビリティを兼ね備えた次世代の無人航空機制御システムとなる。それにより、人間のアクセスが困難または危険な地域での活動や、時間的制約のある緊急任務において、無人航空機の有効利用が促進されることが期待される。
(形態例3)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、映像処理手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の映像を処理する。映像処理手段は、カメラや画像認識技術を利用して無人航空機の映像を解析する手段である。制御装置は、解析された映像情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
映像処理手段は、例えば、カメラや画像認識技術を利用して無人航空機の映像を解析する手段として、ロボット414のカメラ42によって実現される。制御手段は、データ処理装置12の特定処理部290によって実現され、解析された映像情報を基に、指示に従って無人航空機を制御する。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置には、自然言語処理モデルを用いた指示解析手段が含まれ、ユーザからの指示をテキストまたは音声形式で受け取り、意図を把握する機能を持つ。指示解析手段は、形態素解析や構文解析によって自然言語の文を理解し、意味解析によって指示の意図を正確に把握する。また、制御装置に搭載された自然言語処理モデルは、ユーザの音声やテキスト指示を受信し、それらのデータを形態素分割機能によって言語の基本単位に分割することができる。次に、構文解析機能が文の構造を明らかにし、意味解析機能が文脈に応じた指示の意図を特定することもできる。これらの解析結果をもとに、機械学習により構築された言語理解モデルがユーザの意図を精確に把握し、対応するアクションを生成する。この過程において、機械学習に基づく言語モデルが訓練データを基に学習を行い、ユーザの指示に対する応答の精度を高める。
無人航空機に搭載される映像処理手段には、リアルタイム映像解析機能が含まれ、無人航空機が撮影する映像データを瞬時に処理し、特定の物体や景色を識別する。この機能は、ディープラーニングに基づく物体検出モデルやセマンティックセグメンテーションモデルを用いて物体の種類や位置を認識し、無人航空機が捉えた環境の特徴を抽出する。また、無人航空機に備わる映像処理手段は、リアルタイムで映像データを分析し、物体識別機能により画面内の特定のオブジェクトを識別することができる。物体検出モデルとセマンティックセグメンテーションモデルが融合され、画像中の物体の種類と位置を特定することもできる。映像データの前処理では、ノイズリダクションやコントラスト調整が行われ、認識精度の向上に貢献する。さらに、画像前処理機能により、ノイズリダクションやコントラスト調整を行い、映像解析の精度を向上させることができる。
制御手段には、無人航空機の飛行経路計算機能が含まれ、解析された映像情報を基に、目的地までの最適な飛行経路を算出し、無人航空機を効率的に案内する。この飛行経路計算機能は、地形データや気象情報を統合し、障害物回避やエネルギー効率の最大化を図る。また、制御手段として、無人航空機は飛行経路計算機能を用いて目的地までの効率的な経路を算出する。この機能は、地形データ統合機能と気象情報統合機能を組み合わせ、飛行の安全性と効率性を確保することができる。さらに、無人航空機の飛行動作制御機能が、速度や高度、姿勢制御といった飛行の基本動作を精密に調整し、ユーザの指示に応じた動作を実行する。また、飛行動作制御機能が無人航空機の速度、高度、および姿勢を適切に調整し、ユーザの指示に沿った動作を実現することもできる。
映像処理手段の一部として、無人航空機による環境モニタリング機能も考えられる。これは、環境変化検知モデルを用いて自然災害や異常事態を検出し、状況に応じた対応を可能にする。また、無人航空機による環境モニタリング機能は、環境変化検知モデルを使用して、自然災害や異常事態を迅速に捉え、状況に適した対応を行うことができる。この監視機能は、広範囲にわたる環境の変化を効果的に検出し、情報収集と迅速な対処を実現する。
センサーを含まないデータ収集の例として、ユーザが無人航空機に搭載されたカメラを通じて手動で映像データを選択し、そのデータを制御装置に送信する手動選択手段が考えられる。この手動選択手段では、ユーザが特定の映像に注目している場合や、特定の状況下での映像分析が求められる場合に役立つ。ユーザはインタフェースを通じて映像データを選択し、制御装置に送信することで、映像解析手段による解析と制御手段による対応が行われる。また、手動選択手段として、ユーザはインタフェースを介して無人航空機のカメラで捉えた映像データを選択し、制御装置に送信することができる。この選択プロセスにより、映像データはユーザの特定の要求に基づいて選ばれ、映像処理手段による詳細な解析や制御手段による適切な飛行制御が行われる。
制御装置には、様々な状況に応じた行動パターンを学習するための強化学習アルゴリズムを組み込むことができる。このアルゴリズムにより、無人航空機は異なる環境や任務に対応するための適応能力を高める。また、制御装置には、複数の無人航空機の協調飛行を管理するためのマルチエージェントシステムを搭載することができる。これにより、複数の無人航空機が同時に行動を起こし、一つの目標に対して効率的に協力することが可能となる。さらに、制御装置は、緊急時の無人航空機の自動帰還機能や障害物自動回避機能を含む安全機能を備えることができる。これにより、無人航空機は自身の安全を確保しつつ、任務を完遂することができる。
映像処理手段には、夜間や悪天候下でも高精度な画像解析を行うための赤外線カメラや熱感知技術を組み込むことが可能である。これにより、無人航空機は昼夜を問わず、あらゆる環境下での映像データの収集と解析を行うことができる。加えて、映像処理手段は、動的なシーンにおける物体追跡アルゴリズムを用いて動く対象の追跡も行えるようにすることができる。この機能により、無人航空機は移動する物体を継続的に監視し、重要な情報を提供することができる。
制御手段には、ユーザの指示に基づいて無人航空機の群れをコントロールするスウォームインテリジェンス機能を追加することができる。これにより、複数の無人航空機が形成する群れは、複雑な環境での集団飛行や任務遂行をより効果的に行うことができる。また、制御手段には、リアルタイムの交通情報や天候変化に応じた動的な飛行経路再計算機能を搭載することができる。これにより、無人航空機は途中で情報が更新された場合でも迅速に対応し、任務遂行の効率を向上させることができる。
映像処理手段の一部として、無人航空機が収集する映像データをリアルタイムでクラウドサービスにアップロードし、広範囲のデータ分析や共有を行う機能を含めることができる。これにより、無人航空機が捉えた映像データは、迅速な意思決定や情報共有のために広い範囲のユーザーと共有される。また、映像処理手段は、災害発生時における被害状況の詳細なマッピング機能を持つことができる。これにより、無人航空機は災害発生直後の状況を詳しく把握し、救助隊や復旧作業において重要な情報を提供することができる。
センサーを含まないデータ収集の例として、ユーザが無人航空機を通じて取得した映像データを、AI支援の自動分析機能によってソーシャルメディアやニュースサイトに自動投稿することもできる。これにより、社会的な出来事や珍しい自然現象を広く公開し、関心を集めたり、意識を高めたりすることができる。また、ユーザーのプライバシー保護のためのデータ匿名化機能を含むことで、無人航空機が収集した映像データを安全に共有することができる。
制御装置に搭載された生成AIには、無人航空機が撮影した映像をリアルタイムで解析し、災害時の損傷状況や生存者の位置を特定する機能を追加することができる。これにより、救助活動の迅速化と効率化に貢献する。さらに、無人航空機の映像データを活用した3Dマッピング技術を統合し、被災地の立体的な地図を作成し、より詳細な状況把握を実現する。
映像処理手段には、昼夜や天候の変化に左右されない高感度センサーと映像強調技術を導入し、無人航空機が低照度環境でも鮮明な映像を撮影できる機能を備える。また、映像データの中から特定のパターンやシンボルを認識し、例えば救援要請のサインや特定の障害物を検出する機能を持つこともできる。
制御手段は、無人航空機が集団で飛行する際のフォーメーションやタイミングを自動調整する機能を持つ。これにより、複数の無人航空機が協力して広範囲をカバーし、効率的にデータ収集を行うことができる。さらに、無人航空機が予期せぬ障害物に遭遇した際に迅速に避けるための、環境認識に基づく自律回避機能を搭載することができる。
映像処理手段には、映像データ内での動きを検出し、それに応じて無人航空機のカメラを自動で追尾する機能を含むことができる。これにより、動的なシーンや追跡が必要な対象を途切れることなく監視し続けることが可能となる。
制御手段には、無人航空機のエネルギー消費を最適化するアルゴリズムを搭載し、任務時間の延長や運用コストの削減に貢献する。また、無人航空機の飛行経路をリアルタイムで最適化することにより、急な状況変化にも柔軟に対応する。
映像処理手段の拡張として、無人航空機が収集した映像データを多角的に解析し、例えば農業分野での作物の健康状態評価や、環境監視における生態系の変化検出など、異なる分野での応用が可能となる機能を備える。
制御装置には、ユーザとのインタラクティブなコミュニケーションを実現するための、自然言語理解能力をさらに向上させる機能を追加することができる。これにより、ユーザが直感的に無人航空機を操作できるようになり、幅広いユーザーが無人航空機を活用できるようになる。
映像処理手段には、ライブ映像にリアルタイムでテキストやアノテーションを挿入することで、映像の内容をよりわかりやすく伝える機能を追加することができる。これにより、例えば災害時の救助情報を現場の救助隊員や指揮官に即座に提供することが可能となる。
制御手段には、無人航空機の自己修復機能や、定期的なメンテナンスリマインダーを提供する機能を組み込むことができる。これにより、無人航空機の稼働率と信頼性が高まり、長期間にわたる安定した運用が実現する。
これらの追加機能により、無人航空機を活用した監視や災害対応、情報収集の能力が飛躍的に向上し、多様な状況に対応できる柔軟なシステムを構築することができる。
(形態例4)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、距離計測手段とを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の距離を計測する。距離計測手段は、超音波センサーやレーザー距離計などを利用して無人航空機と障害物との距離を測定する手段である。制御装置は、計測された距離情報を基に、指示に従って無人航空機を制御する制御手段を備えている。
距離計測手段は、例えば、超音波センサーやレーザー距離計などを利用して無人航空機と障害物との距離を測定する手段として、ロボット414に実装される。制御手段は、データ処理装置12の特定処理部290によって実現され、計測された距離情報を基に、指示に従って無人航空機を制御する。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置に内蔵された生成AIは、自然言語解析手段を利用して人間の指示を理解する機能を持ち、この機能によって無人航空機の操作に必要なコマンドを生成する。また、制御装置に搭載された生成AIは、音声からテキストへの変換機能を有する音声認識手段と、文の意味を解釈するための文法解析手段及び意味解析手段を組み合わせることで、ユーザの指示を理解し、無人航空機の操作に必要なコマンドを生成することができる。生成されたコマンドは、飛行経路の計画や無人航空機の操縦動作に対する具体的な指示を含み、これらは無人航空機の制御アルゴリズムによって実行される。また、生成されたコマンドは、無人航空機の飛行経路や動作に関する詳細な指示を包含し、制御アルゴリズム手段によって実行されることができる。
距離計測手段としての超音波センサーは、無人航空機の前面や側面に設置され、周囲の障害物からの反射音波を検出することで距離を測定する。このセンサーは、環境に適応するためのエコーキャンセレーション機能や、干渉波を除去するフィルタリング機能を備えており、正確な距離情報を提供する。また、超音波センサーは、エコーロケーション機能を利用して周囲の障害物からの反射波を検出し、距離情報を取得することができる。このセンサーは、干渉音波除去機能やエコーキャンセレーション機能により、環境ノイズに影響されずに正確な距離情報を提供することができる。一方、レーザー距離計は、高精度な距離測定が可能であり、特に長距離の計測や微妙な障害物の検出に適している。レーザー距離計は、目標物にレーザー光を発射し、その反射光の時間差を利用して距離を計算する。また、レーザー距離計は、目標物に対するレーザー光線発射機能と反射光検出機能を有し、反射時間差計算機能によって距離を測定することができる。レーザー距離計は、精密な距離測定を可能にし、特に長距離や微細な障害物の検出に適していることができる。
制御手段は、距離計測手段からの情報を基に無人航空機の動作を調節する機能を持ち、この機能は無人航空機の飛行制御アルゴリズムによって実現される。飛行制御アルゴリズムは、PID制御やフィードフォワード制御などの制御理論に基づいて設計され、無人航空機が安定した飛行を維持しながら指示された動作を正確に実行できるようにする。制御手段は、無人航空機の姿勢や速度をリアルタイムで調節し、障害物を回避しながら目的地に到達する経路を最適化する。また、制御手段は、距離計測手段から提供される情報を利用して、無人航空機の姿勢や速度を調節し、障害物を回避する経路制御機能を有することができる。飛行制御アルゴリズム手段は、PID制御機能やフィードフォワード制御機能を活用し、無人航空機が指示に従って安定かつ正確に飛行するための動作調整を行うことができる。
センサーを含まない距離計測の例としては、GPSを用いた位置測定手段がある。無人航空機に搭載されたGPS受信機は、衛星から送信される信号を受け取り、その情報を基に無人航空機の現在位置を算出する。位置測定手段は、無人航空機が飛行する環境の広域的な位置情報を提供し、より大規模な飛行計画の立案に利用される。また、無人航空機間の相対的な位置関係を把握するために、複数の無人航空機がそれぞれのGPS情報を共有し、全体としての飛行隊形を調整する手段としても機能する。さらに、GPSによる位置測定手段は、衛星信号受信機能を備えたGPS受信機を介して、無人航空機の現在地を決定することができる。位置情報計算機能は、受信した衛星信号から無人航空機の位置を算出し、広域的な飛行計画立案に寄与することができる。さらに、無人航空機間で位置情報を共有することにより、飛行隊形調整機能としても機能し、全体としての飛行コーディネーションを実現することができる。
制御装置にはさらに、障害物検出の精度を向上させるための画像処理手段が追加される。例えば、機械学習に基づく物体認識アルゴリズムを活用して、無人航空機が撮影した映像から障害物を自動で検出し、その大きさや形状を認識することができる。これにより、無人航空機はより複雑な環境でも安全に飛行する能力を有する。また、無人航空機が撮影した映像データをリアルタイムで解析し、動的な環境変化に応じた飛行経路の調整を行う能力を備える。さらに、制御装置には、無人航空機間の通信を調整する通信制御手段が搭載され、複数の無人航空機が情報を共有し、協調飛行を行うことが可能となる。この通信制御手段は、隊列飛行や特定の任務実行時の協調動作を最適化する機能を持つ。
制御装置のAIは、実際の飛行環境から学習を行う自己学習機能を持ち、新たな障害物や未知の状況に遭遇した際にも最適な飛行経路を自動で生成する。AIは、無人航空機の経験を蓄積し、過去のデータを参照しながら飛行パターンを改善していく。この学習プロセスは、無人航空機がより環境に適応し、より効果的な任務遂行が可能となる。また、制御装置は、複数の無人航空機が同時に活動する際の衝突回避アルゴリズムも搭載し、安全かつ効率的な群れの動きを実現する。
距離計測手段としてのセンサーには、夜間や悪天候下でも正確な距離測定を行うための赤外線センサーや熱画像カメラが追加される。これらは、従来の超音波センサーやレーザー距離計の限界を補い、無人航空機がさらに厳しい環境下での作業を可能とする。また、これらのセンサーは、障害物の種類や温度分布を検出し、それに応じた飛行経路の選択を行うための追加情報を提供する。
制御手段には、先進的な衝突回避システムが組み込まれる。このシステムは、リアルタイムでの環境認識と予測モデリングを組み合わせ、無人航空機が予期せぬ障害物に迅速かつ効果的に反応できるようにする。無人航空機は、衝突回避システムによって自動的に飛行経路を変更し、安全を確保しながら任務を継続する。さらに、制御手段は無人航空機のエネルギー管理を最適化し、飛行時間の延長や任務効率の向上を図る機能も備える。
制御装置に搭載された生成AIは、複数の無人航空機を同時に監視し、それぞれの航空機の動作を調整することにより、群れのような協調動作を可能にする機能を持つ。無人航空機同士が情報を共有し、周囲の環境や他の航空機の位置を認識し合いながら、効率的かつ安全に任務を遂行する。この協調動作は、特に複雑な地形や障害物の多い環境で有効であり、捜索救助活動や災害時の状況把握などに応用できる。
また、無人航空機に搭載される距離計測手段には、障害物との衝突リスクを低減させるための新たなセンサーフュージョン技術を採用する。異なる種類のセンサーから得られる情報を統合し、より正確かつ信頼性の高い環境認識を実現する。例えば、超音波センサーの距離情報とレーザー距離計の精密な測定結果を組み合わせることで、無人航空機は障害物をより緻密に認識し、その周囲を安全に飛行する。
制御装置は、無人航空機の飛行データをクラウドにアップロードし、それを基にした大規模なデータ解析を行うこともできる。これにより、無人航空機の飛行効率を向上させる新しい飛行パターンの発見や、将来の飛行計画の改善に役立つ洞察を得ることが可能になる。さらに、クラウドベースのシミュレーションを利用して、仮想環境で無人航空機の飛行テストを行い、実際に飛行する前に様々なシナリオでの対応を学習させることもできる。
制御装置には、ユーザーが直感的に操作できるインタフェースも備えられる。タッチスクリーンディスプレイやジェスチャー認識技術を用いて、ユーザーは簡単な動作で無人航空機の飛行を指示できる。加えて、バーチャルリアリティ(VR)や拡張現実(AR)技術を組み合わせることで、ユーザーはより直感的に無人航空機の飛行を監視し、制御する体験を得ることができる。
さらに、無人航空機は、機械学習に基づく予測メンテナンス機能を備えることで、機体の故障リスクを事前に特定し、予防的な保守を行う。これにより、無人航空機の稼働率を高め、長期にわたる信頼性の維持に寄与する。
最後に、無人航空機の利用範囲を拡大するために、水中や地下での使用が可能な防水・防塵機能を持つモデルの開発も検討される。これにより、海洋調査や地下資源の探査など、従来の無人航空機では困難だった分野への応用が可能になる。
【0096】
以下に、各形態例の処理の流れについて説明する。
【0097】
(形態例1)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、動作プログラムを生成する。
ステップ3:生成された動作プログラムを無人航空機に送信し、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例2)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の位置情報を取得する。
ステップ3:取得した位置情報を基に、制御装置は無人航空機を制御する。
(形態例3)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の映像を処理する。
ステップ3:映像処理手段を利用して、制御装置は無人航空機の映像を解析する。
ステップ4:解析された映像情報を基に、制御装置は無人航空機を制御する。
(形態例4)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機と障害物との距離を計測する。
ステップ3:距離計測手段を利用して、制御装置は無人航空機と障害物との距離を測定する。
ステップ4:計測された距離情報を基に、制御装置は無人航空機を制御する。
【0098】
なお、更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。
【0099】
(形態例1)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが喜んでいる場合には、無人航空機の飛行速度を上げたり、カメラの視点を広範囲に設定したりする。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。認識手段は、例えば、データ処理装置12の特定処理部290によって実現され、ユーザの感情を認識する。反映手段は、例えば、ロボット414の制御部46Aによって実現され、ユーザの感情に応じて無人航空機の操作を反映する。例えば、ユーザが喜んでいる場合には、無人航空機の飛行速度を上げたり、カメラの視点を広範囲に設定することができる。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置には、自然言語理解(NLU)技術を用いた解析手段が含まれ、これによりユーザが与えた指示を意図に沿って解釈する。この解析手段は、ユーザの発話をトークン化し、品詞タグ付けと構文解析を行う。また、解析手段は、発話内容をトークン化するトークン化手段と、品詞を識別する品詞タグ付け手段、文の構造を解析する構文解析手段を組み合わせて機能し、ユーザの命令に応じた動作プログラムを生成するプログラム生成手段を備える。さらに、意図認識手段によって発話の目的を特定し、適切な動作プログラムを生成するための情報を抽出する。動作プログラム生成手段は、解析された指示に基づき、無人航空機の飛行経路、速度、カメラ操作といった具体的な動作命令を生成する。また、動作プログラム生成手段は、無人航空機の飛行経路やカメラ操作などを制御するための指示を形成し、無人航空機が任務を遂行するために必要なパラメータを設定する。
感情認識手段には、音声分析や表情解析技術を用いてユーザの感情状態を把握する機能が含まれる。音声分析手段は、話し声のトーンやピッチの変化から感情を読み取る。また、音声分析手段は、話し声から感情を推定する。表情解析手段は、カメラによって捉えられたユーザの顔の表情から、喜びや悲しみなどの感情を識別する。また、表情解析手段は、視覚情報をもとに感情を識別する。これらの手段は、機械学習モデルを用いて訓練され、高い精度で感情を認識する。感情反映手段は、認識された感情に応じて無人航空機の飛行パターンやカメラ設定を調整する。たとえば、ユーザが喜びを示している場合、無人航空機はよりダイナミックな飛行パターンをとり、カメラの視野角を広げて景色を広範囲に捉えるようになる。また、感情反映手段は、認識された感情に基づいて無人航空機の挙動を変更し、例えば、喜びを感じているユーザに対して飛行速度を上げることで応答する。
無人航空機の飛行制御手段は、無人航空機の機種ごとの操縦特性を理解し、それに基づいて最適な飛行経路を計算する。また、無人航空機は、それぞれの機体特性を理解し、最適な飛行経路を算出する飛行制御手段を備えている。障害物回避手段は、センサーによって得られる周辺環境の情報を解析し、安全な飛行経路をリアルタイムでプランニングする。また、障害物を検出し、それを回避するための経路を計算する障害物回避手段も搭載している。この障害物回避手段は、機械学習に基づく予測モデルとセンサーフュージョン技術を組み合わせて、環境変化に柔軟に対応する。カメラ制御手段は、ユーザの指示や感情状態に基づいて、カメラのパン、チルト、ズーム操作を自動的に行う。これにより、ユーザが求める画像や映像の撮影が可能となる。また、カメラ制御手段は、ユーザの指示に基づいて無人航空機のカメラを遠隔操作し、所望の映像を撮影する。
システムの全体構成は、モジュラー設計が採用されており、無人航空機の種類や運用環境に合わせて柔軟にカスタマイズ可能である。また、システムは、モジュールごとに独立した機能を有し、無人航空機の種類や運用環境に合わせてカスタマイズできるように設計されており、クラウドベースのインフラによりデータの集中管理や制御ロジックのリモート更新が可能である。これにより、システムの拡張性や適応性が向上し、ユーザのニーズに応じたサービスの提供が実現される。また、システムはクラウドベースのアーキテクチャを採用し、データの処理や無人航空機の制御ロジックの更新をリモートで行うことができる。これにより、システムのメンテナンスやアップグレードが容易になるとともに、最新の技術を迅速に導入することが可能となる。さらに、センサーを含まないデータ収集手段として、ユーザが直接入力した指示や感情表出をシステムに登録する方法があり、これにより無人航空機の動作やカメラ制御のカスタマイズが行われる。
本発明における生成AI搭載の制御装置は、ユーザの指示をより深く理解し、無人航空機の動作プログラムを洗練させるために、コンテキスト認識機能を追加することができる。これにより、ユーザが与えた指示が特定の状況や環境に応じて最適化され、例えば、屋外の気象条件や周囲の騒音レベルに基づいて無人航空機の飛行パターンを調整する。また、センサーデータを活用したリアルタイム環境認識機能により、無人航空機が自動で天候変化に適応し、安全な飛行を維持する動作プログラムを生成する。
感情エンジンに関しては、ユーザの生理的信号を解析する生体センサーの統合により、心拍数や皮膚電気活動などから感情状態をより正確に読み取ることが可能となる。これにより、ユーザがストレスを感じている場合には、無人航空機は穏やかな飛行を行い、カメラは静かな風景を捉えるように調整される。さらに、ユーザの感情変化に応じて無人航空機が音楽を流すなどのエンターテインメント機能を提供することもできる。
無人航空機には、グループ飛行機能を追加し、複数の無人航空機が連携して複雑な飛行形態や撮影を実現する。この機能により、例えば、一台の無人航空機が主体的に被写体を追跡しながら、他の無人航空機が異なる角度から補助的な映像を撮影し、多角度からの映像を生成する。
カメラ制御手段では、拡張現実(AR)や仮想現実(VR)技術を組み込むことにより、撮影された映像にリアルタイムでデジタル情報を重ね合わせ、ユーザに対して没入感のある視覚体験を提供することが可能となる。例えば、無人航空機からの映像に地図情報や注釈を追加し、観光案内や教育用のコンテンツとして活用する。
また、制御装置には、ユーザが前もって無人航空機の挙動をプログラミングし、特定のイベントや条件が満たされた際に自動で実行されるトリガー機能を追加することができる。これにより、例えば、ユーザが特定の感情を示したときに特定の飛行パターンがトリガーされるようなシナリオを設定できる。
システム全体としては、各モジュールの交換やアップグレードが容易に行えるようなデザインとし、ユーザからのフィードバックをシステムに反映させるための機構を設ける。これにより、システムはユーザの使用状況や要望に応じて進化し続け、長期にわたって価値を提供し続けることができる。また、無人航空機の故障や損傷時には、自己診断機能によって問題を特定し、ユーザやメンテナンス担当者に通知することもできる。このように、本発明は、無人航空機を活用したユーザ中心のインタラクティブなエクスペリエンスを提供し、様々な応用分野での利用が期待される。
制御装置には、ユーザの感情に反応して無人航空機が特定の照明効果を発生させる機能を追加することができる。たとえば、ユーザが興奮状態にあるときは、無人航空機が鮮やかな色のLEDライトを使用して空中で光のショーを展開する。また、無人航空機がユーザの周囲を飛行しながら、状況に応じた香りを放出する機能を組み込むことで、五感を刺激する体験を提供する。
感情エンジンは、ユーザの感情認識の精度を向上させるために、ソーシャルメディアの投稿や日常の行動パターンから得られるデータを分析することで、感情の予測モデルを構築する。これにより、無人航空機はユーザの感情の変化を事前に予測し、よりタイムリーに対応する。
無人航空機の飛行制御手段には、環境音を分析して周囲の状況を把握する機能を追加し、騒音が多い場所では飛行高度を自動調整して騒音の影響を低減させる。また、夜間飛行時には無人航空機が周囲の明るさを認識して適切な照明を提供する機能も備える。
カメラ制御手段は、撮影された映像に対してリアルタイムでエフェクトやフィルターを適用する機能を搭載し、美しい映像作りをサポートする。さらに、無人航空機が撮影した映像をユーザのソーシャルメディアアカウントに自動投稿する機能も追加する。
システム全体では、ユーザのプライバシーを考慮し、感情データや行動データの収集と使用に関するプライバシーポリシーを設定し、ユーザが容易にコントロールできるようにする。また、無人航空機同士の通信を暗号化し、セキュリティを強化することで、ユーザのデータ保護を徹底する。
無人航空機は、ユーザが緊急時に迅速に対応できるよう、SOS信号の送信や近隣の救助機関への連絡を行う機能を備える。また、災害時の捜索救助活動において、無人航空機が生存者の位置を特定し、救助隊に情報を提供することも可能となる。
これらの機能により、本発明の無人航空機システムは、エンターテインメント、日常のコンパニオン、緊急時の支援として幅広い場面での利便性と安全性を提供し、ユーザの生活を豊かにすることが期待される。
(形態例2)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが怒っている場合には、無人航空機の飛行速度を抑えたり、カメラの視点を安定させたりする。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。認識手段は、例えば、データ処理装置12の特定処理部290によって実現され、ユーザの感情を認識する。反映手段は、例えば、ロボット414の制御部46Aによって実現され、ユーザの感情に応じて無人航空機の操作を反映する。例えば、ユーザが怒っている場合には、無人航空機の飛行速度を抑えたり、カメラの視点を安定させることができる。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
制御装置に搭載された生成手段は、ユーザからの自然言語による指示を受け取る受信手段を含み、この受信手段は、音声認識技術を用いてユーザの発話からテキスト情報を抽出する。受け取ったテキスト情報は、自然言語処理技術によって解析され、指示の意図や内容を理解するための解析手段を有する。解析結果に基づいて、AIは無人航空機の動作プログラムを生成する生成手段を備えており、この生成手段には、機械学習アルゴリズムやルールベースのアルゴリズムが組み込まれている。また、制御装置に組み込まれた生成AIは、ユーザが発する自然言語のコマンドをテキストに変換する音声認識手段を有しており、この音声認識手段は、ユーザの発話をテキストデータに変換するための音声解析アルゴリズムを利用する。その後、テキスト化された指示は、意図解析手段によって内容が精査され、無人航空機の動作プログラムを生成するためのAIアルゴリズムによって処理される。このAIアルゴリズムは、条件分岐機能やパラメータ調整機能を有し、ユーザの指示に基づいて無人航空機の飛行経路や行動パターンを決定する。
感情認識手段は、ユーザの声のトーン、表情、身体言語などを解析するためのセンサーやカメラを含み、これらから得られるデータを用いてユーザの感情状態を判定する。この判定は、音声解析技術によって声の高さや強さ、話速などから感情を推定する手段や、顔認識技術を用いてユーザの表情から感情を読み取る手段を通じて行われる。感情エンジンは、ユーザの感情状態を識別するための複合センシング手段を備えており、この複合センシング手段は、音声センサーと視覚センサーからの情報を統合して処理する。音声センサーは、感情分析アルゴリズムを用いてユーザの声のトーンや発話のリズムから感情を推定する。視覚センサーは、顔認識技術を活用して表情の変化を検出し、感情状態を分析する。これらのセンサーによって得られた感情データは、無人航空機の操作に影響を与えるための感情反映アルゴリズムによって処理される。
無人航空機の動作プログラムは、例えば、飛行計画を立てるための航行経路算出手段や、障害物を回避するためのセンサーデータ処理手段を含む。航行経路算出手段は、GPSデータや地図情報を利用して最適な飛行ルートを計算する。また、無人航空機の飛行プログラムには、航行経路算出手段が含まれ、これは地理情報システム(GIS)データや気象情報を参照して、飛行ルートを計画する。センサーデータ処理手段は、ライダーや超音波センサーなどから得られた情報を処理し、周囲の障害物を検出して回避する動作を無人航空機に指示する。また、障害物回避手段として、無人航空機に搭載されたセンサーアレイからのデータを分析し、周囲の環境を把握することで衝突リスクを回避する。
通信手段は、制御装置と無人航空機間のデータ転送と指令の伝達を担い、リアルタイムでの飛行制御を可能にする。また、飛行中の無人航空機は、通信手段を介して常に制御装置とデータをやり取りし、リアルタイムで状況に応じた動作の調整が行われる。
システムは、ユーザインターフェースにおいても工夫が凝らされており、ユーザが簡単に無人航空機を指令できるように、直感的なデザインが採用されている。操作性を高めるために、タッチスクリーン入力手段やジェスチャー認識手段などが組み込まれている場合もある。
センサーフリーなデータ収集手段としては、ユーザが直接操作するインタラクティブ入力手段が用意されており、感情や動作の設定を手動でシステムに伝えることができる。また、センサーを含まないデータ収集の例としては、ユーザが手動で入力した感情状態や状況に基づくデータが挙げられる。この場合、ユーザはアプリケーションやウェブインターフェースを通じて、自身の感情や望む無人航空機の動作を直接指定する。これにより、無人航空機はユーザの手動入力に基づいて動作するプログラムを実行する。
各手段の実装には、マイクロプロセッサやメモリ、通信インターフェースなどのハードウェアコンポーネントが利用され、これらはシステム全体の効率的な動作を支える。
本発明のシステムには、ユーザーの感情や意図に基づいて無人航空機を操作するためのさらなる機能を追加することができる。例えば、制御装置に組み込まれた生成AIは、ユーザーの過去の指示や反応パターンを学習し、より個人化された応答や動作プログラムを生成することが可能となる。この学習機能により、システムはユーザーの振る舞いや好みを予測し、それに応じた無人航空機の動作を自動的に調整することができる。
また、無人航空機には、環境音を識別し、その情報をユーザーの感情状態の推定に活用する音響センシング機能を付加することができる。これにより、システムは周囲の騒音や音楽、動物の鳴き声などを分析し、ユーザーが置かれている環境の雰囲気をより詳細に把握することが可能となる。
感情エンジンには、ユーザーの生体信号を追跡するためのウェアラブルデバイスとの連携機能を追加することもできる。心拍数、皮膚の電気活動、体温などの生体情報を収集し、これらのデータを感情の推定に組み込むことで、ユーザーの感情状態をより正確に識別することが可能となる。
無人航空機の飛行プログラムには、緊急時の自動帰還機能や、ユーザーの安全を確保するための回避操縦機能を組み込むこともできる。これにより、予期せぬ障害物や気象条件の変化に対して、無人航空機は自律的に安全な行動を取ることができる。
さらに、無人航空機には、ユーザーとのインタラクティブなコミュニケーションを実現するための表情認識やジェスチャー解析機能を付加することができる。これにより、ユーザーが無人航空機に向けて行う身振りや表情を認識し、それに応じた動作を行うことが可能となる。
通信手段には、低遅延で高帯域の通信プロトコルを利用し、制御装置と無人航空機間のデータ転送をより迅速かつ安定に行うことができる。この高度な通信技術により、システムはリアルタイムでの情報交換を行い、遅延のない精密な飛行制御を実現することが可能となる。
このような機能の追加により、本発明のシステムはユーザーの感情や意図をより深く理解し、無人航空機を用いてより高度で柔軟なサービスを提供することが可能となる。ユーザーとシステムの相互作用は、より直感的でリッチな経験をもたらし、ユーザーが求めるタスクをより効率的かつ安全に遂行することを助ける。
制御装置に搭載された生成AIには、ユーザーの指示に対する応答速度を向上させるための予測機能が追加されることができる。この機能は、ユーザーの指示パターンや習慣を分析して、次に発せられるであろうコマンドを予測し、無人航空機が即座に対応できるようにする。無人航空機はユーザーの意図を先読みして動作を開始することで、反応時間を短縮し、より流動的な操作を実現する。
無人航空機の飛行プログラムには、複数の無人航空機が協調して動作するためのスウォームインテリジェンス機能が組み込まれることもできる。この機能により、無人航空機は群れを成して効率的にエリアをカバーし、ユーザーの指示に基づいた複雑なタスクも分担して行うことができる。
感情エンジンについては、ユーザーの感情に応じて無人航空機の照明や音を制御する機能を追加することができる。例えば、ユーザーがリラックスしている際には、無人航空機から柔らかい照明や穏やかな音楽を再生することで、周囲の雰囲気をより心地よいものにする。
また、無人航空機には、ユーザーの指示を視覚的に伝えるためのプロジェクションマッピング機能を搭載することができる。これにより、無人航空機は地面や壁面に情報を投影し、ユーザーに対して直感的なフィードバックを提供する。
通信手段には、人工衛星通信を活用したグローバルな通信ネットワークとの連携機能が追加されることもできる。これにより、無人航空機は地球上のどこにいても制御装置からの指令を受け取り、広範囲にわたるタスクに対応できる。
無人航空機のセンサーアレイには、環境モニタリング機能が追加され、大気汚染や温室効果ガスの濃度を測定し、リアルタイムでデータを制御装置に送信することができる。これにより、システムは環境監視の一環としても活用される。
これらの追加機能により、本発明のシステムはユーザーの感情や意図を反映した無人航空機の操作をさらに高度に行い、多種多様な応用シナリオに適応する。ユーザーは、より快適で満足のいく経験を得ることができ、システムの使い勝手も大幅に向上する。
(形態例3)
本発明を実施するための形態は、生成AIを搭載した制御装置と、複数の無人航空機と、感情エンジンとを含むシステムである。制御装置は、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段を備えている。感情エンジンは、ユーザの感情を認識する認識手段と、無人航空機の操作に反映する反映手段を有している。例えば、ユーザが驚いている場合には、無人航空機の飛行ルートを変更したり、カメラの視点を特定の対象に向けたりする。
生成手段は、データ処理装置12の特定処理部290によって実現され、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する。認識手段は、例えば、データ処理装置12の特定処理部290によって実現され、ユーザの感情を認識する。反映手段は、例えば、ロボット414の制御部46Aによって実現され、ユーザの感情に応じて無人航空機の操作を反映する。例えば、ユーザが驚いている場合には、無人航空機の飛行ルートを変更したり、カメラの視点を特定の対象に向けることができる。各手段と装置や制御部との対応関係は、上述した例に限定されず、種々の変更が可能である。
生成手段は、自然言語処理(NLP)技術を用いて、ユーザからの指示を解析する解析手段と、解析された指示に基づいて無人航空機の動作プログラムを作成するプログラム生成手段とを含む。また、生成手段は、ユーザの自然言語指示を解析し、無人航空機の動作プログラムを生成する機能が実現される機能を備える。また、生成手段は、データ処理装置やスマートデバイスにモジュール化されたソフトウェアコンポーネントとして統合されており、必要に応じてクラウドベースのサービスとしても提供される。解析手段は、音声認識技術によりユーザの発声をテキスト化し、意図解析機能により指示の目的や内容を把握する。また、解析手段は、ユーザの音声指示をテキストに変換し、その内容を理解するために音声認識技術と意図解析機能を利用する。プログラム生成手段は、解析されたユーザの指示に応じて、無人航空機の飛行経路、速度、高度、カメラ操作などの動作プログラムを自動生成する。また、プログラム生成手段は、解析された指示内容に基づいて、無人航空機の飛行経路やカメラ操作などの具体的な動作プログラムを自動的に作成する。このプロセスでは、無人航空機が安全に操作されるように、飛行安全規制や物理的な制約を考慮したアルゴリズムが用いられる。また、この生成過程では、無人航空機の安全な運用を確保するために、飛行安全規制を遵守し、物理的な制約を考慮したアルゴリズムが適用される。
認識手段は、ユーザの表情、声のトーン、言葉の選択などから感情を推定する感情分析機能を含む。また、感情エンジンにおいては、ユーザの感情をリアルタイムで捉えるための認識手段が備わっている。この機能は、機械学習により訓練された感情認識モデルを使用し、リアルタイムでユーザの感情状態を推定する。感情認識モデルは、大量の表情画像や音声データを分析し、特定の感情パターンを識別するために訓練されている。この認識手段は、ユーザの表情や声のトーン、言葉の選択から感情を推定する感情分析機能を有し、機械学習に基づく感情認識モデルを使用して、ユーザの感情状態を瞬時に推定する。このモデルは、豊富な表情画像や音声データを分析することで、様々な感情パターンを識別できるよう訓練されている。
反映手段は、認識されたユーザの感情に応じて無人航空機の操作を変更する操作変更機能を含む。例えば、ユーザが驚きの感情を示した場合、無人航空機の飛行経路を即座に変更することで、ユーザの関心がある対象にカメラを向けるなど、感情に応じた対応を行う。この機能は、無人航空機の動作プログラムをリアルタイムで調整し、ユーザの体験を向上させるためのものである。また、ユーザの感情が認識されると、反映手段がその感情を無人航空機の操作に反映させる。操作変更機能は、ユーザの感情に応じて、無人航空機の飛行経路の変更やカメラの視点調整など、感情に沿った対応を行う。この機能により、ユーザの体験が向上し、無人航空機の操作がよりダイナミックで魅力的なものになる。また、入力された感情データは、反映手段によって無人航空機の動作プログラムに反映される。この場合、感情認識にセンサー技術は必要なく、ユーザ主導の情報提供に基づいてシステムが動作する。また、ユーザが直接自らの感情状態を入力することで情報を提供する場合、これはセンサーによる感情認識を必要とせず、インターフェースを通じた手動入力によって行われる。入力された感情データは、ユーザ主導でシステムに提供され、無人航空機の動作プログラムに反映されることで、ユーザの意向に合わせた操作が可能になる。
本形態例のシステムには、さらなる機能拡張が可能である。無人航空機の群れを動的に制御し、複雑な空中ショーを実現する機能を追加することができる。これにより、イベントやエンターテインメント分野での利用が期待される。また、感情エンジンは、ユーザのストレスレベルを測定し、リラクゼーションを促進するために特定の飛行パターンや映像を提供する機能も備えている。ユーザがリラックスするための音楽や映像を同時に再生し、感情に基づいた全身のリラクゼーション体験を提供する。
さらに、制御装置には、ユーザの行動や環境変化を予測し、無人航空機の行動を先読みする予測手段も組み込むことができる。予測手段は、過去の飛行データや環境センサーからの情報を活用し、将来の飛行パターンを最適化する。これにより、無人航空機は状況に応じて自動的に飛行ルートを変更し、効率的な飛行を実現する。また、環境変化に応じた飛行ルートの自動調整機能を持つことで、突発的な気象変動や障害物の出現にも迅速に対応する。
制御装置と無人航空機の間の通信手段には、セキュリティ強化のために暗号化技術を採用する。これにより、外部からの不正アクセスを防ぎ、安全な通信を保証する。感情エンジンに関しては、ユーザの感情データを匿名化し、プライバシー保護を重視したデータ処理を行う。匿名化された感情データは、研究目的での利用や、より高度な感情認識モデルの開発に役立てられる。
無人航空機には、周囲の環境を3Dマッピングするセンサーを搭載し、リアルタイムでの環境認識能力を高める。3Dマッピングデータは、制御装置に送信され、飛行安全のための情報として活用される。また、このデータは、緊急時の救助活動や災害時の状況把握にも寄与する。
生成手段は、ユーザからのフィードバックを学習することで、無人航空機の動作プログラムを進化させる。この学習機能は、無人航空機のパフォーマンスを向上させ、より洗練された操作が可能となる。フィードバックに基づく学習機能は、ユーザの好みやニーズに合わせたカスタマイズを実現する。
最終的に、システムは、ユーザインタフェースの改善を図ることで、より直感的で使いやすい操作体験を提供する。インタフェースは、ユーザの操作履歴や好みに基づいて自動的に最適化され、無人航空機の操作を簡単にするためのガイドを提供する。これにより、あらゆる年齢層のユーザが、無人航空機をより快適に利用できるようになる。
無人航空機を用いたシステムには、さらに感情エンジンの能力を高める機能を追加することができる。例えば、ユーザの生体信号をリアルタイムで計測するセンサーを組み込み、心拍数や皮膚の電気抵抗などから感情の変化をより正確に把握することが可能となる。また、無人航空機のカメラがユーザの表情を撮影し、その映像データを感情エンジンが分析することで、ユーザの感情認識の精度を向上させることもできる。
制御装置の生成手段に関しては、複数のユーザからの指示を同時に処理し、それぞれの無人航空機に適切な動作プログラムを割り当てるマルチタスク処理機能を追加することができる。これにより、一つのイベントで複数のユーザが異なる要望を持つ場合でも、個々の要望に応じた無人航空機の操作が可能となる。さらに、無人航空機が持つセンサーからのデータを活用して、環境の変化を検知し、自動的に飛行プログラムを調整する環境適応機能を実装することも考えられる。これにより、無人航空機はより自律的に適切な行動を取ることができ、例えば、人が多く集まるイベントでは人を避ける動作や、特定の風景を撮影するために最適な角度を選択する動作が可能となる。
通信手段に関しては、無人航空機同士が情報を共有するネットワークを構築し、群れとしてのインテリジェントな動きを実現することが可能である。無人航空機がお互いの位置や状態をリアルタイムで把握し合い、協調して複数のタスクを効率的に遂行することができる。また、ユーザの指示に応じて無人航空機が形成するフォーメーションを柔軟に変更することで、ビジュアルアートや広告などの新しい用途が期待される。
感情エンジンには、ユーザの感情に応じた音楽や照明の自動調整機能を追加することもできる。ユーザが喜びを感じている際には明るく活動的な音楽と照明を、落ち着きを求めている際には穏やかな音楽と照明を提供することで、無人航空機を介した感情に応じた体験を強化する。さらに、無人航空機がユーザの健康やウェルネスをサポートするためのヘルスモニタリング機能を追加し、定期的な健康状態のチェックやリラクゼーションのためのアクティビティを提供することも考えられる。
これらの拡張により、無人航空機を利用したシステムは、エンターテインメントだけでなく、健康管理や個人のウェルネスの向上、緊急時の対応など、多岐にわたる分野での活用が期待される。また、ユーザインターフェースの改善により、より多くの人々が直感的に無人航空機を操作できるようになり、その利便性が広く認識されることとなる。
【0100】
以下に、各形態例の処理の流れについて説明する。
【0101】
(形態例1)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例2)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。
(形態例3)
ステップ1:制御装置は、自然言語の指示を受け取る。
ステップ2:AIによって解析された指示を基に、無人航空機の動作プログラムを生成する。
ステップ3:感情エンジンは、ユーザの感情を認識し、無人航空機の操作に反映する。
ステップ4:生成された動作プログラムと感情エンジンによって、無人航空機は指示に従って移動や回転などの操作を行う。例えば、ユーザが喜んでいる場合には、無人航空機はよりアグレッシブな動きをする。逆に、ユーザが怒っている場合には、無人航空機はより慎重な動きをする。
【0102】
特定処理部290は、特定処理の結果をロボット414に送信する。ロボット414では、制御部46Aが、スピーカ240及び制御対象443に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
【0103】
データ生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。特定処理部290は、データ生成モデル58を用いながら、上述した特定処理を行う。
【0104】
上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、ロボット414によって特定処理が行われるようにしてもよい。
【0105】
なお、感情エンジンとしての感情特定モデル59は、特定のマッピングに従い、ユーザの感情を決定してよい。具体的には、感情特定モデル59は、特定のマッピングである感情マップ(図9参照)に従い、ユーザの感情を決定してよい。また、感情特定モデル59は、同様に、ロボットの感情を決定し、特定処理部290は、ロボットの感情を用いた特定処理を行うようにしてもよい。
【0106】
図9は、複数の感情がマッピングされる感情マップ400を示す図である。感情マップ400において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。同心円の上方向及び下方向には、概して脳内で起きる反応から生成され、かつ、状況判断で誘導される感情が配置されている。また、同心円の上側には、「快」の感情が配置され、下側には、「不快」の感情が配置されている。このように、感情マップ400では、感情が生まれる構造に基づいて複数の感情がマッピングされており、同時に生じやすい感情が、近くにマッピングされている。
【0107】
これらの感情は、感情マップ400の3時の方向に分布しており、普段は安心と不安のあたりを行き来する。感情マップ400の右半分では、内部的な感覚よりも状況認識の方が優位に立つため、落ち着いた印象になる。
【0108】
感情マップ400の内側は心の中、感情マップ400の外側は行動を表すため、感情マップ400の外側に行くほど、感情が目に見える(行動に表れる)ようになる。
【0109】
ここで、人の感情は、姿勢や血糖値のような様々なバランスを基礎としており、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示す。ロボットや自動車やバイク等においても、姿勢やバッテリー残量のような様々なバランスを基礎として、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示すように感情を作ることができる。感情マップは、例えば、光吉博士の感情地図(音声感情認識及び情動の脳生理信号分析システムに関する研究、徳島大学、博士論文:https://ci.nii.ac.jp/naid/500000375379)に基づいて生成されてよい。感情地図の左半分には、感覚が優位にたつ「反応」と呼ばれる領域に属する感情が並ぶ。また、感情地図の右半分には、状況認識が優位にたつ「状況」と呼ばれる領域に属する感情が並ぶ。
【0110】
感情マップでは学習を促す感情が2つ定義される。1つは、状況側にあるネガティブな「懺悔」や「反省」の真ん中周辺の感情である。つまり、「もう2度とこんな想いはしたくない」「もう叱られたくない」というネガティブな感情がロボットに生じたときである。もう1つは、反応側にあるポジティブな「欲」のあたりの感情である。つまり、「もっと欲しい」「もっと知りたい」というポジティブな気持ちのときである。
【0111】
感情特定モデル59は、ユーザ入力を、予め学習されたニューラルネットワークに入力し、感情マップ400に示す各感情を示す感情値を取得し、ユーザの感情を決定する。このニューラルネットワークは、ユーザ入力と、感情マップ400に示す各感情を示す感情値との組み合わせである複数の学習データに基づいて予め学習されたものである。また、このニューラルネットワークは、図10に示す感情マップ900のように、近くに配置されている感情同士は、近い値を持つように学習される。図10では、「安心」、「安穏」、「心強い」という複数の感情が、近い感情値となる例を示している。
【0112】
上記実施形態では、1台のコンピュータ22によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、コンピュータ22を含めた複数のコンピュータによる特定処理に対する分散処理が行われるようにしてもよい。
【0113】
上記実施形態では、ストレージ32に特定処理プログラム56が格納されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、特定処理プログラム56がUSB(Universal Serial Bus)メモリなどの可搬型のコンピュータ読み取り可能な非一時的格納媒体に格納されていてもよい。非一時的格納媒体に格納されている特定処理プログラム56は、データ処理装置12のコンピュータ22にインストールされる。プロセッサ28は、特定処理プログラム56に従って特定処理を実行する。
【0114】
また、ネットワーク54を介してデータ処理装置12に接続されるサーバ等の格納装置に特定処理プログラム56を格納させておき、データ処理装置12の要求に応じて特定処理プログラム56がダウンロードされ、コンピュータ22にインストールされるようにしてもよい。
【0115】
なお、ネットワーク54を介してデータ処理装置12に接続されるサーバ等の格納装置に特定処理プログラム56の全てを格納させておいたり、ストレージ32に特定処理プログラム56の全てを記憶させたりしておく必要はなく、特定処理プログラム56の一部を格納させておいてもよい。
【0116】
特定処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、特定処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA(Field-Programmable Gate Array)、PLD(Programmable Logic Device)、又はASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで特定処理を実行する。
【0117】
特定処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、特定処理を実行するハードウェア資源は1つのプロセッサであってもよい。
【0118】
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、特定処理を実行するハードウェア資源として機能する形態がある。第2に、SoC(System-on-a-chip)などに代表されるように、特定処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、特定処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
【0119】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の特定処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
【0120】
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
【0121】
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
【0122】
以上の実施形態に関し、更に以下を開示する。
【0123】
(付記1)
生成AIを利用して複数の無人航空機を同時に制御するためのシステムであり、自然言語の指示をAIが理解し、動作プログラムを生成して無人航空機の操作を行う手段と、を含むシステム。
(付記2)
付記1に記載のシステムであり、無人航空機の操作を簡単に行うことができる手段と、を含むシステム。
(付記3)
付記1に記載のシステムであり、農業分野や発電所の点検などでの作業時間の短縮や人員の安全向上が可能な手段と、を含むシステム。
【0124】
(付記1)
生成AIを利用して複数の無人航空機を同時に制御するためのシステムであり、自然言語の指示をAIが理解し、動作プログラムを生成して無人航空機の操作を行う手段と、感情エンジンを含むシステム。
(付記2)
付記1に記載のシステムであり、感情エンジンは、ユーザの発話や表情などから感情を認識し、無人航空機の操作に反映する手段として機能する。
(付記3)
付記1または2に記載のシステムであり、感情エンジンは、ユーザの感情に応じて無人航空機の飛行速度や高度、カメラの視点などを調整する手段として機能する。
【符号の説明】
【0125】
10、210、310、410 データ処理システム
12 データ処理装置
14 スマートデバイス
214 スマート眼鏡
314 ヘッドセット型端末
414 ロボット
【要約】
【課題】本発明が解決しようとする課題は、複数の無人航空機を同時に制御するための操作を簡単かつ効率的に行うことである。
【解決手段】生成AIを利用して複数の無人航空機を同時に制御するためのシステムであり、自然言語の指示を受け取り、AIによって解析された後、無人航空機の動作プログラムを生成する生成手段、を含むシステム。
【選択図】図1
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10