IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

特開2022-175900情報処理装置、情報処理方法、およびプログラム
<>
  • 特開-情報処理装置、情報処理方法、およびプログラム 図1
  • 特開-情報処理装置、情報処理方法、およびプログラム 図2
  • 特開-情報処理装置、情報処理方法、およびプログラム 図3
  • 特開-情報処理装置、情報処理方法、およびプログラム 図4
  • 特開-情報処理装置、情報処理方法、およびプログラム 図5
  • 特開-情報処理装置、情報処理方法、およびプログラム 図6
  • 特開-情報処理装置、情報処理方法、およびプログラム 図7
  • 特開-情報処理装置、情報処理方法、およびプログラム 図8
  • 特開-情報処理装置、情報処理方法、およびプログラム 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022175900
(43)【公開日】2022-11-25
(54)【発明の名称】情報処理装置、情報処理方法、およびプログラム
(51)【国際特許分類】
   G06T 7/70 20170101AFI20221117BHJP
【FI】
G06T7/70 A
【審査請求】未請求
【請求項の数】13
【出願形態】OL
(21)【出願番号】P 2021082675
(22)【出願日】2021-05-14
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】110001357
【氏名又は名称】弁理士法人つばさ国際特許事務所
(72)【発明者】
【氏名】田中 裕崇
(72)【発明者】
【氏名】豊浦 雅貴
(72)【発明者】
【氏名】山本 こず恵
(72)【発明者】
【氏名】淺海 美哉
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA02
5L096AA06
5L096AA09
5L096CA02
5L096CA18
5L096DA02
5L096EA37
5L096FA53
5L096FA69
5L096FA81
5L096MA07
(57)【要約】
【課題】自己位置推定の際の誤認識を抑制すると共に、計算負荷を低減することを可能にする。
【解決手段】本開示の情報処理装置は、第1のセンサからの出力データに基づいて、第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出する検出処理部と、物体検出領域内における第1の領域を除外した第2の領域に相当する出力データに基づいて、自己位置推定および環境地図作成を行うデータ処理部とを備える。
【選択図】図1
【特許請求の範囲】
【請求項1】
第1のセンサからの出力データに基づいて、前記第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出する検出処理部と、
前記物体検出領域内における前記第1の領域を除外した第2の領域に相当する前記出力データに基づいて、自己位置推定および環境地図作成を行うデータ処理部と
を備える
情報処理装置。
【請求項2】
前記検出処理部は、前記物体検出領域のうち動物体が存在する領域を前記第1の領域として検出する
請求項1に記載の情報処理装置。
【請求項3】
前記第1の領域に相当する前記出力データに基づいて、前記動物体を追跡するための演算および判断を行う追跡部、をさらに備える
請求項2に記載の情報処理装置。
【請求項4】
前記検出処理部は、速度情報に基づいて前記動物体が存在する領域を検出する
請求項2に記載の情報処理装置。
【請求項5】
前記第1のセンサは、前記出力データとして画像データを出力可能なイメージセンサであり、
前記検出処理部は、前記画像データをオプティカルフロー解析することによって前記速度情報を算出する
請求項4に記載の情報処理装置。
【請求項6】
前記第1のセンサは、前記速度情報を出力可能なLiDAR(Light Detection And Ranging)センサである
請求項4に記載の情報処理装置。
【請求項7】
前記検出処理部は、前記速度情報を第2のセンサから取得する
請求項4に記載の情報処理装置。
【請求項8】
前記検出処理部は、物体検出に基づいて前記動物体が存在する領域を検出する
請求項2に記載の情報処理装置。
【請求項9】
前記検出処理部は、前記物体検出領域内において検出された物体を少なくとも1つのクラスタにクラスタリングするクラスタ処理部を含み、前記クラスタ処理部によって生成された前記クラスタごとに、前記第1の領域であるか否かを判断する
請求項1に記載の情報処理装置。
【請求項10】
前記検出処理部は、前記クラスタ処理部によるクラスタリングを行うのに十分なデータが得られなかった領域については前記クラスタの生成を行わない
請求項9に記載の情報処理装置。
【請求項11】
前記情報処理装置は、移動体に設けられる
請求項1に記載の情報処理装置。
【請求項12】
第1のセンサからの出力データに基づいて、前記第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出することと、
前記物体検出領域内における前記第1の領域を除外した第2の領域に相当する前記出力データに基づいて、自己位置推定および環境地図作成を行うことと
を含む
情報処理方法。
【請求項13】
第1のセンサからの出力データに基づいて、前記第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出することと、
前記物体検出領域内における前記第1の領域を除外した第2の領域に相当する前記出力データに基づいて、自己位置推定および環境地図作成を行うことと
を含む処理をコンピュータに実行させる
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、自己位置推定を行う情報処理装置、情報処理方法、およびプログラムに関する。
【背景技術】
【0002】
ロボットや自動車等の自己位置推定を行う技術としてSLAM(Simultaneous Localization and Mapping)がある。SLAMでは、イメージセンサやLiDAR(Light Detection And Ranging)センサからの出力データに基づいて、ロボット等の自己位置推定と環境地図作成とを行う。一方、センサからの出力データに基づいて、動物体の追跡(トラッキング)を行う技術がある(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2019-211831号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
例えば動物体が存在する環境下においてSLAMを行うと、ドリフトと呼ばれる自己位置推定の誤認識が発生し得る。また、計算負荷が大きくなり得る。
【0005】
自己位置推定の際の誤認識を抑制すると共に、計算負荷を低減することが可能な情報処理装置、情報処理方法、およびプログラムを提供することが望ましい。
【課題を解決するための手段】
【0006】
本開示の一実施の形態に係る情報処理装置は、第1のセンサからの出力データに基づいて、第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出する検出処理部と、物体検出領域内における第1の領域を除外した第2の領域に相当する出力データに基づいて、自己位置推定および環境地図作成を行うデータ処理部とを備える。
【0007】
本開示の一実施の形態に係る情報処理方法は、第1のセンサからの出力データに基づいて、第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出することと、物体検出領域内における第1の領域を除外した第2の領域に相当する出力データに基づいて、自己位置推定および環境地図作成を行うこととを含む。
【0008】
本開示の一実施の形態に係るプログラムは、第1のセンサからの出力データに基づいて、第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出することと、物体検出領域内における第1の領域を除外した第2の領域に相当する出力データに基づいて、自己位置推定および環境地図作成を行うこととを含む処理をコンピュータに実行させる。
【0009】
本開示の一実施の形態に係る情報処理装置、情報処理方法、またはプログラムでは、第1のセンサからの出力データに基づいて、第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出し、物体検出領域内における第1の領域を除外した第2の領域に相当する出力データに基づいて、自己位置推定および環境地図作成を行う。
【図面の簡単な説明】
【0010】
図1】本開示の第1の実施の形態に係る情報処理装置の一構成例を示すブロック図である。
図2】第1の実施の形態に係る情報処理装置の第1の適用例を示すブロック図である。
図3】第1の実施の形態に係る情報処理装置の第2の適用例を示すブロック図である。
図4】第1の実施の形態に係る情報処理装置におけるSLAMを行う領域(SLAM領域)と動物体の追跡を行う領域(追跡領域)との一例を模式的に示す説明図である。
図5】第1の実施の形態に係る情報処理装置においてSLAMと動物体の追跡とを行う際の処理動作の流れの一例を示すフローチャートである。
図6図5に続くフローチャートである。
図7】第1の実施の形態の変形例1に係る情報処理装置の一構成例を示すブロック図である。
図8】第1の実施の形態の変形例2に係る情報処理装置の一構成例を示すブロック図である。
図9】第1の実施の形態の変形例3に係る情報処理装置の一構成例を示すブロック図である。
【発明を実施するための形態】
【0011】
以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(図1図9
1.0 比較例
1.1 構成
1.2 動作
1.3 変形例
1.4 効果
2.その他の実施の形態
【0012】
<1.第1の実施の形態>
[1.0 比較例]
通常、SLAMと動物体の追跡(トラッキング)とを同時に行う場合、SLAMのためのセンサと動物体の追跡を行うためのセンサは別々に設けられ、また、データ処理も別々に行われる。例えば、カメラを搭載したドローン等の移動体において、ステージ上で演じている前方のアーティストを撮影しつつ、左右および後方の障害物を回避したい場合、1台のカメラのみではSLAMと動物体としてのアーティストの追跡とを同時に実行することが困難である。また、SLAMのための撮影と動物体の追跡のための撮影とでは、撮影の方向および範囲が異なる場合がある。このため、一般に、移動体にはSLAM専用のカメラと追跡専用のカメラとを搭載していることが多い。複数台のカメラを用いてSLAMと動物体の追跡とを行う場合、各カメラの使い分けは、移動体の設計者やユーザが判断する。なお、本実施の形態において、「追跡」とは、現実世界で動物体を追跡する行為を意味する。SLAMの内部演算でも、画素ごと、またはフレームごとの追跡を行うが、これは演算の中だけの追跡を指しており、現実世界で動物体を追跡する行為とは異なるものである。
【0013】
一方、動物体を撮影することにより得られた画像ピクセルや点群情報は、SLAMには適さない。一般にSLAMの演算は、絶対座標ではなく相対座標を基準にして行うため、実際には移動していないにもかかわらず、自己位置が動いたと錯覚してしまう。このため、動物体が存在する環境下においてSLAMを行うと、ドリフトと呼ばれる自己位置推定の誤認識が発生し得る。また、計算負荷が大きくなり得る。従って、一般に動物体を追跡しながらのSLAMを行うことは難しい。
【0014】
そこで、本実施の形態では、動物体を除外しながらSLAMすることで、自己位置推定の際の誤認識を抑制すると共に、計算負荷を低減することが可能な技術を提供する。さらに、SLAMを行いつつ、動物体を追跡することが可能な技術を提供する。
【0015】
[1.1 構成]
図1は、本開示の第1の実施の形態に係る情報処理装置100の一構成例を示している。図2は、第1の実施の形態に係る情報処理装置100の第1の適用例を示している。図3は、第1の実施の形態に係る情報処理装置100の第2の適用例を示している。
【0016】
第1の実施の形態に係る情報処理装置100は、移動体200に適用され得る。移動体200は、図2および図3に示したように、例えば雲台34によって姿勢制御可能なカメラ1と、移動体200を移動させることが可能な移動機構24とを備えている。情報処理装置100は、図2に示したように移動体200自体に設けられていてもよいし、図3に示したように移動体200の外部に設けられていてもよい。移動体200の外部に情報処理装置100を設けた場合、移動体200との間で有線または無線によって通信が可能に構成される。情報処理装置100が適用される移動体200としては、例えば、ロボット、ドローン、およびAGV(Automated Guided Vehicle)の他、ADAS(Advanced Driver Assistance System)を備えた車両等が挙げられる。
なお、本開示の技術は、移動体200に限らず、移動しない各種機器にも適用され得る。例えば、工場における組み立てロボット等にも適用され得る。
【0017】
情報処理装置100は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAMを備えたコンピュータで構成されてもよい。この場合、情報処理装置100による各種の処理は、ROMまたはRAMに記憶されたプログラムに基づく処理をCPUが実行することで実現し得る。また、情報処理装置100による各種の処理は、例えば有線または無線によるネットワークにより外部から供給されたプログラムに基づく処理をCPUが実行することで実現してもよい。
【0018】
情報処理装置100は、検出処理部10と、SLAM実行部21と、経路計画部22と、行動制御部23と、オブジェクトトラッカー31と、雲台計画部32と、雲台制御部33と、ユーザ入力部41とを備えている。
【0019】
カメラ1は、本開示の技術における「第1のセンサ」の一具体例に相当する。カメラ1は、出力データとして画像データを出力可能なイメージセンサである。カメラ1は、画像データとして、例えばR(赤),G(緑),B(青)の各色の画像データを含むRGB画像データを出力する。
【0020】
検出処理部10は、特徴点抽出部11と、物体検出部12と、クラスタ処理部13と、SLAM制御部20と、トラッカー制御部30とを有する。
【0021】
検出処理部10は、カメラ1からの画像データに基づいて、カメラ1によって検出された物体検出領域内における、移動体200のSLAM(自己位置推定および環境地図作成)に適さない第1の領域として、SLAM除外領域を検出する。
【0022】
図4は、カメラ1によって検出された物体検出領域内における、SLAMを行う領域(SLAM領域52)と動物体50の追跡を行う領域(追跡領域51)との一例を模式的に示している。
【0023】
第1の実施の形態では、図4に示したように、カメラ1によって検出された物体検出領域内におけるSLAM除外領域を、オブジェクトトラッカー31による動物体50の追跡領域51として使用可能となっている。検出処理部10は、物体検出領域のうち動物体50が存在する領域をSLAM除外領域(追跡領域51)として検出するようにしてもよい。検出処理部10は、速度情報に基づいて動物体50が存在する領域を検出するようにしてもよい。検出処理部10は、画像データを特徴点抽出部11においてオプティカルフロー解析することによって速度情報を算出するようにしてもよい。
【0024】
また、検出処理部10は、形状認識等による物体検出に基づいて動物体50が存在する領域を検出するようにしてもよい。例えば、動物体50と推定される形状(人の顔や関節等)の形状が認識された領域を動物体50が存在する領域として検出するようにしてもよい。また、形状に限らず、模様等の特徴量に基づいて動物体50が存在する領域を検出するようにしてもよい。
【0025】
また、検出処理部10は、クラスタ処理部13によって生成されたクラスタごとに、SLAM除外領域であるか否かを判断するようにしてもよい。検出処理部10は、クラスタ処理部13によるクラスタリングを行うのに十分なデータが得られなかった領域についてはクラスタ処理部13によるクラスタの生成を行わないようにしてもよい。例えば、カメラ1からの画像データのピクセル数が少なかったりノイズが多い等、信頼度が低い領域についてはクラスタの生成を行わないようにしてもよい。また、後述する変形例(図7図9)に示すようにミリ波レーダ2やLiDAR(Light Detection And Ranging)センサを用いて点群情報を取得する場合において、十分な数の点群が得られなかった場合等、点群情報の信頼度が低い領域についてはクラスタの生成を行わないようにしてもよい。この場合、クラスタの生成が行われなかった領域については、オブジェクトトラッカー31による動物体50を追跡するための演算および判断の処理、およびSLAM実行部21によるSLAMの実行を共に行わないようにしてもよい。
【0026】
特徴点抽出部11は、カメラ1からの画像データに基づいて、カメラ1によって検出された物体検出領域内における物体の特徴点の抽出とオプティカルフロー解析とを行い、特徴点の情報と速度情報とを出力する。
【0027】
物体検出部12は、カメラ1からの画像データに基づいて、カメラ1によって検出された物体検出領域内における物体を検出し、物体の種別や構成を示す種別構成情報を出力する。
【0028】
クラスタ処理部13は、特徴点抽出部11からの特徴点の情報および速度情報と、物体検出部12からの種別構成情報とに基づいて、物体検出領域内において検出された物体を少なくとも1つのクラスタにクラスタリング(グループ化)し、特徴点および速度を持つクラスタ情報を出力する。
【0029】
SLAM制御部20は、クラスタ処理部13からのクラスタ情報に基づいてSLAM実行部21によるSLAMの実行を制御する。
【0030】
SLAM実行部21は、本開示の技術における「データ処理部」の一具体例に相当する。SLAM実行部21は、カメラ1からのR,G,Bの各色の画像を統合し、SLAM制御部20の制御に従ってSLAMを実行する。SLAM実行部21は、物体検出領域内におけるSLAM除外領域を除外した第2の領域としてのSLAM領域52に相当するカメラ1からの画像データに基づいて、移動体200の自己位置推定および環境地図作成を行い、移動体200の自己位置の情報および環境地図の情報を出力する。
【0031】
トラッカー制御部30は、カメラ1からのR,G,Bの各色の画像を統合し、クラスタ処理部13からのクラスタ情報に基づいてオブジェクトトラッカー31による追跡するための演算および判断の処理を制御する。
【0032】
オブジェクトトラッカー31は、本開示の技術における「追跡部」の一具体例に相当する。オブジェクトトラッカー31は、トラッカー制御部30の制御に従って動物体50を追跡するための演算および判断を行い、追跡対象である動物体50の位置の情報を出力する。オブジェクトトラッカー31は、SLAM除外領域に相当するカメラ1からの画像データに基づいて、動物体50を追跡するための演算および判断を行う。オブジェクトトラッカー31は、複数、設けられていてもよい。複数のオブジェクトトラッカー31によって複数の動物体50を追跡するための演算および判断を行うようにしてもよい。
【0033】
ユーザ入力部41は、ユーザによる経路の指示と追跡対象の指示とを受け付ける。ユーザ入力部41は、ユーザによる経路の指示を経路計画部22に出力する。ユーザ入力部41は、ユーザによる追跡対象の指示を雲台計画部32に出力する。ユーザによる追跡対象の指示は、例えば移動体200の一番近くにある動物体50を追跡対象にしたり、アーティストの撮影等を行う場合において撮影監督の意図する構図となるように動物体50を追跡対象とすることなどが考えられる。
【0034】
経路計画部22は、ユーザによる経路の指示と、SLAM実行部21からの自己位置の情報および環境地図の情報とに基づいて、移動体200の行動計画を行う。
【0035】
行動制御部23は、経路計画部22による行動計画に基づいて、移動体200の移動機構24を制御することによって、移動体200の行動を制御する。
【0036】
雲台計画部32は、ユーザによる追跡対象の指示と、オブジェクトトラッカー31からの追跡対象の位置の情報とに基づいて、雲台34の姿勢制御の計画を行う。
【0037】
雲台制御部33は、雲台計画部32による雲台34の姿勢制御の計画に基づいて、雲台34を姿勢制御する。
【0038】
[1.2 動作]
図5は、第1の実施の形態に係る情報処理装置100においてSLAMと動物体50の追跡とを行う際の処理動作の流れの一例を示すフローチャートである。図6は、図5に続くフローチャートである。
【0039】
まず、検出処理部10は、クラスタ処理部13によって生成されるクラスタCxを判別するためのパラメータxを1(x=1)とする(ステップS11)。次に、検出処理部10は、カメラ1によって検出された物体検出領域内の全体の特徴点を抽出する(ステップS12)。次に、検出処理部10は、抽出した特徴点の数Nをカウントする(ステップS13)。
【0040】
次に、検出処理部10は、特徴点の数Nが所定の閾値N_thを超えた(N_th>N)か否かを判断する(ステップS14)。なお、特徴点の数Nだけでなく、一般に画像認識の技術で用いられるスコア(Confidence)の値を用いてもよい。これにより、例えば、動物体として人の認識を行う場合、「人の顔らしさのスコア」が検出されたか否かを判断してもよい。検出処理部10は、特徴点の数Nが所定の閾値N_thを超えていないと判断した場合(ステップS14;N)、次に、ステップS12の処理に戻る。一方、特徴点の数Nが所定の閾値N_thを超えたと判断した場合(ステップS14;Y)、次に、検出処理部10は、特徴点抽出部11によって全体のオプティカルフローを解析する(ステップS15)。次に、検出処理部10は、特徴点抽出部11によって特徴点の速度情報として速度ベクトルを計算する(ステップS16)。なお、後述する変形例(図7図9)に示すようにミリ波レーダ2やLiDARセンサを用いる場合には、ミリ波レーダ2やLiDARセンサから直接、特徴点の速度情報を取得可能となるため、オプティカルフロー解析は不要となる。
【0041】
次に、検出処理部10は、全体の物体検出を実行する(ステップS17)。次に、検出処理部10は、検出した物体ごとに物体領域をクラスタリングする(ステップS18)。なお、クラスタリングを行うのに十分なデータが得られなかった領域については、クラスタ処理部13によるクラスタの生成を行わないようにしてもよい。次に、検出処理部10は、クラスタの合計個数をzとする(ステップS19)。以降、情報処理装置100は、SLAMの処理と動物体50の追跡処理とを同時並列的に行う。
【0042】
次に、トラッカー制御部30は、クラスタCxが追跡対象のクラスタか否かを判断する(ステップS20)。また、これと並行して、SLAM制御部20は、クラスタCxがSLAMに適したクラスタか否かを判断する(ステップS21)。
【0043】
ステップS21において、クラスタCxがSLAMに適したクラスタではないと判断した場合(ステップS21;N)、次に、SLAM制御部20は、ステップS28の処理に移行する。一方、SLAM制御部20は、クラスタCxがSLAMに適したクラスタであると判断した場合(ステップS21;Y)、次に、SLAM対象領域を集約(ステップS22)した後、ステップS28の処理に移行する。
【0044】
また、ステップS20において、クラスタCxが追跡対象のクラスタではないと判断した場合(ステップS20;N)、次に、トラッカー制御部30は、ステップS28の処理に移行する。一方、トラッカー制御部30は、クラスタCxが追跡対象のクラスタであると判断した場合(ステップS20;Y)、次に、クラスタCxが既に追跡中のクラスタか否かを判断する(ステップS23)。
【0045】
ステップS23において、クラスタCxが既に追跡中のクラスタであると判断した場合(ステップS23;Y)、次に、トラッカー制御部30は、オブジェクトトラッカー31を更新(ステップS24)した後、ステップS26の処理に移行する。一方、クラスタCxが既に追跡中(トラッキング中)のクラスタではないと判断した場合(ステップS23;N)、次に、トラッカー制御部30は、あらたなオブジェクトトラッカー31を起動(ステップS25)した後、ステップS26の処理に移行する。
【0046】
ステップS26では、検出処理部10は、クラスタCxを判別するためのパラメータxを+1(x=x+1)とする。次に、検出処理部10は、パラメータxがクラスタの合計個数z以上(x≧z)になったか否かを判断する(ステップS27)。検出処理部10は、パラメータxがクラスタの合計個数z以上になったと判断した場合(ステップS27;Y)、ステップS28の処理に移行した後、処理を終了する。一方、検出処理部10は、パラメータxがクラスタの合計個数z以上になっていないと判断した場合(ステップS27;N)、ステップS20,S21の処理に戻る。ステップS28では、SLAM実行部21は、SLAM対象領域について、SLAM制御部20の制御に従ってSLAMを実行する。
【0047】
[1.3 変形例]
(変形例1)
図7は、第1の実施の形態の変形例1に係る情報処理装置100Aの一構成例を示している。
【0048】
変形例1に係る情報処理装置100Aは、移動体200が第1のセンサとしてのカメラ1と第2のセンサとしてのミリ波レーダ2とを備えた構成である場合に適用され得る。情報処理装置100Aには、カメラ1からの出力データとミリ波レーダ2からの出力データとが入力される。ミリ波レーダ2からの出力データには、速度情報と点群データとが含まれている。このため、情報処理装置100Aにおける検出処理部10Aでは、速度情報を算出するための特徴点抽出部11が構成から省かれている。クラスタ処理部13には、ミリ波レーダ2からの出力データに含まれる速度情報と点群データとが入力される。クラスタ処理部13は、ミリ波レーダ2からの出力データに含まれる速度情報および点群データと、物体検出部12からの種別構成情報とに基づいて、カメラ1によって検出された物体検出領域内において検出された物体を少なくとも1つのクラスタにクラスタリング(グループ化)し、速度を持つクラスタ情報を出力する。
【0049】
(変形例2)
図8は、第1の実施の形態の変形例2に係る情報処理装置100Bの一構成例を示している。
【0050】
変形例2に係る情報処理装置100Bは、移動体200がカメラ1に代えてFMCW(Frequency Modulated Continuous Wave)-LiDAR3を備えた構成である場合に適用され得る。情報処理装置100Bには、FMCW-LiDAR3からの出力データが入力される。FMCW-LiDAR3からの出力データには、速度情報と点群データとが含まれている。このため、情報処理装置100Bにおける検出処理部10Bでは、速度情報を算出するための特徴点抽出部11が構成から省かれている。物体検出部12は、FMCW-LiDAR3からの出力データに基づいて、出力データによって検出された物体検出領域内における物体を検出し、物体の種別や構成を示す種別構成情報を出力する。クラスタ処理部13には、FMCW-LiDAR3からの出力データに含まれる速度情報と点群データとが入力される。クラスタ処理部13は、FMCW-LiDAR3からの出力データに含まれる速度情報および点群データと、物体検出部12からの種別構成情報とに基づいて、FMCW-LiDAR3によって検出された物体検出領域内において検出された物体を少なくとも1つのクラスタにクラスタリング(グループ化)し、速度を持つクラスタ情報を出力する。
【0051】
(変形例3)
図9は、第1の実施の形態の変形例3に係る情報処理装置100Cの一構成例を示している。
【0052】
変形例3に係る情報処理装置100Cは、移動体200が第1のセンサとしてカメラ1に代えてToF(Time of Flight)方式LiDAR4を備え、さらに第2のセンサとしてミリ波レーダ2を備えた構成である場合に適用され得る。情報処理装置100Cには、ToF方式LiDAR4からの出力データとミリ波レーダ2からの出力データとが入力される。ミリ波レーダ2からの出力データには、速度情報と点群データとが含まれている。このため、情報処理装置100Cにおける検出処理部10Cでは、速度情報を算出するための特徴点抽出部11が構成から省かれている。物体検出部12は、ToF方式LiDAR4からの出力データに基づいて、出力データによって検出された物体検出領域内における物体を検出し、物体の種別や構成を示す種別構成情報を出力する。クラスタ処理部13には、ミリ波レーダ2からの出力データに含まれる速度情報と点群データとが入力される。クラスタ処理部13は、ミリ波レーダ2からの出力データに含まれる速度情報および点群データと、物体検出部12からの種別構成情報とに基づいて、ToF方式LiDAR4によって検出された物体検出領域内において検出された物体を少なくとも1つのクラスタにクラスタリング(グループ化)し、速度を持つクラスタ情報を出力する。
【0053】
[1.4 効果]
以上説明したように、第1の実施の形態に係る情報処理装置100によれば、移動体200の自己位置推定および環境地図作成に適さない第1の領域(SLAM除外領域)を検出し、物体検出領域内における第1の領域を除外した第2の領域(SLAM領域52)に相当する出力データに基づいて、移動体200の自己位置推定および環境地図作成を行う。これにより、例えば動物体50が存在する環境下においても、移動体200の自己位置推定の際の誤認識を抑制することが可能となると共に、計算負荷を低減することが可能となる。
【0054】
また、第1の実施の形態に係る情報処理装置100によれば、動物体50が存在する場合には、SLAM除外領域を動物体50の追跡を行う領域(追跡領域51)として用いることで、SLAMを行いつつ、動物体50を追跡することが可能となる。これにより、例えば動く物体かつ大きな物体のみを追跡対象として追跡し、それ以外は追跡する必要がないと見なしてSLAMを行わない、といった判断をユーザ自身で行わずに自動化することが可能となる。このようなユーザの判断が必要なくなるため、省人化に貢献できる。また、SLAMと動物体50の追跡とを少なくとも1つのセンサのみで実施可能であるため、移動体200のコスト削減と省電力化に貢献できる。
【0055】
また、第1の実施の形態に係る情報処理装置100を、移動体200としてドローンやAGVに適用した場合には、例えば、ステージ上のアーティストの自動撮影と自動追尾とが可能となる。また、移動体200としてADAS(自動運転システム)に適用した場合には、例えば、人の判断ミスを未然に減らすことができる。
【0056】
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。以降の他の実施の形態の効果についても同様である。
【0057】
<2.その他の実施の形態>
本開示による技術は、上記実施の形態の説明に限定されず種々の変形実施が可能である。
【0058】
例えば、本技術は以下のような構成を取ることもできる。
以下の構成の本技術によれば、自己位置推定および環境地図作成に適さない第1の領域を検出し、物体検出領域内における第1の領域を除外した第2の領域に相当する出力データに基づいて、自己位置推定および環境地図作成を行う。
これにより、自己位置推定の際の誤認識を抑制すると共に、計算負荷を低減することが可能となる。
【0059】
(1)
第1のセンサからの出力データに基づいて、前記第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出する検出処理部と、
前記物体検出領域内における前記第1の領域を除外した第2の領域に相当する前記出力データに基づいて、自己位置推定および環境地図作成を行うデータ処理部と
を備える
情報処理装置。
(2)
前記検出処理部は、前記物体検出領域のうち動物体が存在する領域を前記第1の領域として検出する
上記(1)に記載の情報処理装置。
(3)
前記第1の領域に相当する前記出力データに基づいて、前記動物体を追跡するための演算および判断を行う追跡部、をさらに備える
上記(2)に記載の情報処理装置。
(4)
前記検出処理部は、速度情報に基づいて前記動物体が存在する領域を検出する
上記(2)または(3)に記載の情報処理装置。
(5)
前記第1のセンサは、前記出力データとして画像データを出力可能なイメージセンサであり、
前記検出処理部は、前記画像データをオプティカルフロー解析することによって前記速度情報を算出する
上記(4)に記載の情報処理装置。
(6)
前記第1のセンサは、前記速度情報を出力可能なLiDAR(Light Detection And Ranging)センサである
上記(4)に記載の情報処理装置。
(7)
前記検出処理部は、前記速度情報を第2のセンサから取得する
上記(4)に記載の情報処理装置。
(8)
前記検出処理部は、物体検出に基づいて前記動物体が存在する領域を検出する
上記(2)または(3)に記載の情報処理装置。
(9)
前記検出処理部は、前記物体検出領域内において検出された物体を少なくとも1つのクラスタにクラスタリングするクラスタ処理部を含み、前記クラスタ処理部によって生成された前記クラスタごとに、前記第1の領域であるか否かを判断する
上記(1)ないし(8)のいずれか1つに記載の情報処理装置。
(10)
前記検出処理部は、前記クラスタ処理部によるクラスタリングを行うのに十分なデータが得られなかった領域については前記クラスタの生成を行わない
上記(9)に記載の情報処理装置。
(11)
前記情報処理装置は、移動体に設けられる
上記(1)ないし(10)のいずれか1つに記載の情報処理装置。
(12)
第1のセンサからの出力データに基づいて、前記第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出することと、
前記物体検出領域内における前記第1の領域を除外した第2の領域に相当する前記出力データに基づいて、自己位置推定および環境地図作成を行うことと
を含む
情報処理方法。
(13)
第1のセンサからの出力データに基づいて、前記第1のセンサによって検出された物体検出領域内における、自己位置推定および環境地図作成に適さない第1の領域を検出することと、
前記物体検出領域内における前記第1の領域を除外した第2の領域に相当する前記出力データに基づいて、自己位置推定および環境地図作成を行うことと
を含む処理をコンピュータに実行させる
プログラム。
【符号の説明】
【0060】
1…カメラ(第1のセンサ)、2…ミリ波レーダ(第2のセンサ)、3…FMCW(Frequency Modulated Continuous Wave)-LiDAR(Light Detection And Ranging)(第1のセンサ)、4…ToF(Time of Flight)方式LiDAR(第1のセンサ)、10,10A,10B,10C…検出処理部、11…特徴点抽出部、12…物体検出部、13…クラスタ処理部、20…SLAM制御部、21…SLAM(Simultaneous Localization and Mapping)実行部(データ処理部)、22…経路計画部、23…行動制御部、24…移動機構、30…トラッカー制御部、31…オブジェクトトラッカー(追跡部)、32…雲台計画部、33…雲台制御部、34…雲台、41…ユーザ入力部、50…動物体、51…追跡領域(第1の領域、SLAM除外領域)、52…SLAM領域(第2の領域)、100,100A,100B,100C…情報処理装置、200…移動体。
図1
図2
図3
図4
図5
図6
図7
図8
図9