IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ディスペース デジタル シグナル プロセッシング アンド コントロール エンジニアリング ゲゼルシャフト ミット ベシュレンクテル ハフツングの特許一覧

特許7542063オブジェクトのアノテーションに数値を対応付けるためのコンピュータ実装方法およびシステム
<>
  • 特許-オブジェクトのアノテーションに数値を対応付けるためのコンピュータ実装方法およびシステム 図1
  • 特許-オブジェクトのアノテーションに数値を対応付けるためのコンピュータ実装方法およびシステム 図2
  • 特許-オブジェクトのアノテーションに数値を対応付けるためのコンピュータ実装方法およびシステム 図3
  • 特許-オブジェクトのアノテーションに数値を対応付けるためのコンピュータ実装方法およびシステム 図4
  • 特許-オブジェクトのアノテーションに数値を対応付けるためのコンピュータ実装方法およびシステム 図5
  • 特許-オブジェクトのアノテーションに数値を対応付けるためのコンピュータ実装方法およびシステム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-21
(45)【発行日】2024-08-29
(54)【発明の名称】オブジェクトのアノテーションに数値を対応付けるためのコンピュータ実装方法およびシステム
(51)【国際特許分類】
   G06T 7/00 20170101AFI20240822BHJP
【FI】
G06T7/00 650B
G06T7/00 U
【請求項の数】 13
(21)【出願番号】P 2022524061
(86)(22)【出願日】2020-10-12
(65)【公表番号】
(43)【公表日】2022-12-26
(86)【国際出願番号】 EP2020078538
(87)【国際公開番号】W WO2021078550
(87)【国際公開日】2021-04-29
【審査請求日】2023-05-12
(31)【優先権主張番号】19204989.8
(32)【優先日】2019-10-24
(33)【優先権主張国・地域又は機関】EP
(73)【特許権者】
【識別番号】506012213
【氏名又は名称】ディスペース ゲー・エム・ベー・ハー
【氏名又は名称原語表記】dSPACE GmbH
【住所又は居所原語表記】Rathenaustr.26,D-33102 Paderborn, Germany
(74)【代理人】
【識別番号】100114890
【弁理士】
【氏名又は名称】アインゼル・フェリックス=ラインハルト
(74)【代理人】
【識別番号】100098501
【弁理士】
【氏名又は名称】森田 拓
(74)【代理人】
【識別番号】100116403
【弁理士】
【氏名又は名称】前川 純一
(74)【代理人】
【識別番号】100134315
【弁理士】
【氏名又は名称】永島 秀郎
(74)【代理人】
【識別番号】100162880
【弁理士】
【氏名又は名称】上島 類
(72)【発明者】
【氏名】ダニエル レードラー
(72)【発明者】
【氏名】シュテファン リンケ
【審査官】▲広▼島 明芳
(56)【参考文献】
【文献】欧州特許出願公開第2672396(EP,A1)
【文献】N.S.Manikandan, et al.,Deep Learning Based Automatic Video Annotation Tool for Self-Driving Car,arXiv,2019年04月19日,https://doi.org/10.48550/arXiv.1904.12618
【文献】Aleksa Corovic, et al.,The Real-Time Detection of Traffic Participants Using YOLO Algorithm,2018 26th Telecommunications Forum (TELFOR),2018年,DOI:10.1109/TELFOR.2018.8611986
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00 - 7/90
G06V 10/00 - 20/90
(57)【特許請求の範囲】
【請求項1】
画像データ、ビデオデータおよび/または点群データ(12)において識別される少なくとも1つのオブジェクト(14a,14b)のアノテーション(10a,10b)に数値を対応付けるコンピュータ実装方法であって、前記コンピュータ実装方法は、
受け取った画像データ、ビデオデータおよび/または点群データ(12)における少なくとも1つの前記オブジェクト(14a,14b)の識別(S1)およびアノテーション(S2)のステップであって、前記識別(S1)および/または前記アノテーション(S2)を、少なくとも部分的に自動的に実行するステップと、
少なくとも1つの前記オブジェクト(14a,14b)のアノテーション(10a,10b)の前記数値の計算(S3)のステップであって、少なくとも1つの前記オブジェクト(14a,14b)の寸法(36a,36b)に対する、視覚的なアノテーション(10a)の寸法(34a,34b)の一致の度合い、および/または、少なくとも1つの前記オブジェクト(14a,14b)の概念的なラベル(10b)と少なくとも1つの前記オブジェクト(14a,14b)との一致の度合い、および/または、少なくとも1つの前記オブジェクト(14a,14b)を検出する少なくとも1つのセンサ(16a,16b)の概念的なラベル(10c)と少なくとも1つの前記センサ(16a,16b)との一致の度合いに少なくとも部分的に応じて前記数値を計算するステップと、
少なくとも1つの前記オブジェクト(14a,14b)への、計算された前記数値の対応付け(S4)のステップと、
を有し、
前記アノテーション(10a,10b)の前記数値により、前記アノテーション(10a,10b)の価格を形成し、価格設定プラン(46)を使用し、評価モジュール(44)により、前記アノテーション(10a,10b)の前記数値の前記計算に必要な情報を有するトランザクションデータセット(38)に含まれる、実行されたアクションに関連するそれぞれのエントリ(38a,38b)を価格設定し、
前記評価モジュール(44)により、少なくとも1つの、特に自動的に実行される前記アノテーション(10a,10b)の少なくとも1つの前記エントリ(38a)の前記数値から第1の総和(48)を形成し、前記トランザクションデータセット(38)が、ユーザによって実行された変更(42a,42b)の少なくとも1つのエントリ(38b)を有する場合、前記評価モジュール(44)により、前記ユーザによって実行された前記変更(42a,42b)の少なくとも1つの前記エントリ(38b)の前記数値から第2の総和(50)を形成し、前記アノテーション(10a,10b)の前記数値、特に前記価格を計算するために前記第1の総和(48)から前記第2の総和(50)を減算する、
コンピュータ実装方法。
【請求項2】
少なくとも1つの前記オブジェクト(14a,14b)の前記概念的なラベル(10b)は、前記オブジェクト(14a,14b)の少なくとも1つの特性(10b1)を含み、少なくとも1つの前記オブジェクトを検出する少なくとも1つの前記センサ(16a,16b)の前記概念的なラベル(10c)は、少なくとも1つの前記センサ(16a,16b)の特性(10b2)を含む、
請求項1記載のコンピュータ実装方法。
【請求項3】
前記視覚的なアノテーション(10a)は、前記オブジェクト(14a,14b)を取り囲む境界要素(18a,18b)の自動的な位置決めおよび描画を含み、前記境界要素(18a,18b)は、2次元境界フレーム(18a)によって、または、特にLiDAR画像および/またはレーダ画像では、3次元境界フレーム(18b)によって構成される、
請求項1または2記載のコンピュータ実装方法。
【請求項4】
前記オブジェクト(14a,14b)に割り当てられる少なくとも1つの前記特性(10b1)は、少なくとも1つのオブジェクトクラスを有し、第1のオブジェクトクラス(22a)は、自動車(22a1)を有し、第1のオブジェクトサブクラス(22b)は、乗用車(22b1)、貨物自動車(22b2)、配達用自動車(22b3)、バス(22b4)、建設車両(22b5)、鉄道車両(22b6)および/または連結装置(22b7)を有し、第2のオブジェクトクラス(24a)は、人間(24a1)を有し、第2のオブジェクトサブクラス(24b)は、前記人間(24a1)の性別(24b1)、大きさ(24b2)および/または年齢(24b3)を有する、
請求項2記載のコンピュータ実装方法。
【請求項5】
前記画像データ、ビデオデータおよび/または点群データ(12)を検出する前記センサ(16a,16b)に割り当てられる少なくとも1つの前記特性(10b1)は、少なくとも1つのセンサクラスを有し、第1のセンサクラス(26a)は、画像センサ(16a)を有し、第1のセンササブクラス(26b)は、支持装置における、特に検出車両(28)における前記画像センサ(16a)の位置および配向を有し、第2のセンサクラス(30)は、LiDARセンサ(16b)を有し、第3センサクラス(31)は、レーダセンサ(16c)を有する、
請求項2または4記載のコンピュータ実装方法。
【請求項6】
前記第1のセンササブクラス(26b)は、前記支持装置において、特に前記検出車両(28)において、前方中央に配置される広角カメラ(32a)、前方中央に配置される狭角カメラ(32b)、前方左に配置されるカメラ(32c)、前方右に配置されるカメラ(32d)、後方左に配置されるカメラ(32e)、後方右に配置されるカメラ(32f)および/または後方中央に配置される広角カメラ(32g)を有する、
請求項5記載のコンピュータ実装方法。
【請求項7】
前記画像データ、ビデオデータおよび/または点群データ(12)における少なくとも1つの前記オブジェクト(14a,14b)の前記識別(S1)および前記視覚的なアノテーション(10a,S2)を手動で、特にユーザによって行い、前記オブジェクト(14a,14b)の少なくとも1つの前記特性(10b1)の割り当て、および/または、少なくとも1つの前記オブジェクト(14a,14b)を検出する少なくとも1つの前記センサ(16a,16b)の少なくとも1つの特性(10b2)の割り当てを自動的に実行する、
請求項2記載のコンピュータ実装方法。
【請求項8】
少なくとも1つの前記オブジェクト(14a,14b)の前記寸法(36a,36b)に対する、前記視覚的なアノテーション(10a)の前記寸法(34a,34b)の前記一致の度合い、および/または、少なくとも1つの前記オブジェクト(14a,14b)の前記概念的なラベル(10b)と少なくとも1つの前記オブジェクト(14a,14b)との前記一致の度合い、および/または、少なくとも1つの前記オブジェクトを検出する少なくとも1つの前記センサ(16a,16b)の前記概念的なラベル(10c)と少なくとも1つの前記センサ(16a,16b)との前記一致の度合いをユーザによってチェックする、
請求項1から7までのいずれか1項記載のコンピュータ実装方法。
【請求項9】
少なくとも1つの前記オブジェクト(14a,14b)の前記寸法(36a,36b)に対する、前記視覚的なアノテーション(10a)の前記寸法(34a,34b)の前記一致の度合い、および/または、少なくとも1つの前記オブジェクト(14a,14b)の前記概念的なラベル(10b)と少なくとも1つの前記オブジェクト(14a,14b)との前記一致の度合い、および/または、少なくとも1つの前記オブジェクトを検出する少なくとも1つの前記センサ(16a,16b)の前記概念的なラベル(10c)と少なくとも1つの前記センサ(16a,16b)との前記一致の度合いをユーザによってチェックし、
少なくとも1つの前記オブジェクト(14a,14b)の前記寸法(36a,36b)に対する、前記視覚的なアノテーション(10a)の前記寸法(34a,34b)の前記一致の度合いは、前記境界要素(18a,18b)の前記寸法(34a,34b)が、アノテーションされた前記オブジェクト(14a,14b)の前記寸法(36a,36b)、特に外形寸法に実質的に相当する場合に、十分であると評価する、
請求項3項記載のコンピュータ実装方法。
【請求項10】
少なくとも1つの前記視覚的なアノテーション(10a)の実行の際に、および/または、前記オブジェクト(14a,14b)の少なくとも1つの前記特性(10b1)および/または前記センサ(16a,16b)の少なくとも1つの前記特性(10b2)の割り当ての際に、少なくとも1つの自動的に実行されるアクションの情報を有する前記トランザクションデータセット(38)を作成して、トランザクションデータ記憶装置(40)に記憶する、
請求項2、5、7のいずれか1項記載のコンピュータ実装方法。
【請求項11】
前記オブジェクト(14a,14b)の前記アノテーション(10a,10b)においてユーザによって実行される変更(42a,42b)、特に、前記視覚的なアノテーション(10a)の変更(42a)、および/または、前記オブジェクト(14a,14b)の少なくとも1つの前記特性、および/または、前記画像データ、ビデオデータおよび/または点群データ(12)を検出する少なくとも1つの前記センサ(16a,16b)の前記特性の変更(42b)を、前記オブジェクト(14a,14b)の前記トランザクションデータセット(38)に、または、前記オブジェクト(14a,14b)の前記トランザクションデータセット(38)に関連付けられるトランザクションデータセット(38)に取り込んで、トランザクションデータ記憶装置(40)に記憶する、
請求項10記載のコンピュータ実装方法。
【請求項12】
画像データ、ビデオデータおよび/または点群データ(12)において識別される少なくとも1つのオブジェクト(14a,14b)のアノテーション(10a,10b)に数値を対応付けるためのシステムであって、前記システムは、
受け取った画像データ、ビデオデータおよび/または点群データ(12)における少なくとも1つの前記オブジェクト(14a,14b)の識別およびアノテーションのための手段(52,54)であって、前記識別および/または前記アノテーションは、少なくとも部分的に自動的に実行可能である手段(52,54)と、
少なくとも1つの前記オブジェクト(14a,14b)の前記アノテーション(10a,10b)の前記数値の計算(S3)のための手段(56)であって、前記数値は、少なくとも1つの前記オブジェクト(14a,14b)の寸法(36a,36b)に対する、視覚的なアノテーション(10a)の寸法(34a,34b)の一致の度合い、および/または、少なくとも1つの前記オブジェクト(14a,14b)の概念的なラベル(10b)と少なくとも1つの前記オブジェクト(14a,14b)との一致の度合い、および/または、少なくとも1つの前記オブジェクトを検出する少なくとも1つのセンサ(16a,16b)の概念的なラベル(10c)と少なくとも1つのセンサ(16a,16b)との一致の度合いに少なくとも部分的に応じて計算可能である手段(56)と、
少なくとも1つの前記オブジェクト(14a,14b)への、計算された前記数値の対応付け(S4)のための手段(58)と、
を有し、
前記アノテーション(10a,10b)の前記数値により、前記アノテーション(10a,10b)の価格を形成し、価格設定プラン(46)を使用し、評価モジュール(44)により、前記アノテーション(10a,10b)の前記数値の前記計算に必要な情報を有するトランザクションデータセット(38)に含まれる、実行されたアクションに関連するそれぞれのエントリ(38a,38b)を価格設定し、
前記評価モジュール(44)により、少なくとも1つの、特に自動的に実行される前記アノテーション(10a,10b)の少なくとも1つの前記エントリ(38a)の前記数値から第1の総和(48)を形成し、前記トランザクションデータセット(38)が、ユーザによって実行された変更(42a,42b)の少なくとも1つのエントリ(38b)を有する場合、前記評価モジュール(44)により、前記ユーザによって実行された前記変更(42a,42b)の少なくとも1つの前記エントリ(38b)の前記数値から第2の総和(50)を形成し、前記アノテーション(10a,10b)の前記数値、特に前記価格を計算するために前記第1の総和(48)から前記第2の総和(50)を減算する、
するシステム。
【請求項13】
コンピュータプログラムがコンピュータ上で実行される場合に、請求項1から11までのいずれか1項記載の方法を実施するためのプログラムコードを有するコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付けるコンピュータ実装方法に関する。
【0002】
本発明はさらに、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付けるためのシステムに関する。
【0003】
本発明さらに、コンピュータプログラムに関する。
【背景技術】
【0004】
コンピュータビジョンモデル、すなわち、画像データ、ビデオデータおよび/または点群データにおけるオブジェクト識別のためのアルゴリズムは、トレーニングデータによって学習される。画像データ、ビデオデータおよび/または点群データにおけるオブジェクトを確実に識別できるようにするために、該当するオブジェクトは、従来、視覚的にかつ/または概念的にアノテーションがなされる。
【0005】
上で挙げたオブジェクトの分類は、従来、適切なソフトウェアツールを使用してアノテーターによって手動で行われる。自動運転用のコンピュータビジョンモデルの分野では、画像アノテーションは、通例、いわゆるバウンディングボックスによって行われる。これにより、例えば、車両、交通標識および別の周囲オブジェクトをマーキングもしくはアノテーションすることができる。
【0006】
"Interactive full image Segmentation by considering all regions jointly"という名称の、CVF(Computer Vision Foundation)のCVPR刊行物には、特定の画像オブジェクトの極点をアノテーションする際に、フル画像セグメント化、すなわち、フル画像をそこに含まれるオブジェクトに分類するための予測を可能にするソフトウェアアプリケーションが開示されている。
【0007】
このソフトウェアアプリケーションにはさらに、画像セグメンテーションの所定の領域の誤った予想の際に、アノテーターが、グラフィックなユーザツールを用いて、画像セグメント化における変更を行うことができ、この画像セグメント化は、引き続いてソフトウェアアプリケーションによって実行可能であるという特徴を有する。
【0008】
しかながら上で挙げた方法が、共通に有しているのは、つねに高いアノテーションコストを伴うことである。というのは、コンピュータビジョンモデルの効率的なトレーニングには、極めて大量のトレーニングデータおよびそれらのアノテーションが必要であり、このことは、多大な人的および価格的なコストに結果的に結び付くからである。
【0009】
したがって、画像データ、ビデオデータおよび/または点群データにおけるオブジェクトのアノテーションのための既存の方法およびシステムを改善して、特定のオブジェクトの簡単であり、より効率的でありかつよりコスト的に有利なアノテーションを可能にしたいという需要が存在するのである。したがって本発明の課題は、画像データ、ビデオデータおよび/または点群データにおける特定のオブジェクトの、簡単であり、より効率的でありかつよりコスト的に有利なアノテーションを可能にする、コンピュータ実装方法、システムおよびコンピュータプログラムを提供することである。
【発明の概要】
【課題を解決するための手段】
【0010】
この課題は、本発明により、請求項1に記載された、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付けるコンピュータ実装方法と、請求項14に記載された、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付けるためのシステムと、請求項15に記載されたコンピュータプログラムと、によって解決される。
【0011】
本発明は、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付けるコンピュータ実装方法に関する。
【0012】
この方法には、受け取った画像データ、ビデオデータおよび/または点群データにおける少なくとも1つのオブジェクトの識別およびアノテーションが含まれており、識別および/またはアノテーションを少なくとも部分的に自動的に実行する。
【0013】
この方法にはさらに、少なくとも1つのオブジェクトのアノテーションの数値を計算するステップが含まれており、少なくとも1つのオブジェクトの寸法に対する、視覚的なアノテーションの寸法の一致の度合い、および/または、少なくとも1つのオブジェクトの概念的なラベルと少なくとも1つのオブジェクトとの一致の度合い、および/または、少なくとも1つのオブジェクトを検出する少なくとも1つのセンサの概念的なラベルと少なくとも1つのセンサとの一致の度合いに少なくとも部分的に応じて数値を計算する。
【0014】
この方法にはさらに、少なくとも1つのオブジェクトへの、計算した数値の対応付けが含まれている。
【0015】
本発明はさらに、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付けるためのシステムに関する。
【0016】
このシステムには、受け取った画像データ、ビデオデータおよび/または点群データにおける少なくとも1つのオブジェクトの識別およびアノテーションのための手段が含まれており、識別および/またはアノテーションは、少なくとも部分的に自動的に実行可能である。
【0017】
このシステムにはさらに、少なくとも1つのオブジェクトのアノテーションの数値の計算のための手段が含まれており、数値は、少なくとも1つのオブジェクトの寸法に対する、視覚的なアノテーションの寸法の一致の度合い、および/または、少なくとも1つのオブジェクトの概念的なラベルと少なくとも1つのオブジェクトとの一致の度合い、および/または、少なくとも1つのオブジェクトを検出する少なくとも1つのセンサの概念的なラベルと少なくとも1つのセンサとの一致の度合いに少なくとも部分的に応じて計算可能である。
【0018】
このシステムにはさらに、少なくとも1つのオブジェクトへの、計算された数値の対応付けのための手段が含まれている。
【0019】
本発明はさらに、コンピュータプログラムがコンピュータ上で実行される場合に、本発明による方法を実施するためのプログラムコードを有するコンピュータプログラムに関する。
【0020】
本発明の着想は、第1に、画像データ、ビデオデータおよび/また点群データにおけるオブジェクトの、少なくとも部分的に自動的な識別およびアノテーションを可能にすることである。これにより、まさにコンピュータビジョンモデルの分野において、自動的な方法について従来、手動で実施されていた作業の多大な時間的コストおよび処理コストを節約することができる。
【0021】
本発明の着想は、第2に、クラウドコンピューティングの分野において一般的なペイパーユース(Pay-per-Use)決済モデルとは異なり、決済もしくは価格決定は、あらかじめ設定される技術的なパラメータに到達するのに応じて、すなわち視覚的なアノテーションの精度および/または少なくとも1つの概念的なアノテーションの正しい割り当てに応じて計算されることである。
【0022】
本発明の別の実施形態は、別の下位請求項および図を参照する以下の説明の対象である。
【0023】
本発明の1つの態様によると、上記の方法にさらに含まれるのは、少なくとも1つのオブジェクトの概念的なラベルが、オブジェクトの少なくとも1つの特性を含み、少なくとも1つのオブジェクトを検出する少なくとも1つのセンサの概念的なラベルが、少なくとも1つのセンサの特性を含むことである。
【0024】
これにより、視覚的なアノテーションに加えて、オブジェクトの1つまたは複数の特性の割り当て、および/または、センサの指示の枠内において、該当するオブジェクトのより正確な分類を可能にすることができる。
【0025】
本発明の別の態様によると、この方法にさらに含まれるのは、視覚的なアノテーションが、オブジェクトを取り囲む境界要素であって、2次元境界フレームによって、または特にLiDAR画像および/またはレーダ画像では、3次元境界フレームによって構成される境界要素の自動的な位置決めおよび描画を含むことである。
【0026】
該当するオブジェクトの周りの、対応する境界フレームの自動的な位置決めおよび描画により、画像データ、ビデオデータおよび/または点群データに含まれるオブジェクトの、正確かつ効率的な、すなわち処理時間を短縮するアノテーションを行うことができる。
【0027】
本発明の別の態様によると、この方法にさらに含まれるのは、オブジェクトに割り当てられる少なくとも1つの特性が、少なくとも1つのオブジェクトクラスを有することであり、第1のオブジェクトクラスは、自動車を有し、第1のオブジェクトサブクラスは、乗用車、貨物自動車、配達用自動車、バス、建設車両、鉄道車両および/または連結装置を有し、第2のオブジェクトクラスは、人間を有し、第2のオブジェクトサブクラスは、この人間の性別、大きさおよび/または年齢を有する。
【0028】
さらに、該当するコンピュータビジョンモデルに関連する別のオブジェクト、例えば、交通標識、建物なども同様に分類可能である。オブジェクトクラスおよびオブジェクトサブクラスにオブジェクトを分類することにより、一方では、該当するオブジェクトの正確な分類も、またオブジェクトの予想される挙動についての予想も行うことできる。
【0029】
本発明の別の態様によると、この方法はさらに、画像データ、ビデオデータおよび/または点群データを検出するセンサに割り当てられる少なくとも1つの特性が、少なくとも1つのセンサクラスを有するステップを有し、第1のセンサクラスは、画像センサを有し、第1のセンササブクラスは、支持装置における、特に検出車両における画像センサの位置および配向を有し、第2のセンサクラスは、LiDARセンサを有し、第3センサクラスは、レーダセンサを有する。
【0030】
したがって、検出されるオブジェクトに対して相対的な画像センサの位置および配向がわかることにより、有利には、オブジェクトのより正確な分類を同様に可能にすることができる。
【0031】
本発明の別の態様によると、この方法にさらに含まれるのは、第1のセンササブクラスが、支持装置において、特に検出車両において、前方中央に配置される広角カメラ、前方中央に配置される狭角カメラ、前方左に配置されるカメラ、前方右に配置されるカメラ、後方左に配置されるカメラ、後方右に配置されるカメラおよび/または後方中央に配置される広角カメラを有することである。
【0032】
これにより、有利には、移動するまたは静止しているオブジェクトを含めた、周囲を取り囲む交通状況の360°検出が可能である。
【0033】
本発明の別の態様によると、この方法にさらに含まれるのは、画像データ、ビデオデータおよび/または点群データにおける少なくとも1つのオブジェクトの識別および視覚的なアノテーションを手動で、特にユーザによって行うことであり、オブジェクトの少なくとも1つの特性の割り当て、および/または、少なくとも1つのオブジェクトを検出する少なくとも1つのセンサの少なくとも1つの特性の割り当てを自動的に実行する。
【0034】
これにより、本発明による方法は、有利には、画像データ、ビデオデータおよび/または点群データにおける少なくとも1つのオブジェクトの識別および視覚的なアノテーションのステップが、ユーザによって手動で行われ、これに基づいて、オブジェクトへの特性の自動割り当て、および/または、画像データ、ビデオデータおよび/または点群データを検出するセンサの自動的な指示が行われる場合にも同様に使用可能である。
【0035】
本発明の別の態様によると、この方法に含まれるのはさらに、少なくとも1つのオブジェクトの寸法に対する、視覚的なアノテーションの寸法の一致の度合い、および/または、少なくとも1つのオブジェクトの概念的なラベルと少なくとも1つのオブジェクトとの一致の度合い、および/または、少なくとも1つのオブジェクトを検出する少なくとも1つのセンサの概念的なラベルと少なくとも1つのセンサとの一致の度合いを、ユーザによってチェックすることである。
【0036】
これにより、有利には、視覚的なアノテーションの可能な限り高い精度および/または概念的なアノテーションの正確さを可能にすることができる。したがって、自動的な視覚的および概念的なアノテーションのコンピュータ実装方法の高い効率性もしくは有効性を有しながらも、ユーザに後処理により、付加的なコストは比較的わずかになる。
【0037】
本発明の別の態様によると、この方法にさらに含まれるのは、少なくとも1つのオブジェクトの寸法に対する、視覚的なアノテーションの寸法の一致の度合いは、境界要素の寸法が、アノテーションされたオブジェクトの寸法、特に外形寸法に実質的に相当する場合に十分であると評価することである。
【0038】
これにより、有利には、視覚的なアノテーションの精度を特定するための客観的な評価基準を設けることができる。
【0039】
本発明の別の態様によると、この方法にさらに含まれるのは、少なくとも1つの視覚的なアノテーションの実行の際にかつ/またはオブジェクトの少なくとも1つの特性および/またはセンサの少なくとも1つの特性の割り当ての際に、アノテーションの数値の計算に必要な情報、特に、少なくとも1つの自動的に実行されるアクションの情報を有するトランザクションデータセットを作成して、トランザクションデータ記憶装置に記憶することである。
【0040】
これにより、トランザクションデータセットには有利には、個々に実行されるそれぞれのアクションが記憶され、すなわち、このアクションが、視覚的なアノテーションおよび/または概念的なアノテーションであるか否か、および概念的なアノテーションが、オブジェクト特性および/またはセンサ特性の割り当てを含むか否かが記憶される。
【0041】
本発明の別の態様によると、この方法にさらに含まれるのは、オブジェクトのアノテーションにおいてユーザによって実行される変更、特に、視覚的なアノテーションの変更、および/または、オブジェクトの少なくとも1つの特性、および/または、画像データ、ビデオデータおよび/または点群データを検出する少なくとも1つのセンサの特性の変更を、オブジェクトのトランザクションデータセットに、またはオブジェクトのトランザクションデータセットに関連付けられるトランザクションデータセットに取り込んで、トランザクションデータ記憶装置に記憶することである。
【0042】
これにより、コンピュータ実装方法によって自動的に実行されるアノテーションステップに加えて、トランザクションデータセットにおいて同様に記憶することができるのは、該当するオブジェクトのアノテーションにおいて変更が行われたか否かまたどの程度の変更が行われたかである。このようなトランザクションデータセットはさらに、実行されるアクションの価格設定のための基礎を形成する。
【0043】
本発明の別の態様によると、この方法にはさらに、アノテーションの数値により、アノテーションの価格を形成することが含まれ、ここでは、価格設定プランを使用し、評価モジュールにより、トランザクションデータセットに含まれる、実行されたアクションに関連するそれぞれのエントリを価格設定する。これにより、有利には、実行されたアクションの正確な価格設定を行うことができる。
【0044】
本発明の別の態様によると、この方法にはさらに、評価モジュールにより、少なくとも1つの、特に自動的に実行されるアノテーションの少なくとも1つのエントリの数値から第1の総和を形成し、トランザクションデータセットが、ユーザによって実行された変更の少なくとも1つのエントリを有する場合、評価モジュールにより、ユーザによって実行された変更の少なくとも1つのエントリの数値から第2の総和を形成し、アノテーションの数値、特に価格を計算するために第1の総和から第2の総和を減算する。
【0045】
したがって、本発明による方法により、該当するオブジェクトの実行されたアノテーションが、有利には、特定の技術的なパラメータ、すなわち視覚的なアノテーションの精度および該当するアノテーションの正しい割り当てに応じて価格設定され、これに対応する、得られた成果の、結果に関連する決済が可能になる。
【0046】
本明細書で説明した方法の特徴的構成は、コンピュータビジョンモデルとは異なる別のシナリオ、例えば、種々異なる周囲環境における人物識別などにも同様に適用可能である。
【0047】
本発明およびその利点をよりよく理解するために、所属の図面に関連した以下の説明を参照されたい。
【0048】
以下では、図面の概略図に示されている例示的な実施形態に基づいて本発明を詳しく説明する。
【図面の簡単な説明】
【0049】
図1】本発明の好ましい実施形態にしたがい、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付ける方法の流れ図である。
図2】本発明の好ましい実施形態にしたがい、画像データ、ビデオデータおよび/または点群データにおけるオブジェクトの、実行されたアノテーションの概略図である。
図3】本発明の好ましい実施形態にしたがい、画像データ、ビデオデータおよび/または点群データにおけるオブジェクトの、実行された別のアノテーションの概略図である。
図4】本発明の好ましい実施形態にしたがい、複数のオブジェクト特性を示すブロック図である。
図5】本発明の好ましい実施形態にしたがい、複数のセンサ特性を示すブロック図である。
図6】本発明の好ましい実施形態にしたがい、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付けるためのシステムを示す概略ブロック図である。
【発明を実施するための形態】
【0050】
特に断らない限り、同じ参照符号は、図面の同じ要素を示す。
【0051】
図1には、本発明の好ましい実施形態にしたがい、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付ける方法の流れ図が示されている。
【0052】
この方法には、受け取った画像データ、ビデオデータおよび/または点群データ12における少なくとも1つのオブジェクト14a,14bの識別S1およびアノテーションS2が含まれる。識別S1および/またはアノテーションS2は、ここでは少なくとも部分的に自動的に実行される。
【0053】
これとは択一的に、画像データ、ビデオデータおよび/または点群データにおける少なくとも1つのオブジェクト14a,14bの識別S1および視覚的なアノテーション10a,S3を手動で、すなわちユーザによって実行する選択肢がある。
【0054】
この方法にはさらに、少なくとも1つのオブジェクト14a,14bのアノテーション10a,10bの数値の計算S3が含まれている。数値は、アノテーション10a,10bについて精算すべき価格に対応する。
【0055】
数値は、少なくとも1つのオブジェクト14a,14bの寸法36a,36bに対する、視覚的なアノテーション10aの寸法34a,34bの一致の度合い、および/または、少なくとも1つのオブジェクト14a,14bの概念的なラベル10bと少なくとも1つのオブジェクト14a,14bとの一致の度合い、および/または、少なくとも1つのオブジェクト14a,14bを検出する少なくとも1つのセンサ16a,16bの概念的なラベル10cと少なくとも1つのセンサ16a,16bとの一致の度合いに少なくとも部分的に応じて計算される。
【0056】
少なくとも1つのオブジェクトの寸法36a,36bに対する、視覚的なアノテーション10aの寸法34a,34bの一致の度合いとは、視覚的なアノテーション、例えば、境界フレームが、その大きさおよび位置において、オブジェクトに対して正しく算定されていることを意味する。
【0057】
したがって境界フレームは、オブジェクトに対して相対的に過度に小さくもなく過度に大きくなく、さらにオブジェクトに対して正確に位置決めおよび/配向されている。
【0058】
少なくとも1つのオブジェクト14a,14bの概念的なラベル10bと少なくとも1つのオブジェクト14a,14bとの一致とは、画像コンテンツと概念的なコンテンツとが一致する、すなわち、例えば、画像データ、ビデオデータおよび/または点群データにおいて検出される乗用車が、概念的にも正しく乗用車として示されていることを意味する。
【0059】
少なくとも1つのオブジェクト14a,14bを検出する少なくとも1つのセンサ16a,16bの概念的なラベル10cと少なくとも1つのセンサ16a、16bとの一致とは、画像データ、ビデオデータおよび/または点群データが得られた該当するセンサが、正しく指示されていることを意味する。
【0060】
したがって、画像データ、ビデオデータおよび/または点群データが、例えば、前方中央に配置された広角カメラ32aと前方左に配置されたカメラ32cとを使用して得られた場合、これらのカメラは、正しく概念的に指示されているか、もしくは画像データ、ビデオデータおよび/または点群データに正しく割り当てられているはずである。
【0061】
さらにこの方法は、計算された数値の、少なくとも1つのオブジェクト14a,14bへの対応付けS4を有する。
【0062】
さらに、少なくとも1つのオブジェクトの識別S1およびアノテーションS2は、好ましくは機械学習のアルゴリズム、例えば人工ニューラルネットワークを使用して自動的に実行されるように構成されている。
【0063】
アノテーションS2には、視覚的なアノテーション10a、少なくとも1つのオブジェクト14a,14bへのあらかじめ定められた個数の特性10b1の割り当て、および/または、画像データ、ビデオデータおよび/または点群データ12を検出する少なくとも1つのセンサ16a,16bの、オブジェクト14a,14bへの指示10b2が含まれる。
【0064】
図2には、本発明の好ましい実施形態にしたがい、画像データ、ビデオデータおよび/または点群データにおけるオブジェクトの、実行されたアノテーションの概略図が示されている。
【0065】
視覚的なアノテーション10aには、オブジェクト14a,14bを取り囲む境界要素18aの自動的な位置決めおよび描画が含まれている。境界要素18aは、この図では2次元境界フレーム18aによって構成されている。
【0066】
視覚的なアノテーション10aの精度は、ユーザによってチェックされる。
【0067】
視覚的なアノテーション10aはここでは、視覚的なアノテーション10aが、大きさに関連する、ユーザ定義の要求を満たしている場合、特に、境界要素18a,18bの寸法34a,34bが、アノテーションされたオブジェクト14a,14bの外形寸法36a,36bに実質的に対応する場合、正しいと評価される。
【0068】
該当するオブジェクト14a,14bの周りに、対応する境界フレーム18aの自動的に位置決めして描画することの目的は、画像データ、ビデオデータおよび/または点群データ12におけるオブジェクト14a,14bのアノテーションのプロセスを完全に自動化し、これにより、ユーザによる後処理が必要でないようにすることである。
【0069】
これにより、正確であり、効率的でありかつコストを削減する、画像データ、ビデオデータおよび/または点群データにおいて得られるオブジェクトのアノテーションを達成することができる。
【0070】
図3には、本発明の好ましい実施形態にしたがい、画像データ、ビデオデータおよび/または点群データにおけるオブジェクトの、実行されたアノテーションの別の概略図が示されている。
【0071】
視覚的なアノテーション10aには、オブジェクト14a,14bを取り囲む境界要素18bの自動的な位置決めおよび描画が含まれている。
【0072】
境界要素18bは、この実施例では3次元境界フレーム18bによって構成されている。この図は、画像データおよび/またはビデオデータ12である。3次元境界フレームはさらに、特にLiDAR画像データおよび/またはレーダ画像データにおいて、すなわち点群データにおいて適している。
【0073】
図4には、本発明の好ましい実施形態にしたがい、複数のオブジェクト特性のブロック図が示されている。
【0074】
図4に示されていない)オブジェクトに割り当てられるあらかじめ決められた個数の特性10b1は、少なくとも1つのオブジェクトクラスを有する。
【0075】
第1のオブジェクトクラス22aは、自動車22a1を有する。第1のオブジェクトサブクラス22bは、乗用車22b1、貨物自動車22b2、配達用自動車22b3、バス22b4、建設車両22b5、鉄道車両22b6および/または連結装置22b7を有する。
【0076】
第2のオブジェクトクラス24aは、人間24a1を有する。第2のオブジェクトサブクラス24bは、人間24a1の性別24b1、大きさ24b2および/または年齢24b3を有する。オブジェクトへの少なくとも1つの特性10b1の正しい割り当ては、ここではユーザによってチェックされる。
【0077】
図5には、本発明の好ましい実施形態にしたがい、複数のセンサ特性のブロック図が示されている。
【0078】
概念的なラベル10cは、少なくとも1つのオブジェクトを検出する少なくとも1つのセンサ16a,16bに対する。
【0079】
画像データ、ビデオデータおよび/または点群データ12を検出するセンサ16a,16bに割り当てられる、あらかじめ定められた個数の特性10b2は、少なくとも1つのセンサクラスを有する。第1のセンサクラス26aは、画像センサ16aを有する。
【0080】
第1のセンササブクラス26bは、検出車両28における画像センサ16aの位置および配向を有する。第2のセンサクラス30は、LiDARセンサを有し、第3センサクラス31は、レーダセンサ16cを有する。
【0081】
検出車両28とは択一的に、センサ16a,16bは、例えば、静止している支持装置、例えば、建物および/または交通標識に配置されていてよい。
【0082】
さらに択一的には、センサ16a,16bは、例えば、鉄道車両および/または航空機に配置されていてよい。
【0083】
建物に、例えば駐車場ビルにセンサ16a,16bを配置する際にはセンサにより、駐車する、入庫するかつ/または出庫する自動車を検出することができる。
【0084】
交通標識に、例えば信号機および/または交通管制システムの表示板にセンサ16a,16bを配置する際には、センサにより、通過する自動車を検出することができる。
【0085】
第1のセンササブクラス26bは、検出車両28の前方中央に配置される広角カメラ32a、前方中央に配置される狭角カメラ32b、前方左に配置されるカメラ32c、前方右に配置されるカメラ32d、後方左に配置されるカメラ32e、後方右に配置されるカメラ32fおよび/または後方中央に配置される広角カメラ32gを有する。
【0086】
本発明によるコンピュータ実装方法は択一的に、例えば、オーディオデータ、特に音声データ、および/または、構造化データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付けることができる。
【0087】
図6には、本発明の好ましい実施形態にしたがい、画像データ、ビデオデータおよび/または点群データにおいて識別される少なくとも1つのオブジェクトのアノテーションに数値を対応付けるためのシステムの概略ブロック図が示されている。
【0088】
このシステムには、受け取った画像データ、ビデオデータおよび/または点群データ12における少なくとも1つのオブジェクト14a,14bの識別およびアノテーションの手段52,54が含まれており、識別および/またはアノテーションは、少なくとも部分的に自動的に実行可能である。
【0089】
このシステムにはさらに、少なくとも1つのオブジェクト14a,14bのアノテーション10a,10bの数値を計算する手段56が含まれている。
【0090】
数値はここでは、少なくとも1つのオブジェクト14a,14bの寸法36a,36bに対する、視覚的なアノテーション10aの寸法34a,34bの一致の度合い、および/または、少なくとも1つのオブジェクト14a,14bの概念的なラベル10bと少なくとも1つのオブジェクト14a,14bとの一致の度合い、および/または、少なくとも1つのオブジェクトを検出する少なくとも1つのセンサ16a,16bの概念的なラベル10cと少なくとも1つのセンサ16a,16bとの一致の度合いに少なくとも部分的に応じて計算可能である。
【0091】
このシステムにはさらに、少なくとも1つのオブジェクト14a,14bへの、計算された数値の対応付けS4のための手段58が含まれている。
【0092】
少なくとも1つの視覚的なアノテーション、および/または、オブジェクトの少なくとも1つの特性の割り当て、および/または、画像データ、ビデオデータおよび/または点群データを検出する少なくとも1つのセンサの指示を実行する際に、ここでは、アノテーションの価格の計算に必要な情報、特に、少なくとも1つの自動的に実行されるアクションの情報を有するトランザクションデータセット38を作成して、トランザクションデータ記憶装置40に記憶する。
【0093】
ここでは、オブジェクトを新たにアノテーションする毎に、対応するトランザクションデータセット38を作成し、プッシュメッセージPにより、トランザクションゲートウェイ39に送信し、このトランザクションゲートウェイ39により、トランザクションデータセット38がトランザクションデータ記憶装置40に転送されてこれに記憶される。
【0094】
オブジェクトのアノテーションにおいてユーザによって実行される変更42a,42b、特に、視覚的なアノテーションの変更42a、および/または、オブジェクトの少なくとも1つの特性の変更42b、および/または、画像データ、ビデオデータおよび/または点群データを検出する少なくとも1つのセンサの特性は、ここでは、オブジェクトのトランザクションデータセット38に、または択一的には、オブジェクト14a,14bのトランザクションデータセット38に関連付けられるトランザクションデータセット38に取り込まれて、トランザクションデータ記憶装置40に記憶される。
【0095】
トランザクションデータセット38に含まれている、実行されたアクションに関連するそれぞれのエントリ38a,38bは、価格設定プラン46を使用して評価モジュール44によって価格設定される。評価モジュール44により、自動的に実行される少なくとも1つのアノテーションの少なくとも1つのエントリ38aの価格から第1の総和48が形成される。
【0096】
トランザクションデータセット38が、ユーザによって実行された変更42a,42bの少なくとも1つのエントリ38bを有する場合、評価モジュール44により、ユーザによって実行された変更42a,42bの少なくとも1つのエントリ38bの価格から第2の総和50が形成される。第2の総和50はさらに、アノテーションの価格計算のために第1の総和48から減算される。
【0097】
エントリ38aおよびエントリ38bは択一的には、互いに別々の2つのトランザクションデータセット38に記憶可能であり、アノテーションの価格計算が、2つのトランザクションデータセット38のエントリ38a,38bを使用して可能になるようにこれらのトランザクションデータセット38が互いに関連付けられる。
【0098】
トランザクションデータセットの変更が行われない場合、第1の総和48が、価格決定にとっての決定因子である。実行されたアクションの価格設定への別の影響因子は、該当する顧客について格納された条件、例えば価格設定プラン46の割引を含む定期利用モジュール45である。
【0099】
本明細書では特定の実施形態を記載して説明してきたが、多くの択一的かつ/または同等の実装形態が存在することが当業者には理解されよう。例示的な実施形態は、単なる実施例であり、範囲、適用可能性または構成をいかなる形でも制限するために使用されないことに顧慮すべきである。
【0100】
むしろ上述したまとめおよび詳細な説明は、少なくとも1つの例示的な実施形態を実装するために都合のよい指示を当業者に提供しているのであり、添付の特許請求の範囲およびその法的な同等物から逸脱することなく、要素の機能範囲および配置における種々の変更を行うことできるのは当然のことである。
【0101】
一般に、本願が意図しているのは、本明細書に示した実施形態の変更形態もしくは適合形態または変形形態を含むことである。
図1
図2
図3
図4
図5
図6