(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-03-21
(45)【発行日】2025-03-31
(54)【発明の名称】検出されたオブジェクトをアノテーションする方法及び装置
(51)【国際特許分類】
G06T 7/00 20170101AFI20250324BHJP
G06V 10/70 20220101ALI20250324BHJP
G06V 20/58 20220101ALI20250324BHJP
【FI】
G06T7/00 650B
G06V10/70
G06V20/58
【外国語出願】
(21)【出願番号】P 2023142365
(22)【出願日】2023-09-01
【審査請求日】2023-12-14
(31)【優先権主張番号】10-2022-0111491
(32)【優先日】2022-09-02
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2022-0135629
(32)【優先日】2022-10-20
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2022-0164963
(32)【優先日】2022-11-30
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2022-0164964
(32)【優先日】2022-11-30
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】523045180
【氏名又は名称】42ドット・インコーポレイテッド
【氏名又は名称原語表記】42dot Inc.
(74)【代理人】
【識別番号】100145403
【氏名又は名称】山尾 憲人
(74)【代理人】
【識別番号】100135703
【氏名又は名称】岡部 英隆
(72)【発明者】
【氏名】チョ,フンギョン
(72)【発明者】
【氏名】パク,ジョンピル
(72)【発明者】
【氏名】チョ,ミョンフン
【審査官】岡本 俊威
(56)【参考文献】
【文献】特開2020-173799(JP,A)
【文献】Karsten Behrendt,Boxy Vehicle Detection in Large Images,2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW),米国,IEEE,2019年08月27日,p840-846,https://ieeexplore.ieee.org/document/9022257
【文献】Bo Zhang, Jian Zhang,A Traffic Surveillance System for Obtaining Comprehensive Information of the Passing Vehicles Based on Instance Segmentation,IEEE Transactions on Intelligent Transportation Systems ( Volume: 22, Issue: 11, November 2021),米国,IEEE,2020年07月10日,p7040-7055,https://ieeexplore.ieee.org/document/9138761
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06V 10/00-20/90
(57)【特許請求の範囲】
【請求項1】
検出されたオブジェクトをアノテーションする方法として、
前記オブジェクトのクラスを分類するステップ、
前記オブジェクトのクラスに基づいて、前記オブジェクトに対して1つの辺を共有する第1四角形及び第2四角形を含むバウンディングボックスを生成するステップ、
前記オブジェクトの属性(attribute)を決定するステップ、及び
前記バウンディングボックス単位で前記オブジェクト
のクラス及びオブジェクトの属性に関するアノテーションを生成するステップを含
み、
前記オブジェクトの属性は、
見える程度、移動状態、車線位置、主な状態、オブジェクトのサイズ、及びサブクラスを含む、方法。
【請求項2】
前記オブジェクトのクラスは、
乗用車、乗合車、トラック、二輪車、歩行者、緊急車、またはその他のいずれかである、
請求項1に記載の方法。
【請求項3】
前記オブジェクトが貨物を運ぶように設計された自動車として他の車両を積載している場合、前記積載された他の車両はクラスを分類しない、請求項1に記載の方法。
【請求項4】
前記バウンディングボックスを生成するステップは、
前記分類されたオブジェクトのクラスに応じて異なる基準を適用してバウンディングボックスを生成することである、請求項1に記載の方法。
【請求項5】
前記第1四角形は長方形であり、
前記第2四角形は台形である、請求項1に記載の方法。
【請求項6】
前記第1四角形は前記オブジェクトの前面または後面に対応し、
前記第2四角形は、前記オブジェクトの左側面または右側面に対応する、請求項1に記載の方法。
【請求項7】
前記オブジェクトの上面が露出された場合、
前記第1四角形または前記第2四角形は前記オブジェクトの上面を含む、請求項
6に記載の方法。
【請求項8】
前記オブジェクトが車輪を有する車両である場合、
前記第2四角形は、車輪が地面に接触する点(wheel ground point)を結ぶ線分を含む、請求項1に記載の方法。
【請求項9】
前記オブジェクトのクラスが二輪車または歩行者の場合、
前記第1四角形の幅は、前記オブジェクトに含まれる人の肩の幅と同じように生成される、請求項
4に記載の方法。
【請求項10】
前記方法は、
前記検出されたオブジェクトが車両であり、映像データに見られる割合が前記オブジェクトの全体サイズの臨界比率未満である場合、前記バウンディングボックスを生成しないように決定するステップをさらに含む、請求項1に記載の方法。
【請求項11】
前記方法は、
前記生成されたアノテーションに基づいて、自車両を制御するステップをさらに含む、請求項1に記載の方法。
【請求項12】
検出されたオブジェクトをアノテーションする装置において、
少なくとも1つのプログラムが保存されたメモリ及び
前記少なくとも1つのプログラムを実行することによって動作するプロセッサを含み、
前記プロセッサは、
前記オブジェクトのクラスを分類し、
前記オブジェクトのクラスに基づいて、前記オブジェクトに対して1つの辺を共有する第1四角形及び第2四角形を含むバウンディングボックスを生成し、
前記オブジェクトの属性(attribute)を決定し、
前記バウンディングボックス単位で前記オブジェクト
のクラス及びオブジェクトの属性に関するアノテーションを生成
し、
前記オブジェクトの属性は、
見える程度、移動状態、車線位置、主な状態、オブジェクトのサイズ、及びサブクラスを含む、装置。
【請求項13】
請求項1に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、検出されたオブジェクトをアノテーションする方法及び装置に関する。
【背景技術】
【0002】
人工知能(AI)は、人間の学習能力、推論能力などを、コンピュータプログラムを用いて人工的に再現する技術を意味する。人工知能に関して、機械学習は、複数のパラメータからなるモデルを用いて所与のデータでパラメータを最適化する学習を意味する。
【0003】
人工知能の学習のために学習用データを設計することが必要である。学習用データ設計にはデータを加工することが必要であり、その中でもアノテーションとは、映像データの中に含まれるオブジェクトに対してバウンディングボックスを生成して必要な情報を入力することを意味する。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本開示の目的は、検出されたオブジェクトをアノテーションする方法及び装置を提供することである。本開示が解決しようとする課題は、上記で言及した課題に限定されず、言及されていない本開示の他の課題及び利点は、以下の説明によって理解され得、本開示の実施形態によってより明確に理解されるであろう。さらに、本開示が解決しようとする課題及び利点は、特許請求の範囲に示された手段及びその組み合わせによって実現され得ることが理解されるであろう。
【課題を解決するための手段】
【0005】
前記技術的課題を解決するための第1実施形態は、オブジェクトのクラスを分類するステップ、前記オブジェクトのクラスに基づいて、前記オブジェクトに対して1つの辺を共有する第1四角形及び第2四角形を含むバウンディングボックスを生成するステップ、及び前記バウンディングボックス単位で前記オブジェクトに関するアノテーションを生成するステップを含む。
【0006】
前記方法は、前記オブジェクトの属性(attribute)を決定するステップをさらに含み、前記アノテーションを生成するステップは、前記バウンディングボックス単位で前記オブジェクトのクラス及びオブジェクトの属性に関するアノテーションを生成するステップを含むことができる。
【0007】
前記方法において、前記オブジェクトのクラスは、乗用車、乗合車、トラック、二輪車、歩行者、緊急車、またはその他のいずれかであり得る。
【0008】
前記方法において、前記オブジェクトが貨物を運ぶように設計された自動車として他の車両を積載している場合、前記積載された他の車両はクラスを分類しなくてもよい。
【0009】
前記方法において、前記バウンディングボックスを生成するステップは、前記分類されたオブジェクトのクラスに応じて異なる基準を適用してバウンディングボックスを生成することであり得る。
【0010】
前記方法において、前記第1四角形は長方形であり、前記第2四角形は台形であり得る。
【0011】
前記方法において、前記第1四角形は前記オブジェクトの前面または後面に対応し、前記第2四角形は前記オブジェクトの左側面または右側面に対応することができる。
【0012】
前記方法において、前記オブジェクトの上面が露出している場合、前記第1四角形または前記第2四角形は前記オブジェクトの上面を含むことができる。
【0013】
前記方法において、前記オブジェクトが車輪を有する車両である場合、前記第2四角形は、車輪が地面に接触する点(wheel ground point)を結ぶ線分を含むことができる。
【0014】
前記方法において、前記オブジェクトのクラスが二輪車または歩行者である場合、前記第1四角形の幅は、前記オブジェクトに含まれる人の肩の幅と同じように生成することができる。
【0015】
前記方法は、前記検出されたオブジェクトが車両であり映像データに見られる割合が前記オブジェクトの全体サイズの臨界比率未満である場合、前記バウンディングボックスを生成しないように決定するステップをさらに含むことができる。
【0016】
前記方法において、前記オブジェクトの属性は、見える程度、移動状態、車線位置、主な状態、オブジェクトのサイズ、及びサブクラスを含むことができる。
【0017】
前記方法は、前記生成されたアノテーションに基づいて自車両を制御するステップをさらに含むことができる。
【0018】
前記技術的課題を解決するための本発明の第2実施形態による装置は、少なくとも1つのプログラムが保存されたメモリ、及び前記少なくとも1つのプログラムを実行することによって動作するプロセッサを含み、前記プロセッサは、オブジェクトのクラスを分類し、前記オブジェクトのクラスに基づいて前記オブジェクトに対して1つの弁を共有する第1四角形及び第2四角形を含むバウンディングボックスを生成し、前記バウンディングボックス単位で前記オブジェクトに関するアノテーションを生成する検出されたオブジェクトをアノテーションするための装置を提供することができる。
【0019】
前記技術的課題を解決するための本発明の第3実施形態による方法は、走行中に取得された第1映像に含まれた少なくとも1つのオブジェクトを認識し、前記認識されたオブジェクトごとに第1外郭線を生成するステップ、前記生成された第1外郭線に基づいて前記第1映像から前記認識されたオブジェクトを抽出するステップ、前記抽出されたオブジェクトを第1学習モデルに入力した結果として、前記抽出されたオブジェクトの第2外郭線の第1座標値を取得するステップ、及び前記取得された第1座標値に基づいて前記第2外郭線が適用されたオブジェクトを前記第1映像にマージするステップを含む。
【0020】
前記方法において、前記第1映像における前記抽出されたオブジェクトの位置に対する第2座標値を算出し、前記第2座標値に基づいて前記第2外郭線の座標である第3座標値を算出するステップをさらに含み、前記第1映像にマージするステップは、前記取得された第3座標値をさらに考慮して、前記第2外郭線が適用されたブジェクトを前記第1映像にマージすることができる。
【0021】
前記方法において、前記第1座標値は7つの座標値で構成することができる。
【0022】
前記方法において、前記第1座標値は8つの座標値で構成することができる。
【0023】
前記方法において、前記第1外郭線は多角形の形態であり得る。
【0024】
前記方法において、前記第1外郭線は長方形の形態であり得る。
【0025】
前記方法において、前記第1外郭線は、前記第1映像を第2学習モデルに入力した結果として生成されてもよい。
【0026】
前記方法において、前記第2外郭線はキューボイド(cuboid)形態であり得る。
【0027】
前記方法において、前記第2外郭線は正方形の形態であり得る。
【0028】
前記方法において、前記第2外郭線は2つの多角形を含む形態であり得る。
【0029】
前記方法において、前記2つの多角形のうちの1つは前記オブジェクトの前面(front)または後面(rear)を表し、残りの1つは前記オブジェクトの側面を表すことができる。
【0030】
前記方法において、前記第2外郭線は、2つの多角形が少なくとも1つの共通の辺に基づいて結合された形態であり得る。
【0031】
前記方法において、前記第2外郭線は長方形及び台形を含む形態であり得る。
【0032】
前記方法において、前記第1外郭線の規格は、前記第2外郭線の規格を含むことができる。
【0033】
前記技術的課題を解決するための本発明の第4実施形態による装置は、少なくとも1つのプログラムが保存されたメモリ、及び前記少なくとも1つのプログラムを実行することによって演算を行うプロセッサを含み、前記プロセッサは、走行中に取得された第1映像に含まれた少なくとも1つのオブジェクトを認識し、前記認識されたオブジェクトごとに第1外郭線を生成し、前記生成された第1外郭線に基づいて前記第1映像から前記認識されたオブジェクトを抽出し、前記抽出されたオブジェクトを第1学習モデルに入力した結果として、前記抽出されたオブジェクトの第2外郭線に対する第1座標値を取得し、前記取得された第1座標値に基づいて前記第2外郭線が適用されたオブジェクトを前記第1映像にマージすることができる。
【0034】
前記技術的課題を解決するための本発明の第5実施形態による方法は、走行中に取得された第1映像に含まれる少なくとも1つのオブジェクトを認識し、前記認識されたオブジェクトごとに第1外郭線を生成するステップ、前記第1映像において前記生成された第1外郭線を構成する第1座標値を抽出するステップ、及び前記認識されたオブジェクト及び前記抽出された第1座標値に基づいて、前記認識されたオブジェクトのキューボイドの座標を取得するステップを含む。
【0035】
前記方法において、前記第1外郭線は、前記認識されたオブジェクトに対するバウンディングボックス(bounding box)であり得る。
【0036】
前記方法において、前記キューボイドは、前記認識されたオブジェクトの高さ、幅、及び深さに関する情報を視覚的に表した標識であり得る。
【0037】
前記方法において、前記キューボイドは、前記認識されたオブジェクトの側面を表すサイドポイント(side point)を含むことができる。
【0038】
前記方法において、前記サイドポイントは、上下に配置された2つの点を含むことができる。
【0039】
前記方法において、前記キューボイドは、前記認識されたオブジェクトの後面を表す後面標識(rear sign)を含むことができる。
【0040】
前記方法において、前記キューボイドは、前記認識されたオブジェクトの露出度を示す露出標識を含むことができる。
【0041】
前記方法において、前記キューボイドは、前記認識されたオブジェクトの側面を表すサイドポイント、前記認識されたオブジェクトの後面を表す後面標識、及び前記認識されたオブジェクトの露出度を表す露出標識のうちの少なくとも1つを含むことができる。
【0042】
前記方法において、前記取得されたキューボイドは、前記認識されたオブジェクトの後面を示す後面標識を含み、前記後面標識は、前記認識されたオブジェクトの方向が完全に前面(front only)方向であれば、前記認識されたオブジェクトの真ん中を分けて上下方向に延びる線(line)であり得る。
【0043】
前記方法において、前記後面標識の長さは、前記第1外郭線の高さと一致し得る。
【0044】
前記方法において、前記取得されたキューボイドは、前記認識されたオブジェクトの後面を示す後面標識を含み、前記後面標識は、前記認識されたオブジェクトの方向が完全に後面(rear only)方向であれば、前記第1外郭線と一致し得る。
【0045】
前記方法において、前記取得されたキューボイドは、前記認識されたオブジェクトの側面を表すサイドポイント及び前記認識されたオブジェクトの後面を示す後面標識を含み、前記認識されたオブジェクトの方向が前記認識されたオブジェクトの前面及び側面のみが見える方向であれば、前記サイドポイントを結ぶ線の長さは第1外郭線の高さに等しく、前記後面標識は前記第1外郭線の左辺または右辺の少なくとも一部を共有する線に限定されてもよい。
【0046】
前記方法において、前記取得されたキューボイドは、前記認識されたオブジェクトの側面を表すサイドポイント及び前記認識されたオブジェクトの後面を示す後面標識を含み、前記認識されたオブジェクトの方向が前記認識されたオブジェクトの側面及び後面のみが見える方向であれば、前記サイドポイントを結ぶ線の長さは、前記第1外郭線の左辺または右辺の一部の長さに制限され、前記後面標識は、前記第1外郭線の右辺を共有する四角形で表され得る。
【0047】
前記方法において、第1項において、前記取得されたキューボイドは、前記認識されたオブジェクトの側面を表すサイドポイント及び前記認識されたオブジェクトの後面を示す後面標識を含み、前記認識されたオブジェクトの方向が前記認識されたオブジェクトの左側面または右側面のみが見える方向であれば、前記サイドポイントを結ぶ線の長さは第1外郭線の高さに等しく、前記後面標識は前記第1外郭線の左辺または右辺を共有する線に限定され得る。
【0048】
前記技術的課題を解決するための本発明の第6実施形態による装置は、少なくとも1つのプログラムが保存されたメモリ、及び前記少なくとも1つのプログラムを実行することによって、演算を行うプロセッサを含み、前記プロセッサは、走行中に取得された第1映像に含まれた少なくとも1つのオブジェクトを認識し、前記認識されたオブジェクトごとに第1外郭線を生成し、前記第1映像から前記生成された第1外郭線を構成する第1座標値を抽出し、前記認識されたオブジェクト及び前記抽出された第1座標値に基づいて、前記認識されたオブジェクトのキューボイドの座標を取得することができる。
【0049】
前記技術的課題を解決するための本発明の第7実施形態による方法は、走行中に取得された映像を学習モデルに入力し、前記映像から検出されたオブジェクトの位置及び方向に対する視覚標識を生成するステップ、前記生成された視覚標識の位置をオブジェクトの外郭線内部に移動させる第1補正を行うステップ、及び前記外郭線内部に移動した視覚標識の位置及び形状の少なくとも1つを前記視覚標識の特性に基づいて変更する第2補正を行うステップを含む。
【0050】
前記方法において、前記外郭線は、前記認識されたオブジェクトに対するバウンディングボックス(bounding box)であり得る。
【0051】
前記方法において、前記視覚標識は、前記認識されたオブジェクトの高さ、幅、及び深さに対する情報を視覚的に表すキューボイド(cuboid)であり得る。
【0052】
前記方法において、前記視覚標識は、前記認識されたオブジェクトの側面を表すサイドポイント(side point)を含むことができる。
【0053】
前記方法において、前記視覚標識は、前記認識されたオブジェクトの後面を表す後面標識(rear sign)を含むことができる。
【0054】
前記方法において、前記視覚標識は、前記認識されたオブジェクトの露出度を表す露出標識を含むことができる。
【0055】
前記方法において、前記第1補正を行うステップは、前記生成された視覚標識の位置を前記オブジェクトの外郭線内部に移動させ、前記認識されたオブジェクトの方向を把握し、前記第2補正を行うステップは、前記把握されたオブジェクトの方向をさらに考慮して、前記第2補正を行うことができる。
【0056】
前記方法において、前記第1補正を行うステップは、前記認識されたオブジェクトの方向を把握した後、前記生成された視覚標識の位置を前記オブジェクトの外郭線内部に移動させ、前記第2補正を行うステップは、前記把握されたオブジェクトの方向をさらに考慮して、前記第2補正を行うことができる。
【0057】
前記方法において、前記第1補正を行うステップは、前記生成された視覚標識のうち、前記外郭線の外部に位置する視覚標識を、前記外郭線内部に移動させることができる。
【0058】
前記方法において、前記第1補正を行うステップは、前記生成された視覚標識のうち、前記外郭線の外部に位置する視覚標識を、前記外郭線の境界に移動させることができる。
【0059】
前記方法において、前記第1補正を行うステップは、前記外郭線の外部に位置する視覚標識を、前記外郭線を構成する複数の点のうち最も近い点に移動させることができる。
【0060】
前記方法において、前記第2補正を行うステップは、前記視覚標識が後面標識である場合、前記認識されたオブジェクトの後面の広さに対応するボックスで前記視覚標識の位置及び形状を変更する、映像内のオブジェクトの視覚標識を補正する方法。
【0061】
前記方法において、前記第2補正を行うステップは、前記視覚標識が後面標識である場合、前記認識されたオブジェクトの後面の高さに対応する線で前記視覚標識の形状を変更することができる。
【0062】
前記技術的課題を解決するための本発明の第8実施形態による装置は、少なくとも1つのプログラムが保存されたメモリ、及び前記少なくとも1つのプログラムを実行することによって演算を行うプロセッサを含み、前記プロセッサは、走行中に取得された映像を学習モデルに入力し、前記映像から検出されたオブジェクトの位置及び方向に対する視覚標識を生成し、前記生成された視覚標識の位置をオブジェクトの外郭線内部に移動させる第1補正を行い、前記外郭線内部に移動された視覚標識の位置及び形状の少なくとも1つを前記視覚標識の特性に基づいて変更する第2補正を行う。
【0063】
本発明の一実施形態は、前記方法のうちの少なくとも1つを実行するためのプログラムを保存しているコンピュータで読み取り可能な記録媒体を提供することができる。
【発明の効果】
【0064】
本発明の一実施形態によれば、人工知能学習及び車両走行制御のための映像データに含まれるオブジェクトに対して効果的なアノテーションが可能である。特に、オブジェクトの種類に応じてバウンディングボックスを適切な方法で生成することができる。
【0065】
さらに、アノテーションが困難な可能性があるオブジェクトに対して特定の基準を提示することによって、特定のオブジェクトの抽出に対するエラーを最小限に抑えることができる。
【0066】
本発明によれば、複雑な道路環境でも映像内のオブジェクトの方向に関する3次元情報(キューボイド情報)を正確に収集することができ、安定した自動運転アルゴリズムを実現するための基礎情報を生成することができる。
【図面の簡単な説明】
【0067】
【
図1】一実施形態による自動運転方式を説明するための図である。
【
図2】一実施形態による自動運転方式を説明するための図である。
【
図3】一実施形態による自動運転方式を説明するための図である。
【
図4】本開示の一実施形態によるバウンディングボックスの構成を説明するための図である。
【
図5A】本開示の一実施形態によるオブジェクトに対して生成されたバウンディングボックスの例を説明するための図である。
【
図5B】本開示の一実施形態によるオブジェクトに対して生成されたバウンディングボックスの例を説明するための図である。
【
図5C】本開示の一実施形態によるオブジェクトに対して生成されたバウンディングボックスの例を説明するための図である。
【
図6】一実施形態による検出されたオブジェクトをアノテーションする方法のフローチャートである。
【
図7】一実施形態による検出されたオブジェクトをアノテーションする装置のブロック図である。
【
図8A】自動運転で動作する車両の外部を撮影するカメラに関連する図である。
【
図8B】自動運転で動作する車両の外部を撮影するカメラに関連する図である。
【
図9】一実施形態によるオブジェクト認識方法を説明する概略図である。
【
図10】オブジェクト外郭線生成装置の動作のうち第1外郭線を生成する過程を説明するための図である。
【
図11】オブジェクト外郭線生成装置が第1外郭線で囲まれたオブジェクトを抽出する過程を説明するための図である。
【
図12A】オブジェクト外郭線生成装置が対象フレームに含まれるオブジェクトの第2外郭線を生成し、第2外郭線が生成された2つの異なるオブジェクトを1つにマージする過程を説明するための図である。
【
図12B】オブジェクト外郭線生成装置が対象フレームに含まれるオブジェクトの第2外郭線を生成し、第2外郭線が生成された2つの異なるオブジェクトを1つにマージする過程を説明するための図である。
【
図13】オブジェクトごとに第2外郭線が生成された後に元の映像にオブジェクトの数だけ繰り返しマージされた例を模式的に説明するための図である。
【
図14】
図10~
図13で説明した実施形態によるオブジェクト外郭線生成方法をフローチャートで示す図である。
【
図15】一実施形態によるオブジェクト外郭線生成装置のブロック図である。
【
図16】走行中に取得された映像に、本発明による映像内のオブジェクトのキューボイド取得方法が適用されなかったときと適用されたときとの結果物をそれぞれ模式的に示す図である。
【
図17】本発明によるキューボイド取得装置のキューボイド取得プロセスを説明するための概念図である。
【
図18】キューボイド取得装置が取得した、前面左側方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【
図19】キューボイド取得装置が取得した、前面方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【
図20】キューボイド取得装置が取得した、前面右側方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【
図21】キューボイド取得装置が取得した、左側面のオブジェクトのキューボイドを説明するための一例を示す図である。
【
図22】キューボイド取得装置が取得した、右側面のオブジェクトのキューボイドを説明するための一例を示す図である。
【
図23】キューボイド取得装置が取得した、後面左側方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【
図24】キューボイド取得装置が取得した、後面右側方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【
図25】キューボイド取得装置が取得した、後面方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【
図26】本発明によるキューボイド取得装置によって、後面標識を補正するプロセスの一例を模式的に示す図である。
【
図27】本発明によるキューボイド取得装置によって、後面標識を補正するプロセスの他の一例を模式的に示す図である。
【
図28】本発明によるキューボイド取得装置によって、後面標識を補正するプロセスの他の一例を模式的に示す図である。
【
図29】本発明によるキューボイド取得方法の一例をフローチャートで示す図である。
【
図30】一実施形態によるキューボイド取得装置のブロック図である。
【
図31】本発明による映像内のオブジェクトの視覚標識補正装置の動作プロセスを概念的に示す図である。
【
図32】本発明による視覚標識補正装置によって処理される第1補正プロセスの一例を模式的に示す図である。
【
図33】本発明による視覚標識補正装置によって処理される第2補正プロセスの一例を模式的に示す図である。
【
図34】本発明による視覚標識補正装置によって処理される第2補正プロセスの他の一例を模式的に示す図である。
【
図35】本発明による視覚標識補正装置によって処理される第2補正プロセスの他の一例を模式的に示す図である。
【
図36】本発明による視覚標識補正方法の一例をフローチャートで示す図である。
【
図37】一実施形態による視覚標識補正装置のブロック図である。
【発明を実施するための形態】
【0068】
本発明の利点及び特徴、そしてそれらを達成する方法は、添付の図面と共に詳細に説明される実施形態を参照することによって明らかになるであろう。しかしながら、本発明は、以下に提示される実施形態に限定されるものではなく、互いに異なる様々な形態で実現することができ、本発明の精神及び技術範囲に含まれるすべての変換、均等物から代替物を含むことと理解すべきである。以下に提示される実施形態は、本発明の開示を完全にし、本発明が属する技術分野において通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものである。本発明の説明において、関連する公知技術の具体的な説明が本発明の要旨を不明瞭にすると判断される場合、その詳細な説明は省略する。
【0069】
本出願で使用される用語は、単に特定の実施形態を説明するために使用されたものであり、本発明を限定することを意図していない。単数の表現は、文脈上明らかに他に意味がない限り、複数の表現を含む。本出願において、「含む」または「有する」などの用語は、本明細書に記載された特徴、数字、ステップ、動作、構成要素、部品、またはそれらの組み合わせたものが存在することを指定しようとすることであって、1つまたは複数の他の特徴、数字、ステップ、動作、構成要素、部品、またはそれらを組み合わせたものの存在または追加の可能性を予め排除しないことと理解されるべきである。
【0070】
本開示のいくつかの実施形態は、機能的なブロック構成及び様々な処理ステップで表すことができる。そのような機能ブロックの一部または全部は、特定の機能を実行する様々な数のハードウェア及び/またはソフトウェア構成で実装することができる。例えば、本開示の機能ブロックは、1つ以上のマイクロプロセッサによって実装されてもよく、または所定の機能のための回路構成によって実装されてもよい。また、例えば、本開示の機能ブロックは、様々なプログラミングまたはスクリプト言語で実装することができる。機能ブロックは、1つ以上のプロセッサで実行されるアルゴリズムで実装することができる。また、本開示は、電子的環境設定、信号処理、及び/またはデータ処理などのために従来技術を採用することができる。「機構」、「要素」、「手段」及び「構成」などの用語は広く使用され得、機械的で物理的な構成に限定されるものではない。
【0071】
さらに、図面に示されている構成要素間の接続線または接続部材は、機能的な接続及び/または物理的または回路的接続を例示的に示したものにすぎない。実際の装置では、交換可能または追加された様々な機能的接続、物理的接続、または回路接続によって構成要素間の接続を表すことができる。
【0072】
以下では、「車両」とは、自動車、バス、オートバイ、キックボード、またはトラックなどの機関を有する人または物を移動させるために使用されるあらゆる種類の輸送手段を意味することができる。
【0073】
以下、添付の図面を参照して本開示を詳細に説明する。
【0074】
図1を参照すると、本発明の一実施形態による自動運転装置は、車両に搭載されて自動運転車両10を実現することができる。自動運転車両10に搭載される自動運転装置は、周辺の状況情報を収集するための様々なセンサ(カメラを含む)を含むことができる。一例として、自動運転装置は、自動運転車両10の前面に取り付けられたイメージセンサ及び/またはイベントセンサを介して、前方で走行中の先行車両20の動きを感知することができる。自動運転装置は、自動運転車両10の前面はもちろん、隣の車線で走行中の他の走行車両30と、自動運転車両10周辺の歩行者等を感知するためのセンサとをさらに含むことができる。
【0075】
自動運転車両周辺の状況情報を収集するためのセンサのうちの少なくとも1つは、
図1に示すように、所定の画角(FoV)を有することができる。一例として、自動運転車両10の前面に搭載されたセンサが
図1に示すような画角(FoV)を有する場合、センサの中央で検出される情報が比較的高い重要度を有することができる。これは、センサの中央で検出される情報に、先行車両20の動きに対応する情報がほとんど含まれているためであり得る。
【0076】
自動運転装置は、自動運転車両10のセンサが収集した情報をリアルタイムで処理して自動運転車両10の動きを制御する一方、センサが収集した情報のうち少なくとも一部はメモリ装置に保存することができる。
【0077】
図2を参照すると、自動運転装置40は、センサ部41、プロセッサ46、メモリシステム47、及び車体制御モジュール48などを含むことができる。センサ部41は、複数のセンサ(カメラを含む)42~45を含み、複数のセンサ42~45は、イメージセンサ、イベントセンサ、照度センサ、GPS装置、加速度センサなどを含むことができる。
【0078】
センサ42~45によって収集されたデータはプロセッサ46に転送されてもよい。プロセッサ46は、センサ42~45が収集したデータをメモリシステム47に保存し、センサ42~45が収集したデータに基づいて車体制御モジュール48を制御して車両の動きを決めることができる。メモリシステム47は、2つ以上のメモリデバイスと、メモリデバイスを制御するためのシステムコントローラとを含み得る。メモリデバイスのそれぞれは1つの半導体チップで提供されてもよい。
【0079】
メモリシステム47のシステムコントローラに加えて、メモリシステム47に含まれる各メモリデバイスはメモリコントローラを含み得、メモリコントローラはニューラルネットワークなどの人工知能(AI)演算回路を含むことができる。メモリコントローラは、センサ42~45またはプロセッサ46から受信したデータに所定の重みを与えて演算データを生成し、演算データをメモリチップに保存することができる。
【0080】
図3は、自動運転装置が搭載された自動運転車両のセンサ(カメラを含む)が取得した映像データの一例を示す図である。
図3を参照すると、映像データ50は、自動運転車両の前面に搭載されたセンサが取得したデータであり得る。したがって、映像データ50には、自動運転車両の前面部51、自動運転車両と同じ車線の先行車両52、自動運転車両周辺の走行車両53、及び背景54などが含まれ得る。
【0081】
図3に示す実施形態による映像データ50において、自動運転車両の前面部51と背景54が現れる領域のデータは、自動運転車両の運行に影響を及ぼす可能性がほとんどないデータであり得る。言い換えれば、自動運転車両の前面部51と背景54は、比較的低い重要度を有するデータと見なすことができる。
【0082】
一方、先行車両52との距離、及び走行車両53の車線変更の動きなどは、自動運転車両の安全な運行において非常に重要な要素であり得る。したがって、映像データ50において先行車両52及び走行車両53などが含まれる領域のデータは、自動運転車両の運行において比較的高い重要度を有することができる。
【0083】
自動運転装置のメモリデバイスは、センサから受信した映像データ50の領域別に重みを異なるように付与して保存することができる。一例として、先行車両52と走行車両53等が含まれる領域のデータには高い重みを付与し、自動運転車両の前面部51と背景54が現れる領域のデータには低い重みを与えることができる。
【0084】
以下では、様々な実施形態による動作は、自動運転装置または自動運転装置に含まれるプロセッサによって行われることと理解され得る。
【0085】
本開示の様々な実施形態による検出されたオブジェクトに対するアノテーション装置は、自動運転装置と実質的に同一であるか、自動運転装置に含まれるか、または自動運転装置が行う機能の一部として実現される構成要素であり得る。
【0086】
本開示の検出されたオブジェクトをアノテーションする装置は、検出されたオブジェクトのクラスを分類することができる。本開示の検出されたオブジェクトをアノテーションする装置は、分類されたオブジェクトのクラスに基づいてオブジェクトに対してバウンディングボックスを生成することができる。本開示の検出されたオブジェクトをアノテーションする装置は、生成されたバウンディングボックス単位でオブジェクトに関するアノテーションを生成することができる。以下では、検出されたオブジェクトをアノテーションする装置が検出されたオブジェクトをアノテーションする方法について詳細に説明する。
【0087】
本開示の検出されたオブジェクトをアノテーションする装置は、検出されたオブジェクトのクラスを分類することができる。
【0088】
一実施形態では、オブジェクトのクラスを分類するために、検出されたオブジェクトをアノテーションする装置はデータの入力を受け取ることができる。例えば、入力されたデータは、カメラによって収集される映像データであり得るが、これらに限定されず、画像、テキスト、音声などの様々な種類のデータを含み得る。
【0089】
一実施形態では、検出されたオブジェクトをアノテーションする装置は分類器を含み得、分類器は入力されたデータが特定のクラスに分類される確率を計算することができる。分類器の確率計算を通じて、検出されたオブジェクトをアノテーションする装置は、入力されたデータに含まれたオブジェクトのクラスを分類することができる。一方、分類器は学習データによって学習することができ、分類器から出力された結果と実際の正解との間の誤差が減少する方向に学習することができる。
【0090】
本開示において、検出されたオブジェクトをアノテーションする装置は、検出されたオブジェクトを複数のクラスのいずれかに該当するものとして分類することができる。
【0091】
一実施形態では、複数のクラスは以下の表1を介して説明することができる。
【0092】
【0093】
表1の複数のクラスのうち、乗用車は、少数の人々を輸送するように設計された自動車に対応することができる。例えば、セダン、SUV、タクシーなどを乗用車に分類することができる。
【0094】
表1の複数のクラスのうち、乗合車は、多数の人々を輸送するように設計された自動車に対応することができる。例えば、16人乗り以上の乗合車、バスなどを乗合車に分類することができる。
【0095】
表1の複数のクラスのうち、トラックは、貨物を運ぶように設計された自動車に対応することができる。貨物を運ぶように設計された自動車に重機車両を含む他の車両が積載されている場合、貨物を運ぶように設計された自動車と他の車両を1つの自動車として見なしてトラックに分類することができる。つまり、検出されたオブジェクトをアノテーションする装置は、貨物を運ぶように設計された自動車に積載された他の車両に対してはクラスを分類しない。
【0096】
表1の複数のクラスのうち、二輪車は二輪で走る機具及びこれに搭乗している人に対応することができる。例えば、オートバイ(motorcycle)、キックボード(scooter)、モペッド(moped)、自転車(bicycle)、セグウェイ(segway)などを二輪車に分類することができる。ベビーカー(stroller)、手押し車(hand truck)も二輪車に分類することができる。
【0097】
表1の複数のクラスのうち、歩行者は徒歩で通行する人に対応することができる。
【0098】
表1の複数のクラスのうち、緊急車は、特殊の目的のために設計された車両として緊急の状況で使用される車両に対応することができる。例えば、警察車、消防車、レッカー車などのサイレンを搭載した車両を緊急車に分類することができる。例えば、覆面パトカーのように、他のクラスに分類することができる車両がサイレンを搭載する場合、サイレンが作動している場合にのみ緊急車に分類することができる。
【0099】
表1の複数のクラスのうち、その他は、残りのクラスに分類されていない車両に対応することができる。例えば、三輪車、フォークリフト、掘削機、人力車、除雪車、ブルドーザー、ロードローラーなどをその他に分類することができる。
【0100】
ただし、上記の表1は例として提供され、任意の適切な分類方式を適用することができる。
【0101】
本開示において、検出されたオブジェクトをアノテーションする装置は、オブジェクトのクラスに応じて異なるアノテーション方法を適用することができる。
【0102】
本開示の検出されたオブジェクトをアノテーションする装置は、オブジェクトのクラスに基づいて検出されたオブジェクトに対してバウンディングボックスを生成することができる。
【0103】
一実施形態では、バウンディングボックスは2つの四角形を含むことができる。具体的には、検出されたオブジェクトをアノテーションする装置は、オブジェクトのクラスに基づいて検出されたオブジェクトに対して1つの辺を共有する第1四角形と第2四角形とを含むバウンディングボックスを生成することができる。
【0104】
図4は、本開示の一実施形態によるバウンディングボックスの構成を説明するための図である。
【0105】
本開示の一実施形態によるバウンディングボックス400は、第1四角形410及び第2四角形420を含むことができる。本実施形態による形態のバウンディングボックス400を使用すると、二次元映像データに表示されるオブジェクトに対して前後面と側面を区別して特定できるという効果がある。
【0106】
一実施形態では、第1四角形410は長方形の形状を有することができる。すなわち、第1四角形410は、隣接する線分と垂直になる4つの辺を含むことができる。一実施形態では、第1四角形410の2つの辺は地面と水平であり、第1四角形410の残りの2つの辺は地面と垂直であり得る。
【0107】
一実施形態では、第2四角形420は台形の形状を有することができる。すなわち、第2四角形420の4つの辺のうちの2つの辺は互いに平行であり得る。
【0108】
一実施形態では、第1四角形410と第2四角形420は1つの辺を共有することができる。一実施形態では、第1四角形410と第2四角形420とが共有する辺は、地面に垂直な辺であり得る。
【0109】
一実施形態では、第1四角形410は車両の前面または後面に対応することができる。一実施形態では、第2四角形420は、車両の右側面または左側面に対応することができる。一方、車両の上面が露出している場合、第1四角形410または第2四角形420は、車両の上面まで含むように生成されてもよい。
【0110】
本開示において、第1四角形410及び第2四角形420を含むバウンディングボックスは、様々な状況に応じて適切に生成することができる。
【0111】
一実施形態では、第1四角形410は、車両のサイドミラーを除外するように生成されてもよい。
【0112】
一実施形態では、第2四角形420は、オブジェクトが車輪を有する車両である場合、車輪が地面に接触する点(wheel ground point)を結ぶ線分を含むように生成されてもよい。
【0113】
一実施形態では、第1四角形410は、車両の前面または後面よりも広く、すなわち車両の側面の一部を含むように生成され得るが、車輪が地面に接触する点を超えないように生成される。
【0114】
一実施形態では、バウンディングボックス400は、車両のドアが開いているときにドアを含まないように生成することができる。
【0115】
一実施形態では、バウンディングボックス400は、車両が梯子車またはクレーンである場合など、上部機器のサイズまたは長さが変わるか、または車両の一部が別々に動く場合、車両の本体に該当する部分のみを含むように生成されてもよい。
【0116】
一実施形態では、バウンディングボックス400は、車両がカーゴトレーラー(cargo trailer)などの他の車輪を有する物体を牽引する場合、車両及び牽引される物体のそれぞれに対して生成することができる。例えば、牽引車両が他の車両を牽引する場合、牽引車両は緊急車のクラスに分類され、牽引される車両は乗用車のクラスに分類され、牽引車両及び他の車両のそれぞれに対してバウンディングボックス400を生成することができる。
【0117】
図5A~5Cは、本開示の一実施形態によるオブジェクトに対して生成されたバウンディングボックスの例を説明するための図である。
【0118】
図5Aを参照すると、一般的なオブジェクトに対して生成されたバウンディングボックスの例が示されている。
【0119】
図5Aでは、第1四角形は車両の後面に対応し、第1四角形の幅は車両の後面の幅に対応するように生成されてもよい。
図5Aでは、第2四角形は、車輪が地面に接触する点を結ぶ線分を含むように生成されてもよい。
図5Aでは、第1四角形及び第2四角形は、1つの地面に垂直な線分を共有し、検出されたオブジェクトの画像を含むように生成されてもよい。
【0120】
本開示において、検出されたオブジェクトをアノテーションする装置は、分類されたオブジェクトのクラスに応じて異なる基準を適用してバウンディングボックスを生成することができる。
【0121】
一実施形態では、オブジェクトのクラスがトラック、二輪車またはその他である場合、第1四角形の高さ(地面と垂直方向の長さ)及び第2四角形の幅(地面と水平方向の長さ)はオブジェクトが積載している物体(例えば、荷物、貨物)を含むように生成することができる。本実施形態では、第1四角形の幅(地面と水平方向の長さ)は、オブジェクトが積載している物体には関係なく生成することができる。
【0122】
図5Bを参照すると、トラックである車両に関して、第四角形と第2四角形とを含むバウンディングボックスが生成される。トラックの前面に対応する第1四角形の幅は、積載している物体に関係なく生成することができる。一方、第2四角形は、車輪が地面に接触する点を結ぶ線分を含むように生成され、第1四角形の高さと第2四角形の幅は、トラックが積載されている物体を含むように生成され得る。
【0123】
一実施形態では、オブジェクトのクラスが二輪車である場合、第1四角形の幅は、オブジェクトに含まれる人の身体の特定の寸法に対応して生成されてもよい。オブジェクトのクラスが二輪車である場合、前面または後面の幅を特定することが困難であるか、前面または後面の幅が非常に狭いためである。例えば、人の体の特定の寸法は肩の幅であり得る。具体的には、オブジェクトのクラスが二輪車である場合、第1四角形の幅は人の肩の幅と同じであり得、第1四角形の高さは乗り物と乗りものの上の人を含むオブジェクトの高さと同じであり得る。このとき、第2四角形は、第1四角形の右側または左側にオブジェクトの側面を含むように生成されてもよい。
【0124】
図5Cを参照すると、人が搭乗している自転車に関して、第1四角形と第2四角形を含むバウンディングボックスが生成される。自転車の後面に対応する第1四角形の幅は、搭乗している人の肩の幅と同じように生成されてもよい。さらに、第1四角形の高さは、自転車と人を含むオブジェクトの高さと同じように生成することができる。第2四角形は、第1四角形の左側にオブジェクトの側面を含むように生成することができる。
【0125】
一実施形態では、オブジェクトのクラスが歩行者である場合、第1四角形の幅は、オブジェクトに含まれる人の身体の特定の寸法に対応して生成されてもよい。オブジェクトのクラスが歩行者である場合、二輪車である場合と同様に、前面または後面の幅を特定することが困難であるか、前面または後面の幅が非常に狭いためである。例えば、人の体の特定の寸法は肩の幅であり得る。具体的には、オブジェクトのクラスが歩行者である場合、第1四角形の幅は人の肩の幅と同じであり得、第1四角形の高さは人の身長と同じであり得る。
【0126】
一方、一実施形態では、オブジェクトのクラスが二輪車であるが、搭乗している人がいない場合、第1四角形410の幅はハンドルバー(stem)またはフロントフォーク(fork)に基づいて生成することができる。
【0127】
一実施形態では、オブジェクトのクラスが歩行者である場合、人が所持している杖、ほうき、ハンドバッグ、傘などは、バウンディングボックスに含まれなくてもよい。
【0128】
本開示において、検出されたオブジェクトをアノテーションする装置は、映像データにオブジェクトの一部のみが含まれる場合、条件に従ってバウンディングボックスを生成するかどうかを決定することができる。
【0129】
一実施形態では、オブジェクトが映像データに見られる割合に基づいてバウンディングボックスを生成するかどうかを決定することができる。例えば、車両が映像データに見られる割合がオブジェクトの全体サイズの臨界比率(例えば、30%)未満である場合、検出されたオブジェクトをアノテーションする装置は、バウンディングボックスを生成しないことを決定することができる。
【0130】
一実施形態では、オブジェクトの一部が映像データに現れる割合に基づいてバウンディングボックスを生成するかどうかを決定することができる。例えば、車両の車輪が映像データに現れる割合が車両の車輪サイズの50%未満である場合、検出されたオブジェクトをアノテーションする装置は、バウンディングボックスを生成しないことを決定することができる。
【0131】
一実施形態では、特定のオブジェクトが映像データに占める面積に基づいてバウンディングボックスを生成するかどうかを決定することができる。例えば、乗合車、トラック、またはその他に分類されたオブジェクトが映像データで150px以上を占める場合、検出されたオブジェクトをアノテーションする装置は、バウンディングボックスを生成するように決定することができる。
【0132】
本開示において、様々な条件に応じて、バウンディングボックス生成を決定するかどうか、バウンディングボックスの生成方法などを別に適用することによって、検出されたオブジェクトに対するアノテーション及びそれに基づいて安全で効果的な自車両の走行制御が行われ得る。
【0133】
本開示の検出されたオブジェクトをアノテーションする装置は、バウンディングボックス単位でオブジェクトに関するアノテーションを生成することができる。
【0134】
一実施形態では、検出されたオブジェクトをアノテーションする装置は、バウンディングボックス単位でオブジェクトの属性(attribute)を決定することができる。本開示において、オブジェクトの属性は、オブジェクトのクラスとは別に、自車両との関係におけるオブジェクトの性質を指すことができる。
【0135】
一実施形態では、決定され得るオブジェクトの属性は、以下の表2を介して説明することができる。
【0136】
【0137】
一実施形態では、オブジェクトの属性は、オブジェクトの見える程度を含み得る。本開示において、見える程度は、オブジェクトの全体を基準に映像データにオブジェクトが見える部分の割合に関連する属性を指すことができる。
【0138】
映像データでオブジェクトが見える部分の割合に応じて見える程度を決定することができる。見える程度が決定されることに、任意の適切な方法による基準を適用することができる。たとえば、オブジェクトが見える割合が0%以上及び20%未満の場合、見える程度は「1段階」、オブジェクトが見える割合が20%以上及び40%未満の場合、見える程度は「2段階」、オブジェクトが見える割合が40%以上及び60%未満の場合、見える程度は「3段階」、オブジェクトが見える割合が60%以上及び80%未満の場合、見える程度は「4段階」、オブジェクトが見える割合が80%以上及び100%未満の場合、見える程度は「5段階」、オブジェクトの全部が見える場合、見える程度は「6段階」と決定され得る。
【0139】
一実施形態では、オブジェクトの属性はオブジェクトの移動状態を含み得る。本開示において、移動状態は、オブジェクトの移動に関連する属性を指すことができる。
【0140】
オブジェクトが移動するかどうかによって移動状態が決定され得る。移動状態が決定されることに、任意の適切な方法による基準を適用することができる。たとえば、オブジェクトが動いている場合、移動状態は「移動中」、オブジェクトが停止しているが動くことができる場合、移動状態は「停止中」、オブジェクトが停止していて、動く意図がない場合、移動状態は「駐車中」と決定され得る。一実施形態では、あるオブジェクトが人を含んでいることが検出された場合、オブジェクトの移動状態は「駐車中」に決定されないように制限されてもよい。
【0141】
オブジェクトの移動状態に応じて、自車両は経路設定または走行制御を変えることができる。例えば、前方のオブジェクトの移動状態が「停止中」の場合、自車両は一定時間待機するように制御することができるが、前方のオブジェクトの移動状態が「駐車中」の場合、自車両は前方のオブジェクトを避けて移動するように制御することができる。
【0142】
一実施形態では、オブジェクトの属性は車線位置を含み得る。本開示において、車線位置は、自車両との位置関係に関する情報または属性を指すことができる。
【0143】
一実施形態では、車線位置は、車線を単位とした自車両との相対位置を基準に決定されてもよい。例えば、オブジェクトが自車両と同じ車線に属する場合、オブジェクトの車線位置は「0」であり得る。例えば、オブジェクトが自車両の前方を基準に右側車線のいずれかに属する場合、オブジェクトの車線位置は、自車両が属する車線と車線が離れることに対応して増加する正の整数であり得る。たとえば、オブジェクトが自車両の前方を基準に最初の右側車線(すなわち、右側車線のうち最も近い車線)に属する場合、オブジェクトの車線位置は「+1」であり、2番目の右側車線に属する場合、車線位置は「+2」であり、3番目の右側車線に属する場合、オブジェクトの車線位置は「+3」であり得る。逆に、例えば、オブジェクトが自車両の前方を基準に最初の左側車線(すなわち、左側車線のうち最も近い車線)に属する場合、オブジェクトの車線位置は「-1」であり、2番目の左側車線に属する場合、オブジェクトの車線位置は「-2」であり、3番目の左側車線に属する場合、オブジェクトの車線位置は「-3」であり得る。
【0144】
一実施形態では、オブジェクトの属性はオブジェクトの主な状態を含み得る。本開示において、主な状態は、自車両の走行に影響を与えるかどうかに関する属性を指すことができる。
【0145】
例えば、自車両の直前にあるオブジェクトとして自車両の走行に直接影響を与える可能性がある場合、主な状態は「注意」であり得る。例えば、自車両の走行に全く影響を与えることができない場合、主な状態は「注意不要」であり得る。例えば、急激な車線変更などにより自車両の走行に影響を与える可能性がある場合、主な状態は「注意必要」であり得る。例えば、自車両が歩道に隣接する車線に属する場合、歩道上の歩行者の主な状態は「注意必要」であり得る。
【0146】
一方、オブジェクトの主な状態を決定する過程で、中央分離帯、視線誘導標などは考慮され得る。例えば、オブジェクトがすぐ隣の車線で並んで走行している車両であっても、そのオブジェクトの主な状態は「注意不要」であり得る。
【0147】
オブジェクトの主な状態を決定することによって、検出される1つ以上のオブジェクトに対する走行制御依存度に差別を入れることができる。例えば、主な状態が「注意不要」であるオブジェクトは、走行制御に何の影響も与えない可能性がある。例えば、主な状態が「注意必要」であるオブジェクトは、走行制御に影響を与えることができ、そのオブジェクトの走行(例えば、速度、車線移動)に敏感に反応するように自車両を制御することができる。
【0148】
一実施形態では、オブジェクトの属性はオブジェクトのサイズを含み得る。
【0149】
例えば、オブジェクトのサイズは、自車両との相対的なサイズを基準に決定することができる。例えば、オブジェクトのサイズは、所定の車種によるサイズ分類に基づいて決定されてもよい。例えば、オブジェクトのサイズは、「小」、「中」、または「大」のいずれかであり得る。
【0150】
一実施形態では、オブジェクトの属性はオブジェクトのサブクラスを含み得る。本開示において、オブジェクトのサブクラスは、オブジェクトのクラスに含まれるサブクラスであり、特定のクラスを細分化して区別するための属性を指すことができる。
【0151】
例えば、オブジェクトのクラスが二輪車である場合、サブクラスはRear_car(リヤカー)、Electric_cart(電動カート)、Hand_truck(手押し車)、Three_wheels(三輪車)などを含むことができる。例えば、オブジェクトのクラスが歩行者である場合、サブクラスは「立っている」、「荷物を運んでいる」、「動物と同行している」、「傘を持っている」などを含むことができる。
【0152】
本開示において、検出されたオブジェクトをアノテーションする装置は、バウンディングボックス単位でオブジェクトのクラス及びオブジェクトの属性を保存することによってアノテーションを生成することができる。
【0153】
本開示において、オブジェクトの属性を決定することによって、自車両との関係を基準とした危険度などを評価することができる。また、上記の表2は例として提供され、任意の適切なオブジェクトの属性が付与されてもよい。
【0154】
本開示の検出されたオブジェクトをアノテーションする装置によってアノテーションされたオブジェクトは、自車両の走行を制御するための基礎となり得、自動運転装置の学習に使用してもよい。
【0155】
図6は、一実施形態による検出されたオブジェクトをアノテーションする方法のフローチャートである。
【0156】
図6に示す動作は、上述の検出されたオブジェクトをアノテーションする装置によって実行することができる。具体的には、
図6に示す動作は、上述の検出されたオブジェクトをアノテーションする装置に含まれるプロセッサによって実行することができる。
【0157】
ステップ610において、検出されたオブジェクトをアノテーションする装置は、オブジェクトのクラスを分類することができる。
【0158】
一実施形態では、オブジェクトのクラスは、乗用車、乗合車、トラック、二輪車、歩行者、緊急車、またはその他のいずれかであり得る。
【0159】
一実施形態では、検出されたオブジェクトをアノテーションする装置は、オブジェクトが貨物を運ぶように設計された自動車として他の車両を積載している場合、積載された他の車両はクラスを分類しなくてもよい。
【0160】
ステップ620において、検出されたオブジェクトをアノテーションする装置は、オブジェクトのクラスに基づいてオブジェクトに対して1つの辺を共有する第1四角形と第2四角形とを含むバウンディングボックスを生成することができる。
【0161】
一実施形態では、ステップ620は、分類されたオブジェクトのクラスに応じて異なる基準を適用して行うことができる。
【0162】
一実施形態では、第1四角形は長方形であり得る。
【0163】
一実施形態では、第1四角形はオブジェクトの前面または後面に対応し得る。
【0164】
一実施形態では、第2四角形は台形であり得る。
【0165】
一実施形態では、第2四角形はオブジェクトの左側面または右側面に対応し得る。
【0166】
一実施形態では、オブジェクトの上面が露出している場合、第1四角形または第2四角形はオブジェクトの上面を含むことができる。
【0167】
一実施形態では、オブジェクトが車輪を有する車両である場合、第2四角形は、車輪が地面に接触する点を結ぶ線分を含み得る。
【0168】
一実施形態では、オブジェクトのクラスが二輪車または歩行者である場合、第1四角形の幅は、オブジェクトに含まれる人の肩の幅と同じように生成されてもよい。
【0169】
ステップ630において、検出されたオブジェクトをアノテーションする装置は、バウンディングボックス単位でオブジェクトに対するアノテーションを生成することができる。
【0170】
一実施形態では、検出されたオブジェクトをアノテーションする装置は、オブジェクトの属性を決定し得、ステップ630は、バウンディングボックス単位でオブジェクトのクラス及びオブジェクトの属性に関するアノテーションを生成するステップを含み得る。
【0171】
一実施形態では、オブジェクトの属性は、見える程度、移動状態、車線位置、主な状態、オブジェクトのサイズ、及びサブクラスを含み得る。
【0172】
一実施形態では、検出されたオブジェクトをアノテーションする装置は、検出されたオブジェクトが車両であり、映像データに見られる割合がオブジェクトの全体サイズの臨界比率未満である場合、バウンディングボックスを生成しないように決定することができる。
【0173】
一実施形態では、検出されたオブジェクトをアノテーションする装置は、生成されたアノテーションに基づいて自車両を制御することができる。
【0174】
図7は、一実施形態による静止のターゲットの位置を取得する装置のブロック図である。
【0175】
図7を参照すると、検出されたオブジェクトをアノテーションする装置700は、通信部710、プロセッサ720、及びDB730を含むことができる。
図7の検出されたオブジェクトをアノテーションする装置700には、実施形態に関連する構成要素のみが示されている。したがって、
図7に示す構成要素に加えて他の汎用構成要素をさらに含むことができるのは当技術分野の通常の技術者であれば理解することができる。
【0176】
通信部710は、外部サーバまたは外部装置との有線/無線通信を可能にする1つ以上の構成要素を含むことができる。例えば、通信部710は、近距離通信部(図示せず)、移動通信部(図示せず)及び放送受信部(図示せず)のうちの少なくとも1つを含むことができる。
【0177】
DB730は、検出されたオブジェクトをアノテーションする装置700内で処理される各種データを保存するハードウェアであり、プロセッサ720の処理及び制御のためのプログラムを保存することができる。DB730は、決済情報、ユーザ情報などを保存することができる。
【0178】
DB730は、DRAM(dynamic random access memory)、SRAM(static random access memory)などのRAM(random access memory)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-only memory)、CD-ROM、ブルーレイまたは他の光ディスクストレージ、HDD(hard disk drive)、SSD(solid state drive)、またはフラッシュメモリを含むことができる。
【0179】
プロセッサ720は、検出されたオブジェクトをアノテーションする装置700の全体的な動作を制御する。例えば、プロセッサ720は、DB730に保存されたプログラムを実行することにより、入力部(図示せず)、ディスプレイ(図示せず)、通信部710、DB730などを全体的に制御することができる。プロセッサ720は、DB730に保存されたプログラムを実行することにより、検出されたオブジェクトをアノテーションする装置700の動作を制御することができる。
【0180】
プロセッサ720は、
図1~
図6で上述した検出されたオブジェクトをアノテーションする装置700の動作の少なくとも一部を制御することができる。
【0181】
プロセッサ720は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、コントローラ(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、及び他の機能を行うための電気的なユニットのうちの少なくとも1つを用いて実装することができる。
【0182】
一実施形態では、検出されたオブジェクトをアノテーションする装置700は、移動性を有する電子装置であり得る。例えば、検出されたオブジェクトをアノテーションする装置700は、スマートフォン、タブレットPC、PC、スマートテレビ、PDA(personal digital assistant)、ラップトップ、メディアプレーヤー、ナビゲーション、カメラを搭載したデバイス、及び他のモバイル電子機器として実装することができる。さらに、検出されたオブジェクトをアノテーションする装置700は、通信機能及びデータ処理機能を備えた時計、眼鏡、ヘッドバンド、及びリングなどのウェアラブル装置として実現することができる。
【0183】
別の実施形態では、検出されたオブジェクトをアノテーションする装置700は、車両内に組み込まれる電子装置であり得る。例えば、検出されたオブジェクトをアノテーションする装置700は、製造工程の後にチューニング(tuning)を通じて車両に挿入される電子装置であり得る。
【0184】
また、別の実施形態では、検出されたオブジェクトをアノテーションする装置700は、車両の外部に位置するサーバであり得る。サーバは、ネットワークを介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供するコンピュータ装置または複数のコンピュータ装置で実装することができる。サーバは、車両に搭載された装置から車両の移動経路を決定するために必要なデータを受信し、受信したデータに基づいて車両の移動経路を決定することができる。
【0185】
また、別の実施形態では、検出されたオブジェクトをアノテーションする装置700で行われるプロセスは、移動性を有する電子装置、車両内に組み込まれる電子装置、及び車両の外部に位置するサーバのうちの少なくとも一部によって行われ得る。
【0186】
図8A及び
図8Bは、自動運転で動作する車両の外部を撮影するカメラに関連する図である。
【0187】
カメラは車両に搭載され、車両の外部を撮影することができる。カメラは車両の前方、側方、後方などを撮影することができる。本発明によるオブジェクトの外郭線生成装置は、カメラで撮影された複数の映像を取得することができる。カメラで撮影された複数の映像は、複数のオブジェクトを含むことができる。
【0188】
オブジェクトに関する情報には、オブジェクトの種別情報及びオブジェクトの属性情報を含む。ここで、オブジェクトの種別情報は、オブジェクトの種別を示すインデックス情報であり、大きな範囲のグループと詳細な範囲のクラスとで構成される。そして、オブジェクトの属性情報は、オブジェクトの現在の状態に関する属性情報を示すものであり、動き情報、回転情報、交通情報、色情報、及び可視性情報などを含む。
【0189】
一実施形態では、オブジェクトの種別情報に含まれるグループ及びクラスは、以下の表3と同じであってもよいが、これに限定されない。
【0190】
【0191】
動き情報は、オブジェクトの動き情報を表し、停車、駐車、移動などとして定義することができる。車両の場合、停車、駐車、移動はオブジェクトの属性情報で決定することができ、歩行者の場合は移動、停止、不明はオブジェクトの属性情報で決定することができ、信号機などの移動できないオブジェクトの場合はデフォルト値である停止でオブジェクトの属性情報が決定され得る。
【0192】
回転情報は、オブジェクトの回転情報を表し、前面、後面、水平(horizontal)、垂直(vertical)、側面などとして定義することができる。車両の場合、前面、後面、側面にオブジェクトの属性情報が定められ得、横または縦方向の信号機はそれぞれ水平または垂直にオブジェクトの属性情報が定められ得る。
【0193】
交通情報は、オブジェクトの交通情報を意味し、交通標識の指示、警戒、規制、補助標識などとして定義することができる。色情報は、オブジェクトの色情報を意味し、オブジェクトの色、信号機、及び交通標識の色を表すことができる。
【0194】
図8Aを参照すると、オブジェクト811は歩行者であり得る。画像810は所定のサイズを有することができる。複数の画像810には同じオブジェクト811が含まれることがあるが、車両が道路に沿って走行するにつれて車両とオブジェクト811との相対位置は変化し続け、またオブジェクト811も時間とともに移動するようになり、これにより、同じオブジェクト811であっても各画像内の位置が変わることになる。
【0195】
各画像で同じオブジェクトが何であるかを決定するために画像全体を用いると、データ転送量及び演算量がかなり大きくなる。これにより、車両に搭載された装置ではエッジコンピューティングによって処理が困難であり、リアルタイム分析も困難である。
【0196】
図8Bを参照すると、画像820に含まれるバウンディングボックス821が示されている。バウンディングボックス(bounding box)は、オブジェクト(object)に対するメタデータであり、バウンディングボックス情報には、オブジェクトの種別情報(グループ、クラスなど)、画像820上の位置情報、サイズ情報などが含まれてもよい。
【0197】
図8Bを参照すると、バウンディングボックス情報は、該当オブジェクト811が歩行者クラスに該当するという情報と、オブジェクト811の左側上端の頂点が画像上の(x、y)に位置するという情報、オブジェクト811の幅及び高さ(width & height)に関する情報、そしてオブジェクト811が移動中であるという現在の状態情報(すなわち、動き情報)を含むことができる。
【0198】
図9は、一実施形態によるオブジェクト認識方法を説明する概略図である。
【0199】
本発明によるオブジェクトの外郭線生成装置は、カメラから取得された動画をフレームごとに分離して複数のフレームを取得することができる。複数のフレームは、前のフレーム910及び現在のフレーム920を含むことができる。オブジェクトの外郭線生成装置は、一次的にフレームを分析してフレームに含まれているオブジェクトを認識し、二次的に
図8A及び
図8Bで説明したように、認識されたオブジェクトに対応するバウンディングボックスを生成することができる。本発明において、バウンディングボックスは、オブジェクトの外郭に形成され、オブジェクトを囲んでいる線であり、文脈上の第1外郭線及び第2外郭線のいずれかと呼ばれてもよい。
【0200】
オブジェクトの外郭線生成装置は、前のフレーム910で第1歩行者オブジェクト911を認識することができる。
【0201】
一実施形態では、オブジェクトの外郭線生成装置は、フレームを同じサイズのグリッドに分割し、各グリッドに対してグリッドの中央を中心に所定の形態で指定された境界ボックスの数を予測し、それに基づいてオブジェクトの信頼度を計算することができる。オブジェクトの外郭線生成装置は、フレームにオブジェクトが含まれているのか、または背景のみが単独であるのかを決定し、高いオブジェクト信頼度を有する位置を選択してオブジェクトカテゴリを決定することにより、結果的にオブジェクトを認識することができる。ただし、本開示においてオブジェクトを認識する方法はこれに限定されない。
【0202】
オブジェクトの外郭線生成装置は、前のフレーム910で認識された第1歩行者オブジェクト911の第1位置情報を取得することができる。
図8A及び
図8Bで上述したように、第1位置情報は、前のフレーム910上の第1歩行者オブジェクト911に対応するバウンディングボックスのいずれかの頂点(例えば、左側上端の頂点)座標情報及び横、縦の長さ情報を含むことができる。
【0203】
また、オブジェクトの外郭線生成装置は、現在フレーム920で認識された第2歩行者オブジェクト921の第2位置情報を取得することができる。
【0204】
オブジェクトの外郭線生成装置は、前のフレーム910で認識された第1歩行者オブジェクト911の第1位置情報と、現在フレーム920で認識された第2歩行者オブジェクト921の第2位置情報との類似度を算出することができる。
【0205】
図9を参照すると、第1位置情報及び第2位置情報を用いて、オブジェクトの外郭線生成装置は、第1歩行者オブジェクト911と第2歩行者オブジェクト921との間の積集合及び和集合を算出することができる。オブジェクトの外郭線生成装置は、和集合領域に比べて積集合領域の値を算出し、算出された値が閾値以上である場合、第1歩行者オブジェクト911及び第2歩行者オブジェクト921が同じ歩行者オブジェクトであると決定することができる。
【0206】
しかしながら、オブジェクト間の同一性を判別する方法は、上記の方法に限定されない。
【0207】
図10は、オブジェクトの外郭線生成装置の動作のうち第1外郭線を生成する過程を説明するための図である。
【0208】
図10(a)は、自動運転車が走行中に取得した映像を構成する複数のフレームのうちの1つのフレーム(以下、「対象フレーム」)を示すものであり、
図10(a)の対象フレームはカメラのレンズから近い位置にはオートバイが停車しており、停車したオートバイの後ろには乗用車が停車していることを示している。
【0209】
図10(b)は、対象フレーム(target frame)にあるオートバイと乗用車に外郭線が生成されたことを模式的に示している。本発明によるオブジェクトの外郭線生成装置は、フレームを分析して少なくとも1つ以上のオブジェクトが認識されると、オブジェクトの形状、色、姿に関するデータを学習モデルの入力データとして、出力データとしてオブジェクトの外郭線が出力されるようにする。
【0210】
ここで、学習モデルはディープラーニング(deep learning)に基づくモデルであってもよいが、これに限定されない。学習モデルは、画像を入力データとして受け取り、画像に含まれたオブジェクトの特定のポイントに基づいてオブジェクトを認識し、オブジェクト全体を囲む外郭線を生成するように学習されたモデルであり、自動運転車が撮影した映像の対象フレームが学習が完了した学習モデルのテストデータ(test data)として入力されることにより、結果的に対象フレームに含まれるオブジェクトに外郭線が生成され得る。
【0211】
一例として、オブジェクトの周りに生成される外郭線は多角形であり得る。別の例として、オブジェクトの周りに生成される外郭線は、
図10(b)に示すように長方形であり得、外郭線は、1つのオブジェクトとして認識された全体を漏れなく含めるように形成され得る。
【0212】
外郭線を形成するための情報は、座標または座標値で表すことができる。
図10(b)のような長方形の外郭線は、長方形の左上座標及び右下座標のみで形成することができる。たとえば、左上座標が(x1、y1)、右下座標が(x2、y2)であれば、長方形の形態的特徴によって、左下座標は(x1、y2)、右上座標は(x2、y1)であると確定することができる。すなわち、外郭線を生成するために確定すべき座標(coordinate)は合計2つの座標となり、確定すべき座標値(coordinate value)は合計4つ(x1、x2、y1、y2)となる。
【0213】
実施形態によれば、対象フレームで認識されたオブジェクトに対する外郭線は、ユーザの入力によって決定されてもよい。具体的には、オブジェクトの外郭線生成装置は、自動運転車が撮影した映像でオブジェクトが認識される対象フレームがあれば、対象フレームのみを選択的に抽出してユーザが使用するユーザ端末に出力させることができ、ユーザがオブジェクトを認識して外郭線を生成するための入力をすれば、ユーザの入力に基づいて外郭線が確定されるようにすることができる。
【0214】
以下では、第1外郭線は、
図10(b)に示すように、対象フレームでオブジェクトが認識された直後にオブジェクトを抽出するためにオブジェクトの周りに生成される外郭線を呼ぶものと見なす。すなわち、
図10(b)は、オートバイの第1外郭線1010及び乗用車の第1外郭線1030を併せて示していると言える。
【0215】
図11は、オブジェクトの外郭線生成装置が第1外郭線で囲まれたオブジェクトを抽出する過程を説明するための図である。
【0216】
【0217】
図10のオートバイの第1外郭線1010及び乗用車の第1外郭線1030に基づいて、オブジェクトの外郭線生成装置は、オートバイと乗用車を対象フレームから抽出することができる。オブジェクトの外郭線生成装置が対象フレームからオートバイの第1外郭線1010及び乗用車の第1外郭線1030に基づいて抽出する過程は、クロッピング(cropping)プロセスと呼ばれてもよい。
【0218】
抽出された第1オブジェクト1110及び抽出された第2オブジェクト1130は、対象フレームの全体解像度よりも低い解像度を有し、自動化されたプロセスでオブジェクトの特徴を認識する際に精度を低下させるダミー(dummy)データを最小限に抑えることができる。抽出された第1オブジェクト1110及び抽出された第2オブジェクト1130は、第1オブジェクト及び第2オブジェクトの第2外郭線を結果データとして出力する学習モデルに入力され得る。第2外郭線は、前述した第1外郭線と区別される他の概念であり、第2外郭線については後述する。
【0219】
オートバイ及び乗用車が対象フレームから抽出される過程で、オブジェクトの外郭線生成装置は、オートバイ及び乗用車の第1外郭線の座標値に基づいて、オートバイ及び乗用車のサイズ(幅及び高さ)、絶対位置情報、対象フレームでの相対位置情報を把握して保存することができる。第1外郭線の座標値、オブジェクトのサイズ、オブジェクトの位置情報、対象フレームでの相対位置情報に対する活用例については後述する。
【0220】
図12A及び
図12Bは、オブジェクトの外郭線生成装置が対象フレームに含まれるオブジェクトに対する第2外郭線を生成し、第2外郭線が生成された互いに異なる2つのオブジェクトが1つにマージされる過程を説明するための図である。
【0221】
より具体的には、
図12Aは、オブジェクトの外郭線生成装置が対象フレームに含まれるオブジェクトに対する第2外郭線をそれぞれ生成したことを模式的に示した図であり、
図12Bは、互いに異なる2つのオブジェクトに第2外郭線が生成された後で、1つにマージされた結果を示す図である。
【0222】
オブジェクトの外郭線生成装置は、抽出された第1オブジェクト1110及び抽出された第2オブジェクト1130を学習モデルに入力して、
図12Aのようにオートバイ及び乗用車に対して第2外郭線が生成されるように制御することができる。以下では、第2外郭線が生成されたオートバイ及び第2外郭線が生成された乗用車は、それぞれ第2外郭線が生成された第1オブジェクト1110′及び第2外郭線が生成された第2オブジェクト1130′と称することにする。
【0223】
ここで、学習モデルは、上述の第1外郭線を生成する学習モデルとは異なるモデルであり、一例として、抽出されたオブジェクト画像を入力として受け取り、オブジェクトに対する第2外郭線を出力データとして出力するディープラーニング(deep learning)モデルであり得る。実施形態によっては、第2外郭線を生成する学習モデルは、ディープラーニング方式ではなく他の機械学習技法を用いるモデルであってもよい。
【0224】
ここで、第2外郭線は、2次元で表されているオブジェクトが実際には3次元の情報で表現されることを考慮して、オブジェクトの3次元情報を圧縮的に表現したメタデータの一種を意味する。自動運転車は、第2外郭線で囲まれたオブジェクトを認知することによって、自動運転車を基準としたとき、自動運転車にますます近づくか、自動運転車からますます遠くなるオブジェクトに対する距離計算及び遠近感計算を行うことができる。本発明において第2外郭線は、上記のように自動運転車が様々なオブジェクトに対する距離計算と遠近感計算を行うための基準データとして機能することができる。第2外郭線も第1外郭線のようにオブジェクトを囲んでいるが、3次元情報を圧縮的に表現する特性によって、より多くの座標(または座標値)で構成される特徴を有する。
【0225】
以下では、第2外郭線の座標特性と第2外郭線の形状特性の様々な実施形態について説明する。
【0226】
一例として、第2外郭線の座標値は7つの座標値で構成されてもよい。
図12Bにおいて、オートバイの第2外郭線1210は、オートバイの前面(front)を示す長方形とオートバイの側面を示す台形とが一つの共通の辺に基づいて結合された形態を有している。このとき、オートバイの第2外郭線1210を形成するための頂点座標は、左上端座標である(x1、y1)、中央上端座標である(x2、y1)、右上端座標である(x3、y3)、左下端座標である(x1、y2)、中央下端座標である(x2、y2)、右下端座標である(x3、y4)となり、オートバイの第2外郭線1210を形成するために必要な最小情報である座標値は合計7つ(x1、x2、x3、y1、y2、y3、y4)となる。
【0227】
別の例として、第2外郭線の座標値は8つの座標値で構成されてもよい。
図12Bには示されていないが、オブジェクトの遠近感を生かすためにオブジェクトを直方体(cuboid)形態の第2外郭線で囲む場合、オブジェクトの第2外郭線を形成するために必要な座標は合計8つであり、必要な座標値は合計8つ(x1、x2、x3、x4、y1、y2、y3、y4)となる。
【0228】
第2外郭線の形態は、2つの多角形を含む形態であり得る。特に、本実施形態では、2つの多角形のうちの1つはオブジェクトの前面(front)または後面(rear)を表し、もう1つはオブジェクトの側面を表す多角形であり得る。
【0229】
【0230】
表4は、第2外郭線の形態が横方向に2つの多角形が1つの共通の辺に基づいて結合された形態である場合のオブジェクト移動に対する解釈の一例を表に示すものである。学習モデルは、第1外郭線で囲まれたオブジェクトの画像を入力として受け取り、オブジェクトの前面(front)及び後面(rear)は長方形で表示するように、左側面(left)及び右側面(right)は平行な辺の長さが互いに異なる台形で表示するようにトレーニングデータによって学習されている。
【0231】
図12Bを参照すると、オートバイの第2外郭線1210の上端にはオブジェクトのメタデータとしてFront-leftが記載されており、その下にオートバイの前面と左側面に対応する長方形と台形とが結合された形態の第2外郭線が位置することが分かり、上記のような方式で乗用車の第2外郭線1230も生成することができる。学習モデルは、オブジェクトに対する第2外郭線を生成しながら、第2外郭線を形成するための数値情報として、第2外郭線の座標値を算出することになり、算出された第2外郭線の座標値は、次のステップで第2外郭線が適用されたオブジェクトが元の映像にマージ(merging)されるときにオブジェクトの位置を決定するのに活用することができる。
【0232】
本発明の一実施形態として、第2外郭線の形態は、キューボイド(cuboid)の形態であってもよいし、この場合、必要な座標値は合計8つであると既に説明した。
【0233】
表4には記載されていないが、自動運転車に搭載されたカメラで撮影された映像で前面または後面のみが撮られたか、または側面のみが撮られ、前面/後面が両方とも撮られていない場合、第2外郭線は四角形の形態となってもよい。つまり、前面または後面のみが撮られたオブジェクトの第2外郭線は、長方形の形態、側面のみが撮られ、前面または後面が両方とも撮られていないオブジェクトの第2外郭線は、直角を含まない単純な四角形であり得る。
【0234】
また、第2外郭線は、2つの多角形が少なくとも1つの共通の辺に基づいて結合された形態であってもよいし、これについては、
図12Bのオートバイの第2外郭線1210及び乗用車の第2外郭線1230を介して模式的に説明した。
【0235】
第2外郭線の規格は、第1外郭線の規格に含まれてもよい。具体的には、学習モデルは、解像度が限定された画像に基づいて第1外郭線で第2外郭線を生成するように学習されるので、第2外郭線の規格は、第1外郭線の規格以下になるように自動的に調整することができる。
【0236】
オブジェクトの外郭線生成装置は、
図12Bに示すように抽出されたオブジェクトのそれぞれに対して第2外郭線を生成した後、第2外郭線が適用されたオブジェクト1210′、1230′を元の映像にマージ(merging)することができる。一例として、対象フレームに4つのオブジェクトがあった場合、第2外郭線が適用されたオブジェクトが元の映像にマージされる過程が4回繰り返し行われ、最終的な映像にはオブジェクトが表示されていない背景(background)とともに第2外郭線が適用された4つのオブジェクトが映像に一度に表示されることがある。言い換えれば、オブジェクトの数がn個である場合、第2外郭線が生成され、元の映像にマージされるプロセスもn回行われ得る。
【0237】
本発明において抽出されたオブジェクトの第2外郭線を形成するための座標値は第1座標値、抽出されたオブジェクトを参照するための元の映像におけるオブジェクトの中心座標に対する座標値は第2座標値、元の映像におけるオブジェクトの第2外郭線を形成するための座標値は、第3座標値と称することができる。オブジェクトの外郭線生成装置は、第2外郭線を形成するための第1座標値が決定された後に、元の映像からオブジェクトがどの位置に配置されているか第2座標値を通じて確認し、第2座標値を中心として元の映像に第2外郭線が生成されるように処理することによって、元の映像に第2外郭線が適用されたオブジェクトをマージする効果を発生させることができる。
【0238】
本発明によれば、1次的にオブジェクト別に第1外郭線を明確に設定した後、オブジェクトを抽出して個別に第2外郭線生成に対する学習を進行して最終マージするプロセスを通じて、オブジェクト別に正確なアノテーションが可能となる。すなわち、従来の対象フレーム全体を一度に3Dアノテーションする方法に比べて本発明によれば、アノテーション精度が格段に上げることができる。
【0239】
図13は、オブジェクト別に第2外郭線が生成された後に元の映像にオブジェクトの数だけ繰り返しマージされた例を模式的に説明するための図である。
【0240】
図13(a)及び
図13(b)は、4つのオブジェクトが個別に4回の元の映像に繰り返しマージされる過程を経て算出された元の映像を示している。
図13(a)及び
図13(b)では、オブジェクトの数は4つであるが、実施形態によっては、元の映像にマージされるオブジェクトの数は4つに限定されず、4つよりも多くてもよく、4つよりも少なくてもよい。
【0241】
図13(a)は、オブジェクトの第2外郭線がキューボイド(cuboid)形態に入った後に元の映像にマージされた結果を模式的に示している。
図13(a)の第1オブジェクトの第2外郭線1310は、3次元キューボイドが適用されており、映像を撮影した自動運転車の右側から自動運転車と同じ方向に移動することを示している。
【0242】
また、
図13(b)は、オブジェクトの第2外郭線が2つの多角形が結合された形態に入った後に元の映像にマージされた結果を模式的に示している。特に、2つの多角形は長方形と台形であってもよく、第2外郭線の左側上端にはRear-RightまたはRear-Rightとともにオブジェクトのクラス情報としてcar、bus、truckが追加で併記されたことがわかる。
図13(b)の第2オブジェクトの第2外郭線1330は、2つの多角形が結合された形態が適用されており、映像を撮影した自動運転車の左側から自動運転車と同じ方向に移動することを示している。
【0243】
図14は、
図10~
図13で説明した実施形態によるオブジェクトの外郭線生成方法をフローチャートで示す図である。
【0244】
図14による方法は、
図10~
図13で説明したオブジェクトの外郭線生成装置によって実現することができるので、以下では、
図10~
図13で説明した内容と重複する説明は省略する。
【0245】
まず、オブジェクトの外郭線生成装置は、第1映像でオブジェクトを認識し、オブジェクト別に第1外郭線が生成されるように学習モデルを介して処理することができる(S1410)。第1外郭線は多角形の形態であり得る。
【0246】
続いて、オブジェクトの外郭線生成装置は、第1外郭線に基づいて第1映像からオブジェクトを抽出することができる(S1430)。より具体的には、抽出されるオブジェクトは、第1外郭線を境界線として、第1外郭線のサイズ領域に限定された画像になり得る。
【0247】
オブジェクトの外郭線生成装置は、オブジェクトに対する第2外郭線の第1座標値を取得することができる(S1450)。第1座標値は、実施形態によっては、7つの座標値または8つの座標値から構成されてもよい。
【0248】
オブジェクトの外郭線生成装置は、第1座標値に基づいて第2外郭線が適用されたオブジェクトを第1映像にマージすることができる(S1470)。ステップS1470の選択的な一実施形態として、オブジェクトの外郭線生成装置は、元の映像(または、対象フレーム)における抽出されたオブジェクトの位置に対する第2座標値を算出し、第2座標値に基づいて第2外郭線の座標に対する値である第3座標値を算出することができ、第1座標値及び第3座標値の両方を考慮して、第2外郭線が適用されたオブジェクトを元の映像にマージする効果を実現することができる。
【0249】
図15は、一実施形態によるオブジェクトの外郭線生成装置のブロック図である。
【0250】
図15を参照すると、オブジェクトの外郭線生成装置1500は、通信部1510、プロセッサ1520、及びDB1530を含むことができる。
図15のオブジェクトの外郭線生成装置1500には、実施形態に関連する構成要素のみが示されている。したがって、
図15に示す構成要素に加えて他の汎用構成要素をさらに含むことができるのは当技術分野の通常の技術者であれば理解することができる。
【0251】
通信部1510は、外部サーバまたは外部装置との有線/無線通信を可能にする1つ以上の構成要素を含むことができる。例えば、通信部1510は、近距離通信部(図示せず)、移動通信部(図示せず)及び放送受信部(図示せず)のうちの少なくとも1つを含むことができる。
【0252】
DB1530は、オブジェクトの外郭線生成装置1500内で処理される各種データを保存するハードウェアであり、プロセッサ1520の処理及び制御のためのプログラムを保存することができる。
【0253】
DB1530は、DRAM(dynamic random access memory)、SRAM(static random access memory)などのRAM(random access memory)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-only memory)、CD-ROM、ブルーレイまたは他の光ディスクストレージ、HDD(hard disk drive)、SSD(solid state drive)、またはフラッシュメモリを含むことができる。
【0254】
プロセッサ1520は、オブジェクトの外郭線生成装置1500の全体的な動作を制御する。例えば、プロセッサ1520は、DB1530に保存されたプログラムを実行することにより、入力部(図示せず)、ディスプレイ(図示せず)、通信部1510、DB1530などを全体的に制御することができる。プロセッサ1520は、DB1530に保存されたプログラムを実行することにより、オブジェクトの外郭線生成装置1500の動作を制御することができる。
【0255】
プロセッサ1520は、
図1~
図15で上述したオブジェクトの外郭線生成装置1500の動作の少なくとも一部を制御することができる。
【0256】
一例として、プロセッサ1520は、
図10~
図14で説明したように、走行中に取得された第1映像に含まれる少なくとも1つのオブジェクトを認識し、認識されたオブジェクト別に第1外郭線を生成し、生成された第1外郭線に基づいて第1映像で認識されたオブジェクトを抽出し、抽出されたオブジェクトを第1学習モデルに入力した結果として、抽出されたオブジェクトの第2外郭線に対する第1座標値を取得し、取得された第1座標値に基づいて第2外郭線が適用されたオブジェクトを第1映像にマージすることができる。実施形態によっては、第2外郭線が適用されたオブジェクトを第1映像にマージして生成された最終映像を第1映像と区別するために第2映像と呼ぶことができる。
【0257】
プロセッサ1520は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、コントローラ(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、及び他の機能を行うための電気的なユニットのうちの少なくとも1つを用いて実装することができる。
【0258】
図16は、走行中に取得された映像に、本発明による映像内のオブジェクトのキューボイド取得方法が適用されなかったときと適用されたときとの結果物をそれぞれ模式的に示す図である。
【0259】
以下では、本発明による映像内のオブジェクトのキューボイド取得方法は、キューボイド取得方法、本発明による映像内のオブジェクトのキューボイド取得装置は、キューボイド取得装置とそれぞれ称することにする。
【0260】
まず、
図16(a)は、キューボイド取得方法が適用されなかったときの結果を示す。より具体的には、
図16(a)は、走行中に取得された映像を学習モデルに入力データとして入力したときに取得されるオブジェクトのキューボイドを模式的に示している。本発明において、キューボイド(cuboid)は、従来の直方体という辞書的定義を拡張させた概念であり、映像でどのオブジェクトが認識されると、認識されたオブジェクトに対する高さ(height)、幅(width)、深さ(depth)に対する情報を視覚的に表した標識(または、映像内の座標で構成した情報)を意味する。すなわち、キューボイドは、2次元で表現されている映像においてオブジェクトの3次元情報を表す特徴がある。
【0261】
図16(a)の映像で認識されたオブジェクトはコンテナボックスを載せて走行中のトラックであり、
図16(a)においてキューボイドは合計3つの図形を含んでいる。まず、サイドポイント1610Aは、認識されたオブジェクトの側面を直感的に表すためのキューボイドの一例であり得る。さらに、露出標識1630Aは、映像でオブジェクトが完全な形で露出された状態であるかどうかを示す指標の一例であり得る。また、後面標識1650Aは、認識されたオブジェクトの後面の位置を直感的に表すためのキューボイドの一例であり得る。
【0262】
通常、学習モデルに映像が入力されると、映像に含まれるオブジェクトのキューボイド座標が
図16(a)のように取得され得る。学習モデルは、ディープラーニング(deep learning)のような改善された形態のニューラルネットワーク(neural network)であり、予め設定されている損失関数(loss function)に応じて入力映像の学習を行い、アノテーション(annotation)に対する結果を出力するモデルであり得、実施形態によっては、ニューラルネットワークとは異なる機械学習アルゴリズムが適用されてもよい。このとき、取得されるサイドポイント1610A、露出標識1630A、及び後面標識1650Aは、
図16(a)で認識されたオブジェクトの外郭線1605Aに依存せず、独立して学習される特性を有しているため、外郭線1605Aを構成する座標は、サイドポイント1610A、露出標識1630A、及び後面標識1650Aの座標値に影響を与えない。
【0263】
一方、本発明によるキューボイド取得装置によれば、
図16(b)のようなキューボイドを取得することができる。具体的には、学習モデルを介して取得されるキューボイド座標は、一次的にオブジェクトが認識された後にオブジェクトの外郭に生成される外郭線1605Bに依存(dependant)的な特性を有する。より具体的には、
図16(b)のサイドポイント1610B、露出標識1630B、及び後面標識1650Bの座標は、いずれも
図16(b)のオブジェクトの外郭に生成されている外郭線1605Bの座標と座標値(coordinate value)を共有することになる。ここで、座標値を共有するということは、外郭線1605Bを形成する4つの辺のうち少なくとも一つの辺にサイドポイント1610B、露出標識1630B、及び後面標識1650Bが位置していることを意味する。
【0264】
以下で、本発明においてキューボイドに含まれるサイドポイント、露出標識及び後面標識の定義を具体的に説明する。
【0265】
サイドポイント(side point)は、映像で認識されたオブジェクトの前面と側面との境界を表すことができる。ここで、側面とは、映像を介して確認できるオブジェクトの側面を意味するので、オブジェクトの左側面または右側面のいずれかであり得る。サイドポイントは上下に配置された点と2つの点を結ぶ連結線(connection line)で構成されており、上下に配置される点は同じx座標を有し、y座標のみが異なる特性を有している。一例として、サイドポイントの2つの点の座標は、それぞれ(x1、y1)、(x1、y2)であり得る。サイドポイントを形成する2つの点が決定されると、連結線はすぐに決定することができる。サイドポイントがオブジェクトの前面と側面との境界を表すので、サイドポイントの連結線の長さはオブジェクトの前面の高さを表すことができる。
【0266】
露出標識(lateral sign)は、映像で認識されたオブジェクトの露出度を表すことができ、
図16の(a)または(b)に示すように、映像で1つの大きな点で表すことができる。露出標識は、映像でオブジェクトが完全な形態で露出された状態であるかどうかを示す指標である。一例として、露出標識は、映像でオブジェクトの全体像が完全に撮られていると、オブジェクトの外郭線の下端の正中央に位置するようになり、映像でオブジェクトの一部の姿のみが撮られていると、撮られていないオブジェクトの部分を考慮して、適切な位置に位置するようになる。別の例として、映像でオブジェクトの一部の姿のみが撮られていると、露出標識は最初から省略されてもよい。この場合、オブジェクトのキューボイドは、上述のサイドポイント及び後面標識のみを含むことになる。
【0267】
後面標識(rear sign)は、映像内のオブジェクトの後面の位置を示す指標である。後面標識は、実施形態によっては、線(line)の形態であってもよく、ボックス(box)の形態であってもよい。後面標識の形態変化については、
図18~
図25を参照して後述する。
【0268】
図17は、本発明によるキューボイド取得装置のキューボイド取得プロセスを説明するための概念図である。
【0269】
図17を参照すると、本発明によるキューボイド取得装置1700は、前処理部1730及びモデル学習部1740を含み、キューボイド取得装置1700には、自動車が走行中に取得した映像データ1710が入力されることがわかる。
【0270】
まず、映像データ1710は、自動運転車両に設置されているカメラが車両の走行中に取得した映像のローデータ(raw data)であり、モデル学習部1740によって映像に含まれているオブジェクト(人、二輪車、四輪車、その他の移動体など)を認識され得る。本発明において映像でオブジェクトを認識する方法については特別な種類の方法に限定されないので、現時点で公知の方法だけでなく、近いうちに開発が完了するオブジェクト認識方法を使用してもよい。
【0271】
第1外郭線データ1721は、映像でオブジェクトとして認識されたオブジェクトごとに生成される外郭線に関する情報を意味する。具体的には、
図16(a)における外郭線1605Aまたは
図16(b)における外郭線1605Bに関する情報は、第1外郭線データ1721となり得る。本発明においてオブジェクトを囲む第1外郭線は、オブジェクトの突出部を考慮して、オブジェクトの縁にぴったり合った長方形の形態のバウンディングボックス(bounding box)となり得る。第1外郭線データ1721もモデル学習部1740の学習モデルの学習過程で形成することができ、特に、第1外郭線を形成する点の座標は最終的にキューボイドの座標を決定するための参考情報となり得る。
【0272】
キューボイドデータ1722は、映像でオブジェクトとして認識されたオブジェクト別に取得されたキューボイドに関する情報を意味する。例えば、第1オブジェクトと第2オブジェクトが映像に含まれていると、キューボイドデータ1722は、第1オブジェクトのキューボイドの座標及び第2オブジェクトのキューボイドの座標とを含んでのよい。このとき、キューボイドは、上述のサイドポイント、後面標識、及び露出標識を含み得、第1外郭線データ1721を考慮せずにキューボイドが取得されたため、一部のキューボイドは不正確な特徴を有する。
【0273】
本発明では、学習モデルに前処理された映像データが入力されると、映像データでオブジェクトを認識し、オブジェクト別に一定の個数(例えば、13個)の値を予測値として抽出した後、一部の予測値で第1外郭線データ1721を算出し、残りの予測値でキューボイドデータ1722を並列的に算出し、キューボイドデータ1722が第1外郭線データ1721の依存データに補正する。すなわち、第1外郭線データ1721は、キューボイドデータ1722が最終キューボイド座標に変換されるための一種のバウンダリ(boundary)として機能することができる。
【0274】
第1外郭線がバウンディングボックスである場合、第1外郭線を形成するための最小座標は合計4つの座標であり得る。例えば、第1外郭線の最小座標は、(x1、y1)、(x1、y5)、(x4、y1)、(x4、y5)とすることができる。上記のように、第1外郭線の座標が決定されると、第1外郭線を形成するための座標値(coordinate value)はx1、y1、x5、y5となり、第1外郭線の座標のx軸またはy軸座標のうち少なくとも1つが一致する座標はすべて、第1外郭線の座標と見なすことができます。一例として、(x3、y1)または(x1、y3)は、第1外郭線の座標と見なすことができる。映像で認識されたオブジェクトの数がn個であれば、第1外郭線の数もn個になり得る。
【0275】
前処理部1730は、映像データ1710を前処理(pre-processing)することができる。一例として、前処理部1730は、映像データ1710がモデル学習部1740の学習モデルにエラーなく入力され、学習できるようにエンベディング(embedding)する機能を行ってもよく、映像データ1710の完全性をチェックする機能を行ってもよい。前処理部1730は、実施形態によっては、モデル学習部1740に組み込まれた形態で実装されてもよい。
【0276】
モデル学習部1740は、前処理部1730から前処理された映像データ1710を受け取り、映像に含まれたオブジェクトのキューボイドを取得するように学習を行うことができる。
【0277】
図17に示すように、本発明によるキューボイド取得装置1700は、映像データ1710のみでオブジェクトのキューボイドを直ちに取得するのではなく、オブジェクト別に生成されている第1外郭線に関する情報を学習に反映することによって、最終的に取得されるオブジェクト別キューボイドが正確なオブジェクトの3次元情報を含めるように制御することができる。
【0278】
特に、キューボイド取得装置1700の学習モデルは、オブジェクトの第1外郭線の座標値を取得した後、オブジェクトに対するサイドポイント、露出標識及び後面標識の座標を取得すると、取得されたサイドポイント、露出標識及び後面標識の座標を第1外郭線の座標値を考慮して補正する方式でオブジェクトのキューボイド座標を取得することができる。
【0279】
例えば、キューボイド取得装置1700は、サイドポイントを形成する上下方向の2つの点の座標を取得すると、第1外郭線の座標値を考慮して、サイドポイントを形成する上下方向の2つの点の座標のy座標値を補正することができる。より具体的には、キューボイド取得装置1700は、認識されたオブジェクトの方向を決定した後、サイドポイントを形成する上下方向の2つの点の座標を取得した後、2つの点の座標のy座標値を第1外郭線の高さに合わせて補正することができる。
【0280】
認識されたオブジェクトの方向は、合計8つの方向のいずれかになり得る。例えば、認識されたオブジェクトの方向は、前面左側方向、前面方向、前面右側方向、完全左側方向、完全右側方向、後面左側方向、後面方向及び後面右側方向のうちの1つであり得る。キューボイド取得装置1700は、映像で認識されたオブジェクトの方向が決定されると、オブジェクトのキューボイドで取得されたサイドポイント、露出標識及び後面標識の座標を決定された方向別に予め設定された式に従って補正し、正確なキューボイドが取得できるように制御することになる。オブジェクトの8つの方向別に異なって適用される補正方式については、
図18~
図25を参照して後述する。
【0281】
図18は、キューボイド取得装置が取得した前面左側方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【0282】
図18において、オブジェクトは前面左側方向の自動車であり、その自動車は第1外郭線1800で囲まれており、オブジェクトに対するキューボイドとして、サイドポイント1810及び後面標識1830が模式的に表現されている。
【0283】
キューボイド取得装置は、1次的にオブジェクトを分析して前面左側(front-left)方向であることを探知した後、2次的にオブジェクトに対するキューボイドとしてサイドポイント1810及び後面標識1830に対する座標を取得することができる。実施形態によっては、キューボイド取得装置は、1次的にオブジェクトに対するサイドポイント1810及び後面標識1830に対する座標を取得した後、2次的にオブジェクトの方向がどの方向であるかを探知してもよい。
【0284】
キューボイド取得装置は、オブジェクトの方向が前面左側(front-left)方向であることを探知した後、サイドポイント1810を構成する上下方向の2つの点のy座標を最も隣接する第1外郭線1800のy座標に補正してもよい。例えば、第1外郭線1800が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント1810の上端点の座標が(x4、y4)である場合、キューボイド取得装置は、サイドポイント1810の上端点の座標を(x4、y5)に補正することができる。別の例として、第1外郭線1800が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント1810の上端点の座標が(x4、y7)である場合、キューボイド取得装置は、サイドポイント1810の上端点の座標を(x4、y5)に補正することができる。すなわち、本発明では、補正前の点の座標が第1外郭線1800の外側にあるか内側にある場合、その点の座標を第1外郭線1800を構成するための点の座標に補正することになる。このとき、第1外郭線1800上の座標(x1,y5)と(x10,y5)との間には(x2,y5),(x3,y5),(x4,y5)等のようにy座標が同一に維持されながら、x座標のみx1からx10の間の値が適用できることは、この分野の通常の技術者であれば理解できるであろう。
【0285】
また、別の例として、キューボイド取得装置は、オブジェクトの方向が前面左側方向であることを探知した後、後面標識1830を構成する上下方向の2つの点を結ぶ線が第1外郭線1800の左辺あるいは、右辺の少なくとも一部を共有する線に限定されるように学習処理してもよい。具体的には、キューボイド取得装置は、第1外郭線1800、認識されたオブジェクトの全体輪郭、探知されたオブジェクトの方向(前面左側)を全体的に考慮して、オブジェクトの後面の高さを算出し、その高さと同じである長さを後面標識1830の長さに設定することができる。このとき、前面左側方向においてオブジェクトの後面は観測されないので、後面標識1830は、第1外郭線の左辺または右辺の少なくとも一部を共有する線で表現することができる。
図18を参照すると、キューボイド取得装置は、後面標識1830を第1外郭線1800の右辺を共有するように生成するが、認識されたオブジェクトの後面の高さ、後面の始点及び終点を考慮して、後面標識1830の長さが右辺の一部に制限されるようにしたことがわかる。
【0286】
図19は、キューボイド取得装置が取得した前面方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【0287】
図19において、オブジェクトは前面方向の自動車であり、その自動車は第1外郭線1900で囲まれており、オブジェクトに対するキューボイドとして、サイドポイント1910及び後面標識1930が模式的に表現されている。
【0288】
キューボイド取得装置は、1次的にオブジェクトを分析して完全に前面(front only)方向であることを探知した後、2次的にオブジェクトに対するキューボイドとしてサイドポイント1910及び後面標識1930に対する座標を取得することができる。実施形態によっては、キューボイド取得装置は、1次的にオブジェクトに対するサイドポイント1910及び後面標識1930に対する座標を取得した後、2次的にオブジェクトの方向がどの方向であるかを探知してもよい。
【0289】
キューボイド取得装置は、オブジェクトの方向が前面方向であることを探知した後、サイドポイント1910を構成する上下方向の2つの点を第1外郭線1900の上下端の正中央に位置する点に設定することができる。その後、サイドポイント1910の連結線を自動的に設定することができる。
【0290】
また、キューボイド取得装置は、オブジェクトの向きが前面方向であることを探知した後、認識されたオブジェクトの正中央を分けて上下方向に延びた線(line)を後面標識1930で取得することができる。後面標識1930は、オブジェクトの後面を示す標識であるので、オブジェクトが完全に前面方向である場合、上述の説明のように表示されてはならないが、本発明ではオブジェクトの側面及び後面の両方が観測されない状況で後面標識1930を
図19のようにオブジェクトの前面の中央に位置する線で示すことにより、結果的に後面標識1930がオブジェクトの3次元情報を迂回的に提供できるようにする。
【0291】
図19を参照すると、オブジェクトが完全に前面方向であると探知されると、サイドポイント1910の連結線と後面標識1930が一致することが分かり、このとき、サイドポイント1910の連結線及び後面標識1930の長さは第1外郭線1900の高さと同じである。
【0292】
図20は、キューボイド取得装置が取得した前面右側方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【0293】
図20において、オブジェクトは前面右側方向の自動車であり、その自動車は第1外郭線2000で囲まれており、オブジェクトに対するキューボイドとして、サイドポイント2010及び後面標識2030が模式的に表現されている。
【0294】
キューボイド取得装置は、1次的にオブジェクトを分析して前面右側(front-right)方向であることを探知した後、2次的にオブジェクトに対するキューボイドとしてサイドポイント2010及び後面標識2030に対する座標を取得することができる。実施形態によっては、キューボイド取得装置は、1次的にオブジェクトに対するサイドポイント2010及び後面標識2030に対する座標を取得した後、2次的にオブジェクトの方向がどの方向であるかを探知してもよい。
【0295】
キューボイド取得装置は、オブジェクトの方向が前面右側(front-right)方向であることを探知した後、サイドポイント2010を構成する上下方向の2つの点のy座標を最も隣接する第1外郭線2000のy座標に補正してもよい。例えば、第1外郭線2000が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2010の上端点の座標が(x4、y4)である場合、キューボイド取得装置は、サイドポイント2010の上端点の座標を(x4、y5)に補正することができる。別の例として、第1外郭線2000が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2010の上端点の座標が(x4、y7)である場合、キューボイド取得装置は、サイドポイント2010の上端点の座標を(x4、y5)に補正することができる。すなわち、本発明では、補正される前の点の座標が第1外郭線2000の外側にあるか内側にある場合、その点の座標を、第1外郭線2000を構成するための点の座標に補正することになる。このとき、第1外郭線2000上の座標(x1、y5)と(x10、y5)との間には(x2、y5)、(x3、y5)、(x4、y5)等のようにy座標が同一に維持されながら、x座標のみx1からx10の間の値が適用できることは、この分野の通常の技術者であれば理解できるであろう。
【0296】
また、別の例として、キューボイド取得装置は、オブジェクトの方向が前面右側方向であることを探知した後、後面標識2030を構成する上下方向の2つの点を結ぶ線が第1外郭線2000の左辺あるいは、右辺の少なくとも一部を共有する線に限定されるように学習処理してもよい。具体的には、キューボイド取得装置は、第1外郭線2000、認識されたオブジェクトの全体輪郭、探知されたオブジェクトの方向(前面右側)を全体的に考慮して、オブジェクトの後面の高さを算出し、その高さと同じである長さを後面標識2030の長さに設定することができる。このとき、前面右側方向においてオブジェクトの後面は観測されないので、後面標識2030は、第1外郭線の左辺の少なくとも一部を共有する線で表現することができる。
図20を参照すると、キューボイド取得装置は、後面標識2030を第1外郭線2000の左辺を共有するように生成するが、認識されたオブジェクトの後面の高さ、後面の始点及び終点を考慮して、後面標識2030の長さが左辺の一部に制限されるようにしたことがわかる。
【0297】
図21は、キューボイド取得装置が取得した、左側面のオブジェクトのキューボイドを説明するための一例を示す図である。
【0298】
図21において、オブジェクトは映像で左側面のみ観測された自動車であり、その自動車は第1外郭線2100で囲まれており、オブジェクトに対するキューボイドとして、サイドポイント2110及び後面標識2130が模式的に表現されている。
【0299】
キューボイド取得装置は、1次的にオブジェクトを分析して左側面のみ(Left only)観測されたことを探知した後、2次的にオブジェクトに対するキューボイドとしてサイドポイント2110及び後面標識2130に対する座標を取得することができる。実施形態によっては、キューボイド取得装置は、1次的にオブジェクトに対するサイドポイント2110及び後面標識2130に対する座標を取得した後、2次的にオブジェクトの方向がどの方向であるかを探知してもよい。
【0300】
キューボイド取得装置は、オブジェクトが映像で左側面のみ観測されたことを探知した後、サイドポイント2110を構成する上下方向の2つの点のy座標を最も隣接する第1外郭線2100のy座標に補正することができる。例えば、第1外郭線2100が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2110の上端点の座標が(x4、y4)である場合、キューボイド取得装置は、サイドポイント2110の上端点の座標を(x4、y5)に補正することができる。別の例として、第1外郭線2100が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2110の上端点の座標が(x4、y7)である場合、キューボイド取得装置は、サイドポイント2110の上端点の座標を(x4、y5)に補正することができる。すなわち、本発明では、補正前の点の座標が第1外郭線2100の外側にあるか内側にある場合、その点の座標を、第1外郭線2100を構成するための点の座標に補正することになる。
【0301】
また、別の例として、キューボイド取得装置は、オブジェクトの左側面のみが観察された場合、後面標識2130を構成する上下方向の2つの点を結ぶ線が第1外郭線2100の左辺または右辺を共有する線に制限されるように学習処理することができる。具体的には、キューボイド取得装置は、第1外郭線2100、認識されたオブジェクトの全体輪郭、観測されたオブジェクトの方向(左側面)を全体的に考慮して、オブジェクトの後面の高さを算出し、その高さと同じ長さを後面標識2130の長さに設定することができる。このとき、オブジェクトの左側面方向においてオブジェクトの後面は観測されないので、後面標識2130は、第1外郭線の左辺または右辺の少なくとも一部を共有する線として表現することができる。
図21を参照すると、キューボイド取得装置は、後面標識2130を第1外郭線2100の右辺を共有するように生成したことが分かる。
【0302】
図22は、キューボイド取得装置が取得した、右側面のオブジェクトのキューボイドを説明するための一例を示す図である。
【0303】
図22において、オブジェクトは映像で右側面のみ観測された自動車であり、その自動車は第1外郭線2200で囲まれており、オブジェクトに対するキューボイドとして、サイドポイント2210及び後面標識2230が模式的に表現されている。
【0304】
キューボイド取得装置は、1次的にオブジェクトを分析して右側面(Right only)のみ観測されたことを探知した後、2次的にオブジェクトに対するキューボイドとしてサイドポイント2210及び後面標識2230に対する座標を取得することができる。一実施形態によっては、キューボイド取得装置は、1次的にオブジェクトに対するサイドポイント2210及び後面標識2230に対する座標を取得した後、2次的にオブジェクトの方向がどの方向であるかを探知してもよい。
【0305】
キューボイド取得装置は、オブジェクトが映像で左側面のみ観測されたことを検出した後、サイドポイント2210を構成する上下方向の2つの点のy座標を最も隣接する第1外郭線2200のy座標で補正することができる。例えば、第1外郭線2200が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2210の上端点の座標が(x4、y4)である場合、キューボイド取得装置は、サイドポイント2210の上端点の座標を(x4、y5)に補正することができる。例えば、第1外郭線2200が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2210の上端点の座標が(x4、y7)である場合、キューボイド取得装置は、サイドポイント2210の上端点の座標を(x4、y5)に補正することができる。すなわち、本発明では、補正前の点の座標が第1外郭線2200の外側にあるか内側にある場合、その点の座標を、第1外郭線2200を構成するための点の座標に補正することになる。
【0306】
また、別の例として、キューボイド取得装置は、オブジェクトの右側面のみが観察された場合、後面標識2230を構成する上下方向の2つの点を結ぶ線が第1外郭線2200の左辺または右辺を共有する線に制限されるように学習処理することができる。具体的には、キューボイド取得装置は、第1外郭線2200、認識されたオブジェクトの全体輪郭、観測されたオブジェクトの方向(左側面)を全体的に考慮して、オブジェクトの後面の高さを算出し、その高さと同じ長さを後面標識2230の長さに設定することができる。このとき、オブジェクトの右側面方向においてオブジェクトの後面は観測されないので、後面標識2230は、第1外郭線の左辺または右辺の少なくとも一部を共有する線として表現することができる。
図22を参照すると、キューボイド取得装置は、後面標識2230を第1外郭線2200の左辺を共有するように生成したことが分かる。
【0307】
図23は、キューボイド取得装置が取得した、後面左側方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【0308】
図23において、オブジェクトは後面左側方向の自動車であり、その自動車は第1外郭線2300で囲まれており、オブジェクトに対するキューボイドとして、サイドポイント2310及び後面標識2330が模式的に表現されている。
【0309】
キューボイド取得装置は、1次的にオブジェクトを分析して後面左側(rear-left)方向であることを探知した後、2次的にオブジェクトに対するキューボイドとしてサイドポイント2310及び後面標識2330に対する座標を取得することができる。一実施形態によっては、キューボイド取得装置は、1次的にオブジェクトに対するサイドポイント2310及び後面標識2330に対する座標を取得した後、2次的にオブジェクトの方向がどの方向であるかを探知してもよい。
【0310】
キューボイド取得装置は、オブジェクトの方向が後面左側方向であることを探知した後、サイドポイント2310を構成する上下方向の2つの点のy座標を最も隣接する第1外郭線2300のy座標で補正することができる。例えば、第1外郭線2300が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2310の上端点の座標が(x4、y4)である場合、キューボイド取得装置は、サイドポイント2310の上端点の座標を(x4、y5)に補正することができる。別の例として、第1外郭線2300が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2310の上端点の座標が(x4、y7)である場合、キューボイド取得装置は、サイドポイント2310の上端点の座標を(x4、y5)に補正することができる。
【0311】
一方、キューボイド取得装置は、サイドポイント2310の下端点の座標を、オブジェクトの方向、オブジェクトの前面の高さを決定する始点及び終点間の長さを用いて決定することができる。認識されたオブジェクトの方向が後面左方向ということは、オブジェクトの前面が観測されないことを意味するので、サイドポイント2310のx座標は、第1外郭線の左辺のx座標と一致するようになる。また、オブジェクトの方向が後面左側方向であることは、観測者から離れる方向にオブジェクトが移動していることを意味するので、オブジェクトの前面の高さを決定する始点は、第1外郭線の最上端の高さのy座標を有するようになり、オブジェクトの前面の高さを決定する終点は、オブジェクトの左前輪タイヤと地面が当たる部分のy座標を有するようになる。結局、
図23に示すように、第1外郭線2300の上下端に配置されたサイドポイント2310を結ぶ線の長さは、第1外郭線2300の左辺の一部の長さに制限され得る。
【0312】
また、別の例として、キューボイド取得装置は、オブジェクトの方向が後面左側方向であることを探知した後、後面標識2330が第1外郭線2300の右辺を共有する四角形に制限されるように学習処理することができる。
図23を参照すると、後面標識2330は、第1外郭線2300の右辺を共有しながら、第1外郭線2300の上辺及び下辺の一部を同時に共有する四角形で表示されていることが分かる。
図23において、後面標識2330の幅はオブジェクトの後面の幅を意味し、後面標識2330の高さはオブジェクトの後面の高さを意味する。
【0313】
図24は、キューボイド取得装置が取得した、後面右側方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【0314】
図24において、オブジェクトは後面右側方向の自動車であり、その自動車は第1外郭線2400で囲まれており、オブジェクトに対するキューボイドとして、サイドポイント2410及び後面標識2430が模式的に表現されている。
【0315】
キューボイド取得装置は、1次的にオブジェクトを分析して後面右側(rear-right)方向であることを探知した後、2次的にオブジェクトに対するキューボイドとしてサイドポイント2410及び後面標識2430に対する座標を取得することができる。実施形態によっては、キューボイド取得装置は、1次的にオブジェクトに対するサイドポイント2410及び後面標識2430に対する座標を取得した後、2次的にオブジェクトの方向がどの方向であるかを探知してもよい。
【0316】
キューボイド取得装置は、オブジェクトの方向が後面右側方向であることを探知した後、サイドポイント2410を構成する上下方向の2つの点のy座標を最も隣接する第1外郭線2400のy座標に補正することができる。例えば、第1外郭線2400が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2410の上端点の座標が(x4、y4)である場合、キューボイド取得装置は、サイドポイント2410の上端点の座標を(x4、y5)に補正することができる。別の例として、第1外郭線2400が(x1、y5)から(x10、y5)まで形成された辺を含み、サイドポイント2410の上端点の座標が(x4、y7)である場合、キューボイド取得装置は、サイドポイント2410の上端点の座標を(x4、y5)に補正することができる。
【0317】
一方、キューボイド取得装置は、サイドポイント2410の下端点の座標を、オブジェクトの方向、オブジェクトの前面の高さを決定する始点及び終点間の長さを用いて決定することができる。認識されたオブジェクトの方向が後面右方向ということは、オブジェクトの前面が観測されないことを意味するので、サイドポイント2410のx座標は、第1外郭線2400の右辺のx座標と一致するようになる。また、オブジェクトの方向が後面右側方向であることは、観測者から離れる方向にオブジェクトが移動していることを意味するので、オブジェクトの前面の高さを決定する始点は、第1外郭線2400の最上端の高さのy座標を有するようになり、オブジェクトの前面の高さを決定する終点は、オブジェクトの右前輪タイヤと地面が当たる部分のy座標を有するようになる。結局、
図24に示すように、第1外郭線2400の上下端に配置されたサイドポイント2410を結ぶ線の長さは、第1外郭線2400の右辺の一部の長さに制限され得る。
【0318】
また、別の例として、キューボイド取得装置は、オブジェクトの方向が後面右側方向であることを探知した後、後面標識2430が第1外郭線2400の左辺を共有する四角形に制限されるように学習処理することができる。
図24を参照すると、後面標識2430は、第1外郭線2400の左辺を共有しながら、第1外郭線2400の上辺及び下辺の一部を同時に共有する四角形で表示されていることが分かる。
図24において、後面標識2430の幅はオブジェクトの後面の幅を意味し、後面標識2430の高さはオブジェクトの後面の高さを意味する。
【0319】
図25は、キューボイド取得装置が取得した、後面方向のオブジェクトのキューボイドを説明するための一例を示す図である。
【0320】
図25において、オブジェクトは後面方向の自動車であり、その自動車は第1外郭線2500で囲まれており、オブジェクトに対するキューボイドとして、サイドポイント2510及び後面標識2530が模式的に表現されている。
【0321】
映像で認識されたオブジェクトの方向が完全に後面(rear only)方向であれば、キューボイド取得装置は、
図19で説明したように、サイドポイント2510をオブジェクトの正中央の最上端及び最下端にそれぞれ配置された2つの点を連結する線で生成することができる。
【0322】
さらに、認識されたオブジェクトの方向が完全に後面方向であれば、
図25に示すように、キューボイド取得装置は後面標識2530を第1外郭線2500と一致させることができる。
【0323】
本発明によるキューボイド取得装置は、
図18~
図25を参照して説明したように、サイドポイント、後面標識を含むキューボイドを生成するように学習モデルを学習させることができる。この過程で取得されたサイドポイント及び後面標識は非常に単純な形態であるが、オブジェクトの方向、位置、3次元情報等をそれぞれ示すことができ、自動運転アルゴリズムを実現する際に移動するオブジェクトを認識して判断するにあたり高い効率と精度を保証することができる。また、本発明によるキューボイド取得装置は、サイドポイント、後面標識のx座標及びy座標を第1外郭線に依存するように学習モデルを学習させることができ、正確なキューボイド情報を生成することができる。
【0324】
図26は、本発明によるキューボイド取得装置によって、後面標識を補正するプロセスの一例を模式的に示す図である。
【0325】
図26(a)を参照すると、乗用車carの第1外郭線の内部の後面標識11610Aが示されていることが分かる。
図26(a)の乗用車は右側面のみ観測されたオブジェクトであり、乗用車の後面を観測することができないので、後面標識は
図26(a)のような第1外郭線の内部の四角形(square)ではなく、
図26(b)のように、第1外郭線の左辺全体を共有する線(line)でなければならない。本発明によるキューボイド取得装置は、
図26(a)のような結果ではなく、
図26(b)のような結果が出力されるように、乗用車に対するキューボイド2610Bを取得することができる。
【0326】
図27は、本発明によるキューボイド取得装置によって、後面標識を補正するプロセスの一例を模式的に示す図である。
【0327】
図27(a)を参照すると、バス(bus)の後部にはバスの第1外郭線から外れた後面標識2710Aが示されていることが分かる。
図27(a)のバスは前面左側方向のオブジェクトであり、バスの後面を観測することができないので、後面標識は
図27(a)のように第1外郭線から外れた四角形ではなく、
図27(b)のように、第1外郭線の右辺の一部を共有する線2710Bでなければならない。本発明によるキューボイド取得装置は、
図27(a)のような結果ではなく、
図27(b)のような結果が出力されるように、バスに対するキューボイドを取得することができる。
【0328】
図28は、本発明によるキューボイド取得装置によって、後面標識を補正するプロセスの他の一例を模式的に示す図である。
【0329】
図28(a)を参照すると、乗用車(car)の後部には、乗用車の後面の一部を囲む後面標識2810Aが示されていることが分かる。
図28(a)の乗用車は後面左側方向のオブジェクトであり、乗用車の後面を全て観察することができるので、後面標識は
図28(b)のように第1外郭線の右辺を共有する四角形2810Bでなければならない。本発明によるキューボイド取得装置は、
図28(a)のような結果ではなく、
図28(b)のような結果が出力されるように、後面左側方向の乗用車に対するキューボイドを取得することができる。
【0330】
図29は、本発明によるキューボイド取得方法の一例をフローチャートで示す図である。
【0331】
図29による方法は、
図17で説明したキューボイド取得装置1700によって実現することができるので、以下では、
図17~
図28で説明した内容と重複する説明は省略する。
【0332】
キューボイド取得装置1700は、走行中に取得された第1映像に含まれる少なくとも1つのオブジェクトを認識し、認識されたオブジェクト別に第1外郭線を生成することができる(S2910)。
【0333】
キューボイド取得装置1700は、第1映像で生成された第1外郭線を構成する第1座標値を抽出することができる(S2930)。
【0334】
キューボイド取得装置1700は、認識されたオブジェクト及び抽出された第1座標値に基づいて、認識されたオブジェクトのキューボイドの座標を取得することができる(S2950)。
【0335】
図30は、一実施形態によるキューボイド取得装置のブロック図である。
【0336】
図30を参照すると、キューボイド取得装置3000は、通信部3010、プロセッサ3020、及びDB3030を含むことができる。
図30のキューボイド取得装置3000には、実施形態に関連する構成要素のみが示されている。したがって、
図30に示す構成要素に加えて他の汎用構成要素をさらに含むことができるのは当技術分野の通常の技術者であれば理解することができる。
【0337】
通信部3010は、外部サーバまたは外部装置との有線/無線通信を可能にする1つ以上の構成要素を含むことができる。例えば、通信部3010は、近距離通信部(図示せず)、移動通信部(図示せず)及び放送受信部(図示せず)のうちの少なくとも1つを含むことができる。
【0338】
DB3030は、キューボイド取得装置3000内で処理される各種データを保存するハードウェアであり、プロセッサ3020の処理及び制御のためのプログラムを保存することができる。
【0339】
DB3030は、DRAM(dynamic random access memory)、SRAM(static random access memory)などのRAM(random access memory)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-only memory)、CD-ROM、ブルーレイまたは他の光ディスクストレージ、HDD(hard disk drive)、SSD(solid state drive)、またはフラッシュメモリを含むことができる。
【0340】
プロセッサ3020は、キューボイド取得装置3000の全体的な動作を制御する。例えば、プロセッサ3020は、DB3030に保存されたプログラムを実行することにより、入力部(図示せず)、ディスプレイ(図示せず)、通信部3010、DB3030などを全体的に制御することができる。プロセッサ3020は、DB3030に保存されたプログラムを実行することによって、キューボイド取得装置3000の動作を制御することができる。
【0341】
プロセッサ3020は、
図16~
図29で上述したキューボイド取得装置の動作の少なくとも一部を制御することができる。
【0342】
一例として、プロセッサ3020は、走行中に取得された第1映像に含まれる少なくとも1つのオブジェクトを認識し、認識されたオブジェクトごとに第1外郭線を生成し、第1映像で前記生成された第1外郭線を構成する第1座標値を抽出し、認識されたオブジェクト及び抽出された第1座標値に基づいて、認識されたオブジェクトのキューボイドの座標を取得することができる。
【0343】
プロセッサ3020は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、コントローラ(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、及び他の機能を行うための電気的なユニットのうちの少なくとも1つを用いて実装することができる。
【0344】
図31は、本発明による映像内のオブジェクトの視覚標識補正装置の動作プロセスを概念的に示す図である。
【0345】
より具体的には、
図31は、ローデータが映像内のオブジェクトの視覚標識補正装置3100に入力され、最終的にラベリング(labelling)が完了されたデータに加工される過程を概念的に説明する図である。簡潔な説明のために、以下では、本発明による映像内のオブジェクトの視覚標識を補正する装置を「視覚標識補正装置」と称することにする。
【0346】
通常、自動運転車両に設置されたカメラは、自動運転車両が走行している途中で観測される風景を撮影することができ、カメラが撮影した映像は
図31のローデータ(raw data)になり得る。ローデータは、複数のフレーム(frame)で構成された動画であり得、動画を構成する各フレームには複数のオブジェクトが写っている場合がある。ローデータは、ディープラーニング(deep learning)モデルのような人工知能ベースの学習モデルに入力され、ラベリングされ得る。学習モデルが行うオートラベリング(auto labelling)プロセスによって、映像内のオブジェクトが認識され、認識されたオブジェクトの特性情報を取得することができるが、ラベリング結果が完璧ではないので、1次ラベリングされたデータは検収者3110により検収され得る。検収プロセスで修正完了したデータは、学習モデルの学習データ(training data)となるとともにラベリングが完了されたデータに分類することができ、検収プロセスで検収者3110により修正が不要と判断されたデータは、学習モデルの学習データにならずに、直ちにラベリングが完了したデータに分類することができる。
【0347】
本発明は、1次ラベリングされたデータを検収する検収者3110を人ではなく自動化された装置で実装することによって、走行中に取得された映像に含まれるオブジェクトに対するラベルリングの速度及び精度を向上させることができる方法を提案する。本発明による視覚標識補正装置3100は、ローデータを受信してオートラベリングを1次的に行い、そのオートラベリングの結果に対する検収を行い、ラベリングが完全になされていない部分については補正(修正)し、ラベリングが完全に行われた場合、ラベリングが完了したデータに分類するプロセスを繰り返しながら、物理的または論理的に含まれた人工知能モデルを高度化させることができる。
【0348】
本発明による視覚標識補正装置は、
図18~
図25を参照して説明したように、サイドポイント、後面標識を含むキューボイドを生成するように学習モデルを学習させることができる。この過程で取得されたサイドポイント及び後面標識は非常に単純な形態であるが、オブジェクトの方向、位置、3次元情報等をそれぞれ示すことができ、自動運転アルゴリズムを実現する際に移動するオブジェクトを認識して判断するにあたり高い効率と精度を保証することができる。また、本発明による視覚標識補正装置は、サイドポイント、後面標識のx座標及びy座標を外郭線に依存するように学習モデルを学習させることができ、正確なキューボイド情報を生成することができる。
【0349】
図32は、本発明による視覚標識補正装置によって処理される第1補正プロセスの一例を模式的に示す図である。
【0350】
図32(a)は、オブジェクトを含む映像を学習モデルに入力し、オブジェクトに対するキューボイドとして、サイドポイント3210、3211及び後面標識3230が生成されたことを模式的に示している。
図32(a)のサイドポイント3210、3211の上端点3210及び下端点3211はいずれもオブジェクトの外郭線3200の外部に位置している。また、
図32(a)の後面標識3230は、横よりも縦が長い長方形の形態であり、後面標識3230を構成する一部点の座標が外郭線3200の外部に位置している。
【0351】
本発明による視覚標識補正装置は、
図32(a)のような1次ラベリングされたデータが生成されると、サイドポイント3210、3211の上端点3210及び下端点3211が外郭線3200の外部に位置していることを探知して、サイドポイント3210、3211の上端点3210及び下端点3211を最も隣接する外郭線の点の方向に移動するように第1補正を行うことができる。
図32(a)には示されていないが、サイドポイントを構成する上端点及び下端点のいずれか一方のみが外郭線3200の外部に位置している場合にも同様に第1補正を適用することができる。
【0352】
さらに、視覚標識補正装置は、四角形の後面標識3230の形態を感知し、外郭線3200の外部に位置する部分を削除した後、外郭線3200の上辺及び右辺の一部が後面標識3230を構成するように補正することができる。
【0353】
図32(b)を参照すると、
図32(a)において外郭線3200の外部に位置しているサイドポイント3210、3211の上端点3210及び下端点3211はいずれも外郭線3200を構成する点の位置にそれぞれ移動されたことがわかり、後面標識3230は、外郭線3200の外部にある部分が削除され、四角形の後面標識3230の広さが縮小されたことがわかる。
【0354】
図32(a)及び
図32(b)において、後面標識3230は、外郭線3200の外部に位置する部分のみを削除する方式で補正されたが、実施形態によっては、後面標識3230の外郭線3200の外部に位置する部分を除去するために、視覚標識補正装置は、後面標識3230の広さをそのまま維持しながら、後面標識3230を外郭線3200の内部に移動させることもできる。
【0355】
図33は、本発明による視覚標識補正装置によって処理される第2補正プロセスの一例を模式的に示す図である。
【0356】
図33(a)は、説明の便宜上、
図32(b)と同じ図を配置したものである。
図33(a)において、サイドポイント3310、3311の上端点3310及び下端点3311は、外郭線3300の内部に位置が変更された状態である。
【0357】
本発明による視覚標識補正装置は、
図33(a)のように第1補正が適用された状態でオブジェクトの方向がどの方向であるかを探知した後、探知された方向及びオブジェクトの後面の高さに基づいて、
図33(a)の後面標識3330を、
図33(b)の後面標識3330のように変更することができる。具体的には、視覚標識補正装置は、オブジェクトの方向が前面左側(front-left)方向であると探知されると、オブジェクトの後面が観測されないことを模式的に示すために、
図33(a)の四角形状の後面標識3330を
図33(b)の線状の後面標識3330に変更する第2補正を行うことができる。
【0358】
上記の第2補正プロセスにおいて、視覚標識補正装置は、露出標識3350の位置も外郭線3300を形成する点に移動させることができる。露出標識3350は、映像でオブジェクトの一部が欠けておらず、全部分が撮影(露出)されたか否かを示すことができ、
図33(b)においてオブジェクトは外郭線3300によってオブジェクトの全てが囲まれているので、視覚標識補正装置は、露出標識3350のy座標を変更して、外郭線3300の下端辺を構成する点の位置に移動させることができる。
【0359】
図34は、本発明による視覚標識補正装置によって処理される第2補正プロセスの他の一例を模式的に示す図である。
【0360】
本発明による視覚標識補正装置は、
図34(a)のように第1補正が適用された状態でオブジェクトの方向がどの方向であるかを探知した後、探知された方向、オブジェクトの後面の高さに基づいて、
図34(a)のサイドポイント3410及び後面標識3430を
図34(b)のサイドポイント3410及び後面標識3430のように補正することができる。
【0361】
具体的には、視覚標識補正装置は、オブジェクトの方向が完全な左側(left only)方向であると探知されると、オブジェクトの前面及び後面の両方が観測されないことを模式的に示すために、
図34(a)のサイドポイント3410を
図34(b)のサイドポイント3410の位置に変更し、
図34(a)の四角形状の後面標識3430を
図34(b)の線状の後面標識3430に変更する第2補正を行うことができる。第2補正まで完了すると、サイドポイント3410は外郭線3400の左辺と一致することになり、後面標識3430は外郭線3400の右辺と一致するようになる。
【0362】
図35は、本発明による視覚標識補正装置によって処理される第2補正プロセスの他の一例を模式的に示す図である。
【0363】
本発明による視覚標識補正装置は、
図35(a)のように第1補正が適用された状態でオブジェクトの方向がどの方向であるかを探知した後、探知された方向、オブジェクトの後面の高さに基づいて、
図35(a)のサイドポイント3510及び後面標識3530を
図35(b)のサイドポイント3510及び後面標識3530のように補正することができる。
【0364】
具体的には、視覚標識補正装置は、オブジェクトの方向が完全な後面(rear only)方向であると探知されると、オブジェクトの前面及び側面の両方が観測されないことを模式的に示すために、
図35(a)のサイドポイント3510を
図35(b)のサイドポイント3510の位置に変更し、
図35(a)の四角形状の後面標識3530を
図35(b)の線状の後面標識3530に変更する第2補正を行うことができる。第2補正まで完了すると、サイドポイント3510は、外郭線3500の上端辺と下端辺の正中央を分ける2つの点及び連結線で表され、後面標識3530は外郭線3500と一致するようになる。
【0365】
図36は、本発明による視覚標識補正方法の一例をフローチャートで示す図である。
【0366】
図36による方法は、
図31で説明した視覚標識補正装置3100によって実現することができるので、以下では、
図31~
図35で説明した内容と重複する説明は省略する。
【0367】
視覚標識補正装置3100は、走行中に取得された映像を学習モデルに入力し、前記映像から検出されたオブジェクトの位置及び方向に対する視覚標識を生成することができる(S3610)。あるいは、走行中に取得された映像に含まれるオブジェクトを認識し、前記認識されたオブジェクトを学習モデルに入力して、オブジェクトの位置及び方向に対する視覚標識を生成してもよい。
【0368】
視覚標識補正装置3100は、ステップS3610で生成された視覚標識の位置をオブジェクトの外郭線内部に移動させる第1補正を行うことができる(S3630)。
【0369】
視覚標識補正装置3100は、外郭線内部に移動された視覚標識の位置及び形状の少なくとも1つを視覚標識の特性に基づいて変更する第2補正を行うことができる(S3650)。
【0370】
図37は、一実施形態による視覚標識補正装置のブロック図である。
【0371】
図37を参照すると、視覚標識補正装置3700は、通信部3710、プロセッサ3720、及びDB3730を含むことができる。
図37の視覚標識補正装置3700には、実施形態に関連する構成要素のみが示されている。したがって、
図37に示す構成要素に加えて他の汎用構成要素をさらに含むことができるのは当技術分野の通常の技術者であれば理解することができる。
【0372】
通信部3710は、外部サーバまたは外部装置との有線/無線通信を可能にする1つ以上の構成要素を含むことができる。例えば、通信部3710は、近距離通信部(図示せず)、移動通信部(図示せず)及び放送受信部(図示せず)のうちの少なくとも1つを含むことができる。
【0373】
DB3730は、視覚標識補正装置3700内で処理される各種データを保存するハードウェアであり、プロセッサ3720の処理及び制御のためのプログラムを保存することができる。
【0374】
DB3730は、DRAM(dynamic random access memory)、SRAM(static random access memory)などのRAM(random access memory)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-only memory)、CD-ROM、ブルーレイまたは他の光ディスクストレージ、HDD(hard disk drive)、SSD(solid state drive)、またはフラッシュメモリを含むことができる。
【0375】
プロセッサ3720は、視覚標識補正装置3700の全体的な動作を制御する。例えば、プロセッサ3720は、DB3730に保存されたプログラムを実行することにより、入力部(図示せず)、ディスプレイ(図示せず)、通信部3710、DB3730などを全体的に制御することができる。プロセッサ3720は、DB3730に保存されたプログラムを実行することにより、視覚標識補正装置3700の動作を制御することができる。
【0376】
プロセッサ3720は、
図31~
図36で上述した視覚標識補正装置の動作の少なくとも一部を制御することができる。
【0377】
一例として、プロセッサ3720は、走行中に取得された映像を学習モデルの入力として用いて、映像から検出されたオブジェクトの位置及び方向に対する視覚標識を生成し、生成された視覚標識の位置をオブジェクトの外郭線内部に移動させる第1補正を行い、外郭線内部に移動された視覚標識の位置及び形状の少なくとも1つを視覚標識の特性に基づいて変更する第2補正を行うことができる。
【0378】
プロセッサ3720は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、コントローラ(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、及び他の機能を行うための電気的なユニットのうちの少なくとも1つを用いて実装することができる。
【0379】
本発明による実施形態は、コンピュータ上で様々な構成要素を介して実行可能なコンピュータプログラムの形態で実装することができ、そのようなコンピュータプログラムはコンピュータで読み取り可能な媒体に記録することができる。このとき、媒体は、ハードディスク、フロッピーディスク、及び磁気テープなどの磁気媒体、CD-ROM、DVDなどの光記録媒体、フロプティカルディスク(floptical disk)などの磁気光学媒体(magneto-optical medium)、ROM 、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含むことができる。
【0380】
一方、前記コンピュータプログラムは、本発明のために特別に設計され構成されたものであってもよく、コンピュータソフトウェアの分野の当業者に公知され利用可能なものであり得る。コンピュータプログラムの例には、コンパイラによって作成されるような機械語コードだけでなく、インタープリタなどを使用してコンピュータによって実行できる高級言語コードも含まれてもよい。
【0381】
一実施形態によれば、本開示の様々な実施形態による方法は、コンピュータプログラム製品(computer program product)に含まれて提供されてもよい。コンピュータプログラム製品は、商品として販売者と購入者との間で取引することができる。コンピュータプログラム製品は、機器で読み取り可能な記憶媒体(例えば、compact disc read only memory(CD-ROM))の形態で配布されるか、またはアプリケーションストア(例えば、プレイストアTM)を介して、または2つのユーザ装置間で直接、オンラインで配布(例えば、ダウンロードまたはアップロード)することができる。オンライン配布の場合、コンピュータプログラム製品の少なくとも一部は、製造元のサーバ、アプリケーションストアのサーバ、または中継サーバのメモリのような機器で読み取る可能な記憶媒体に少なくとも一時的に保存するか、一時的に生成することができる。
【0382】
本発明による方法を構成するステップについて明らかに順序を記載または反する記載がない場合、前記ステップは適切な順序で行われてもよい。必ずしも前記ステップの記載順序によって本発明が限定されるわけではない。本発明においてすべての例または例示的な用語(例えば、等)の使用は、単に本発明を詳細に説明するためのものであり、特許請求の範囲によって限定されない限り、前記の例または例示的な用語によって本発明の範囲が限定されるわけではない。さらに、当業者は、様々な修正、組み合わせ、及び変更が追加された特許請求の範囲またはその均等物の範疇内で設計条件及び要因に従って構成され得ることが分かる。
【0383】
したがって、本発明の精神は、上述した実施形態に限定されてはならず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等またはそれから等価的に変更された全ての範囲は、本発明の思想の範疇に属すると言えるであろう。