IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社小松製作所の特許一覧

特開2025-18512識別システム、識別方法および作業車両
<>
  • 特開-識別システム、識別方法および作業車両 図1
  • 特開-識別システム、識別方法および作業車両 図2
  • 特開-識別システム、識別方法および作業車両 図3
  • 特開-識別システム、識別方法および作業車両 図4
  • 特開-識別システム、識別方法および作業車両 図5
  • 特開-識別システム、識別方法および作業車両 図6
  • 特開-識別システム、識別方法および作業車両 図7
  • 特開-識別システム、識別方法および作業車両 図8
  • 特開-識別システム、識別方法および作業車両 図9
  • 特開-識別システム、識別方法および作業車両 図10
  • 特開-識別システム、識別方法および作業車両 図11
  • 特開-識別システム、識別方法および作業車両 図12
  • 特開-識別システム、識別方法および作業車両 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025018512
(43)【公開日】2025-02-06
(54)【発明の名称】識別システム、識別方法および作業車両
(51)【国際特許分類】
   G06T 7/00 20170101AFI20250130BHJP
   G06T 7/70 20170101ALI20250130BHJP
   B66F 9/24 20060101ALI20250130BHJP
【FI】
G06T7/00 C
G06T7/70 Z
B66F9/24 L
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023122271
(22)【出願日】2023-07-27
(71)【出願人】
【識別番号】000001236
【氏名又は名称】株式会社小松製作所
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】岩永 圭弘
【テーマコード(参考)】
3F333
5L096
【Fターム(参考)】
3F333AA01
3F333FD11
3F333FE04
3F333FE05
5L096AA06
5L096BA08
5L096CA02
5L096CA18
5L096DA02
5L096EA35
5L096EA43
5L096FA66
5L096FA67
5L096FA69
5L096HA09
(57)【要約】
【課題】計算負荷を抑えて、カメラによって撮影した撮影画像から対象を識別可能な識別システム、識別方法および作業車両を提供すること。
【解決手段】識別システム1は、作業車両に取り付けられ、作業車両の周辺に存在する物体を検出する3次元センサ11と、作業車両に取り付けられ、作業車両の周辺を撮影するカメラ12と、コントローラ20と、を備える。コントローラ20は、3次元センサ11から物体検出データである点群データ、および、カメラ12が撮影した撮影画像の画像データを取得し、点群データに基づいて対象を識別し、点群データに基づく識別結果を用いて撮影画像を変換し、変換画像に基づいて対象を識別する。
【選択図】図2
【特許請求の範囲】
【請求項1】
作業車両の周辺に存在する物体から対象を識別するための識別システムであって、
前記作業車両に取り付けられ、前記作業車両の周辺に存在する物体を検出するための物体検出センサと、
前記作業車両に取り付けられ、前記作業車両の周辺を撮影するためのカメラと、
コントローラと、
を備え、
前記コントローラは、
前記物体検出センサから物体検出データである点群データ、および、前記カメラが撮影した撮影画像の画像データを取得し、
前記点群データに基づいて対象を識別し、
前記点群データに基づく識別結果を用いて前記撮影画像を変換し、
変換画像に基づいて前記対象を識別する、
識別システム。
【請求項2】
前記変換画像は、前記点群データに基づく識別結果を用いて前記撮影画像を所定方向から見たように視点変換した画像である、
請求項1に記載の識別システム。
【請求項3】
前記コントローラは、
前記点群データに基づいて識別された対象の位置及び姿勢と、前記物体検出センサと前記カメラとの相対的な位置関係とに基づいて、前記撮影画像を視点変換する、
請求項2に記載の識別システム。
【請求項4】
前記所定方向は、作業車両が対象に対して作業を行う際の正面から見た方向である、
請求項2または3に記載の識別システム。
【請求項5】
前記コントローラは、
前記点群データから対象の外形の少なくとも一部を構成する平面を推定し、
推定した前記平面上に位置する点群を抽出して二値画像を生成し、
前記二値画像から前記対象を識別し、
推定した前記平面上に位置する複数の点を前記撮影画像に投影し、
前記撮影画像に投影した前記複数の点を基準にして視点変換を行う、
請求項2または3に記載の識別システム。
【請求項6】
前記コントローラは、
前記点群データに基づいて識別した前記対象と、前記変換画像に基づいて識別した前記対象との整合性を確認する、
請求項1に記載の識別システム。
【請求項7】
作業車両の周辺に存在する物体から対象を識別するための識別方法であって、
前記作業車両に取り付けられ、前記作業車両の周辺に存在する物体を検出するための物体検出センサから、物体検出データである点群データを取得し、
前記作業車両に取り付けられ、前記作業車両の周辺を撮影するためのカメラから、撮影画像の画像データを取得し、
前記点群データに基づいて対象を識別し、
前記点群データに基づく識別結果を用いて前記撮影画像を変換し、
変換画像に基づいて前記対象を識別する、
識別方法。
【請求項8】
作業車両であって、
車体と、
前記作業車両に取り付けられ、前記作業車両の周辺に存在する物体を検出するための物体検出センサと、
前記作業車両に取り付けられ、前記作業車両の周辺を撮影するためのカメラと、
コントローラと、
を備え、
前記コントローラは、
前記物体検出センサから物体検出データである点群データ、および、前記カメラが撮影した撮影画像の画像データを取得し、
前記点群データに基づいて対象を識別し、
前記点群データに基づく識別結果を用いて前記撮影画像を変換し、
変換画像に基づいて前記対象を識別する、
作業車両。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、識別システム、識別方法および作業車両に関する。
【背景技術】
【0002】
例えば、ダンプトラック、ホイールローダ、ショベル、フォークリフトなどの作業車両により正確な作業を行うためには、作業車両による作業対象の識別性能を向上させる必要がある。特許文献1に開示されているような、対象であるパレットまでの距離を検出するレーザセンサと、レーザセンサの検出データに基づいて、パレットの前面の平面方程式を算出する平面方程式算出部と、平面方程式算出部により算出されたパレットの前面の平面方程式を用いて、パレットの位置及び姿勢を推定する推定演算部とを備え、推定演算部は、パレットの姿勢としてパレットのヨー角、ピッチ角及びロール角を計算する技術が知られている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2021-42070号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
例えば、ダンプトラック、ホイールローダ、ショベル、フォークリフトなどの作業車両による作業対象の位置及び姿勢を高精度に推定するためには、測距精度の高いLiDARのような3次元センサを用いて対象を識別することが有効である。ところが、3次元センサの測定データである点群では、例えば、対象の色情報がないこと、または、分解能が低いことなどが原因となり、対象を誤って識別することがある。識別性能を高めるためには、カメラによって撮影した撮影画像を用いることが有効であるが、計算負荷が高くなるおそれがある。
【0005】
本開示の態様は、計算負荷を抑えて、カメラによって撮影した撮影画像から対象を識別可能な識別システム、識別方法および作業車両を提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示の態様に従えば、作業車両に取り付けられ、作業車両の周辺に存在する物体を検出するための物体検出センサと、作業車両に取り付けられ、作業車両の周辺を撮影するためのカメラと、コントローラと、を備える、作業車両の周辺に存在する物体から対象を識別するための識別システムが提供される。コントローラは、物体検出センサから物体検出データである点群データ、および、カメラが撮影した撮影画像の画像データを取得し、点群データに基づいて対象を識別し、点群データに基づく識別結果を用いて撮影画像を変換し、変換画像に基づいて対象を識別する。
【0007】
本開示の態様に従えば、作業車両に取り付けられ、前記作業車両の周辺に存在する物体を検出するための物体検出センサから、物体検出データである点群データを取得するステップと、作業車両に取り付けられ、前記作業車両の周辺を撮影するためのカメラから、撮影画像の画像データを取得するステップと、点群データに基づいて対象を識別するステップと、前記点群データに基づく識別結果を用いて前記撮影画像を変換するステップと、変換画像に基づいて前記対象を識別するステップと、を備える、作業車両の周辺に存在する物体から対象を識別するための識別方法が提供される。
【0008】
本開示の態様に従えば、車体と、作業車両に取り付けられ、作業車両の周辺に存在する物体を検出する物体検出センサと、作業車両に取り付けられ、作業車両の周辺を撮影するカメラと、コントローラと、を備える、作業車両が提供される。コントローラは、物体検出センサから物体検出データである点群データ、および、カメラが撮影した撮影画像の画像データを取得し、点群データに基づいて対象を識別し、点群データに基づく識別結果を用いて撮影画像を変換し、変換画像に基づいて対象を識別する。
【発明の効果】
【0009】
本開示の態様によれば、計算負荷を抑えて、カメラによって撮影した撮影画像から対象を識別可能な識別システム、識別方法および作業車両が提供される。
【図面の簡単な説明】
【0010】
図1図1は、実施形態に係る作業車両を示す側面図である。
図2図2は、実施形態に係る識別システムを示す機能ブロック図である。
図3図3は、実施形態に係るコンピュータシステムを示すブロック図である。
図4図4は、実施形態に係る作業車両の動作を示す模式図である。
図5図5は、対象を示す点群の一例を示す図である。
図6図6は、対象の識別処理の一例を説明する模式図である。
図7図7は、対象の二値画像の一例を示す図である。
図8図8は、対象の特徴パターンの一例を示す図である。
図9図9は、3次元センサ、カメラおよび対象の位置関係を示す模式図である。
図10図10は、対象を撮影した撮影画像の一例を説明する図である。
図11図11は、図10に示す撮影画像を視点変換した変換画像の一例を説明する図である。
図12図12は、点群による対象の識別方法の処理の一例を示すフローチャートである。
図13図13は、実施形態に係る対象の識別方法の処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0011】
以下、本開示に係る実施形態について図面を参照しながら説明するが、本開示はこれに限定されない。以下で説明する各実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
【0012】
[実施形態]
<作業車両>
作業車両は、作業現場において、作業車両の周辺に存在する物体から対象を識別する。実施形態においては、作業車両は、例えば、ホイールローダやフォークリフトなどである。
【0013】
図1は、実施形態に係る作業車両を示す側面図である。実施形態では、作業車両100は、ホイールローダである。作業車両100は、運転者の運転操作によって稼働する有人車両でもよいし、無人で稼働する無人車両でもよい。ホイールローダ100は、作業機110によって取り上げた運搬物を積み込む積込作業を行う。
【0014】
実施形態では、ホイールローダ100が識別する対象は、ダンプトラックである。対象は、ダンプトラックには限定されず、運搬物であってもよい。運搬物は、例えば、パレット、スキッド、または、コンテナである。運搬物は、一対のフォーク挿し込み穴を有する。
【0015】
以下の説明においては、上下方向、車幅方向、及び前後方向という用語を用いて各部の位置関係について説明する。上下方向とは、地面RSと接触するタイヤ106の接地面と直交する方向をいう。車幅方向とは、車輪105の回転軸と平行な方向をいう。前後方向とは、上下方向及び車幅方向と直交する方向をいう。
【0016】
「上」とは、上下方向の一方向をいい、タイヤ106の接地面を基準として運転室103Rが存在する方向をいう。「下」とは、上下方向において「上」の反対方向をいう。「左」とは、車幅方向の一方向をいう。「右」とは、車幅方向において「左」の反対方向をいう。「前」とは、前後方向の一方向をいい、運転室103Rを基準として作業機110が存在する方向をいう。「後」とは、前後方向において「前」の反対方向をいう。
【0017】
図1に示すように、ホイールローダ100は、車体102と、走行装置104と、作業機110とを備える。
【0018】
車体102は、車体前部102Fと、車体前部102Fよりも後方に配置される車体後部102Rとを含む。車体前部102Fと車体後部102Rとは、関節機構109を介して屈曲可能に連結される。
【0019】
走行装置104は、車体102を支持して地面RSを走行する。走行装置104は、動力源104Aと、操舵装置104Bと、車輪106と、動力伝達装置108とを有する。
【0020】
動力源104Aは、ホイールローダ100を駆動するための動力を発生する。動力源104Aは、例えば、電動モータである。
【0021】
操舵装置104Bは、ホイールローダ100を操舵するために、関節機構109に設けられる。操舵装置104Bが作動することにより、車体後部102Rに対して車体前部102Fが屈曲する。車体後部102Rに対して車体前部102Fが屈曲することにより、ホイールローダ100の走行方向が調整される。操舵装置104Bは、例えば、油圧シリンダである。
【0022】
車輪106は、車体前部102Fに回転可能に支持される2つの前輪106Fと、車体後部102Rに回転可能に支持される2つの後輪106Rとを含む。
【0023】
実施形態において、左右方向は、ホイールローダ100が直進状態で走行するときの前輪106F及び後輪106Rの回転軸に平行な方向である。上下方向は、前輪106F及び後輪106Rの接地面に直交する方向である。前後方向は、左右方向及び上下方向のそれぞれに直交する方向である。
【0024】
動力伝達装置108は、動力源104Aの駆動力を車輪106に伝達する。動力伝達装置108は、動力源104Aからの出力を変更させることにより、ホイールローダ100は加速又は減速する。動力伝達装置108は、車輪106の回転方向を切り換えることにより、ホイールローダ100は前進又は後進する。
【0025】
作業機110は、車体前部102Fに支持される。作業機110の少なくとも一部は、車体前部102Fよりも前方に配置される。作業機110は、ブーム111と、バケット112と、ベルクランク113と、リンク114と、ブームシリンダ115と、バケットシリンダ116とを有する。
【0026】
ブーム111は、車体前部102Fに回動可能に連結される。ベルクランク113は、リンク114を介してバケット112に連結される。バケット112は、ブーム111の先端部に回動可能に連結される。バケット112は、刃先を含む先端部112Bを有する作業部材である。バケット112は、前タイヤ106Fよりも前方に配置される。
【0027】
ブームシリンダ115は、ブーム111を作動させる動力を発生する油圧シリンダである。ブームシリンダ115が伸縮することにより、ブーム111は上げ動作又は下げ動作する。
【0028】
バケットシリンダ116は、バケット112を作動させる動力を発生する油圧シリンダである。バケットシリンダ116が伸縮することにより、バケット112はダンプ動作又はチルト動作する。バケット112がチルト動作することにより、バケット112は掘削物をすくい取る。バケット112がダンプ動作することにより、バケット112に保持されている掘削物がバケット112から排出される。
【0029】
<作業車両の識別システム>
図2は、第1実施形態に係る識別システムを示す機能ブロック図である。ホイールローダ100の識別システム1は、3次元センサ(物体検出センサ)11、カメラ12と、出力部19、及びコントローラ20を備える。3次元センサ11、カメラ12、出力部19及びコントローラ20は、無線又は有線によりデータを通信可能に接続されている。
【0030】
実施形態では、3次元センサ11及びカメラ12は、1組としてホイールローダ100に取り付けられている。3次元センサ51及びカメラ52の数は特に限定されるものではなく、例えば、ホイールローダ100に複数の3次元センサ11及びカメラ12が配置されていてもよい。
【0031】
3次元センサ11は、ホイールローダ100に取り付けられている。実施形態では、3次元センサ11は、ホイールローダ100の前部に取り付けられている。3次元センサ11の数は特に限定されるものではなく、例えば、ホイールローダ100に複数の3次元センサ11が配置されていてもよい。3次元センサ11は、ホイールローダ100の周辺に存在する物体を検出する物体検出センサである。実施形態では、3次元センサ11は、ホイールローダ100の前方に存在する物体を検出する物体検出センサである。3次元センサ11は、例えば、数10[m]程度の範囲を検出可能である。3次元センサ11は、検出した物体検出データをコントローラ20へ送信する。
【0032】
3次元センサ11は、物体の3次元データを取得する。物体の3次元データは、物体の表面に規定される複数の検出点からなる点群を含む。点群は、3次元センサ11と物体の表面に規定される複数の検出点のそれぞれとの相対距離及び相対位置を示す。3次元センサ11として、レーザ光を射出することにより物体を検出するレーザセンサ(LiDAR:Light Detection and Ranging)が例示される。なお、3次元センサ11は、赤外光を射出することにより物体を検出する赤外線センサ又は電波を射出することにより物体を検出するレーダセンサ(RADAR:Radio Detection and Ranging)などの他の非接触センサでもよい。
【0033】
カメラ12は、ホイールローダ100に取り付けられている。カメラ12は、ホイールローダ100の周辺の画像を撮像可能である。実施形態では、カメラ12は、ホイールローダ100の前方に存在する物体を撮影するカメラである。カメラ12は、例えば、数10[m]程度の範囲を撮像可能である。カメラ12は、対象を撮影可能な位置に配置されている。カメラ12は、撮像した撮影画像の画像データをコントローラ20へ送信する。
【0034】
出力部19は、識別結果を出力する。出力部19は、例えば、モニタ、ランプ、ブザーなどである。出力部19は、出力制御部29の制御によって識別結果を出力する。
【0035】
<コントローラ>
コントローラ20は、ホイールローダ100の周辺の物体を識別する。コントローラ20は、物体検出センサとしての3次元センサ11から物体検出データである点群データ、および、カメラ12が撮影した撮影画像の画像データを取得可能である。コントローラ20は、CPU(Central Processing Unit)のような数値演算装置(プロセッサ)を含む。
【0036】
図3は、第1実施形態に係るコンピュータシステムを示すブロック図である。コントローラ20は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPUのようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。上述のコントローラ20の機能は、プログラムとしてストレージ1003に記憶されている。プロセッサ1001は、プログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、プログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
【0037】
実施形態では、コントローラ20は、点群識別部21と、画像処理部22と、出力制御部29とを備える。
【0038】
点群識別部21は、3次元センサ11から物体検出データを取得する。点群識別部21は、物体検出データに基づいて対象を識別する。点群識別部21は、物体検出データから、対象の位置及び姿勢を識別する。なお、点群識別部21における識別する方法は限定されない。
【0039】
点群識別部21における識別方法の一例について説明する。点群識別部21は、3次元センサ11の物体検出データである点群データに基づいて対象を識別する。より詳しくは、点群識別部21は、取得した点群データから対象の外形の少なくとも一部を構成する平面を推定する。点群識別部21は、点群データを投影面に投影し、投影面上において点群密度が高い部分を3次元に復元して対象の平面を推定する。そして、点群識別部21は、推定した平面上に位置する点群を抽出して二値画像を生成する。そして、点群識別部21は、生成した二値画像の中から、あらかじめ記憶された対象の外形のなかで平面部分の形状を示す特徴パターンの二値画像と似ている形状を検出して、対象を識別する。
【0040】
点群識別部21のより詳しい構成の一例について説明する。点群識別部21は、センサデータ取得部211と、記憶部212と、識別部223とを備える。
【0041】
センサデータ取得部211は、3次元センサ11から物体検出データを取得する。センサデータ取得部211が取得した物体検出データは、例えば、複数の検出点からなる点群である。以下、物体検出データを点群データという。
【0042】
記憶部212は、RAM、ROM、フラッシュメモリ、及びハードディスクドライブの少なくとも一つを含む。記憶部212は、コントローラ20の処理で使用するデータ等を記憶する。
【0043】
記憶部212は、対象が存在すると推測される範囲である探索範囲を記憶する。記憶部212は、対象を識別するための対象の特徴パターンを記憶する。
【0044】
探索範囲は、物体検出データである点群データから対象を識別する処理に用いる平面抽出用点群を抽出する範囲である。点群データは、3次元センサ11の測定距離及び視野角の点群を含む。
【0045】
対象の特徴パターンは、対象の外形のなかで平面部分の形状を示す画像である。本実施形態では、特徴パターンは、ダンプトラックのベッセルの側面の二値画像である。
【0046】
識別部223は、3次元センサ11の物体検出データから対象を識別する。より詳しくは、識別部223は、センサデータ取得部211が取得した点群データから対象の外形の少なくとも一部を構成する平面を推定し、推定した平面上に位置する点群を抽出して二値画像を生成し、二値画像から対象を識別する。
【0047】
識別部223は、点群データを投影面に投影し、投影面上において点群密度が高い部分を3次元に復元して前記対象の平面を推定する。
【0048】
識別部223は、生成した二値画像の中から、あらかじめ記憶された対象の外形のなかで平面部分の形状を示す特徴パターンの二値画像と似ている形状を検出して、対象を識別する。
【0049】
図4は、第1実施形態に係る作業車両の動作を示す模式図である。ホイールローダ100は、作業機110によって取り上げた運搬物を積み込むために、積込対象となるダンプトラック200を識別する。ホイールローダ100は、3次元センサ11から取得した物体検出データに基づいて、ダンプトラック200のベッセルBEを識別する。
【0050】
図5ないし図8を用いて、識別部223による対象の識別処理について説明する。図5は、対象を示す点群の一例を示す図である。図6は、対象の識別処理の一例を説明する模式図である。図7は、対象の二値画像の一例を示す図である。図8は、対象の特徴パターンの一例を示す図である。点群は、図5に示すように、物体の表面に規定される複数の検出点で構成されている。まず、識別部223は、図6に示すように、点群データから対象を構成する平面を推定する。図6(a1)に示すように、点群データから、探索範囲内の点群を抽出して、対象の点群を取得する。そして、図6(a2)に示すように、識別部223は、平面抽出用点群をz軸が地面平面と直交する座標系のxy平面に射影する。図6(a3)は、xy平面に射影された点群を示す。xy平面上の破線で囲んだ点群は、ダンプトラックの破線で囲んだ、xy平面と直交する側面上の点群に対応する。ダンプトラックのxy平面と直交する平面上にあった点群は、一本の線分上に集約されて高密度になる。そして、図6(a4)に示すように、識別部223は、xy平面上で点群密度が高くなっている破線で囲んだ部分を残して、元の3次元位置に変換する。このようにして、識別部223は、対象を構成する平面上の点群である平面上点群を抽出することにより、対象を構成する平面を推定する。この例では、平面上点群は、ベッセル側面上の点群である。
【0051】
図7に示すように、識別部223は、抽出した平面上点群をもとに、二値画像を生成する。識別部223は、推定した平面周辺の点群である平面周辺点群を二値画像生成用の点群としてクロップして、二値画像を生成する。識別部223は、生成した二値画像の中に、図8に示す、ベッセルの形状を示す特徴パターンと似ている形状を検出する。似ている形状が検索された場合、識別部223は、検出位置及び特徴パターンのベッセルの形状を基準にして、ダンプトラックの全体の形状を識別する。
【0052】
画像処理部22は、カメラ12が撮影した撮影画像から対象を識別する。より詳しくは、画像処理部22は、点群データに基づく識別結果を用いて撮影画像を所定方向から見たように視点変換した変換画像に基づいて対象を識別する。画像処理部22は、視点変換部23と、特徴量抽出部24と、画像分類部25と、整合性確認部26とを備える。
【0053】
実施形態では、視点変換部23によって視点変換処理が実行される前に、3次元センサ11とカメラ12との相対的な位置関係がキャリブレーションされている。
【0054】
視点変換部23は、カメラ12が撮影した撮影画像を所定方向から見た変換画像に視点変換する。より詳しくは、視点変換部23は、点群データに基づいて識別された対象の位置及び姿勢と、3次元センサ11とカメラ12との相対的な位置関係とに基づいて、撮影画像を視点変換する。
【0055】
所定方向とは、例えば、画像分類によって対象を分類しやすい方向である。所定方向とは、例えば、ホイールローダ100が対象に対して作業を行う際に正面から見た方向である。所定方向とは、例えば、対象に対してホイールローダ100が正対する方向である。対象がダンプトラックである場合、所定方向は、ダンプトラックの側面を正面から見た方向である。対象が運搬物である場合、所定方向は、ホイールローダ100がフォーク挿し込み穴に正対する方向である。
【0056】
図9は、3次元センサ、カメラおよび対象の位置関係を示す模式図である。図9では、ダンプトラック200が対象であるものとする。3次元センサ11とカメラ12とは取り付け位置が異なるため、3次元センサ11の座標系とカメラ12の座標系とは、ずれが生じる。ダンプトラック200のベッセル側面の四隅の点を点P1、点P2、点P3及び点P4とする。点P1、点P2、点P3及び点P4の位置は、3次元センサ11の座標系で表す場合と、カメラ12の座標系で表す場合とで異なる。
【0057】
視点変換方法について詳しく説明する。まず、視点変換部23は、点群識別部21において推定した平面上に位置する4つ以上の点の位置を撮影画像に投影する。実施形態では、点群識別部21は、推定した平面の四隅の位置を撮影画像に投影する。点群識別部21は、対象が箱形状のパレットである場合、推定したパレットの1面の四隅の位置を撮影画像に投影する。点群識別部21は、対象がダンプトラックである場合、推定したダンプトラックのベッセルの四隅の位置を撮影画像に投影する。
【0058】
そして、視点変換部23は、撮影画像に投影した複数の点を基準にして視点変換を行う。実施形態では、視点変換部23は、撮影画像に投影した複数の点によって外形が規定される形状を、所定方向から見た撮影画像に変換する。視点変換部23は、例えば、複数の点によって規定される外形が、あらかじめ記憶部に記憶された正面視における形状となるように、視点変換を行う。視点変換部23は、視点変換後の変換画像の変換画像データを特徴量抽出部24へ出力する。
【0059】
図10図11を用いて、ダンプトラック200の画像を用いて視点変換について説明する。図10は、対象を撮影した撮影画像の一例を説明する図である。図11は、図10に示す撮影画像を視点変換した変換画像の一例を説明する図である。図10は、点群識別部21が推定したダンプトラック200のベッセル側面の四隅の点P1、点P2、点P3及び点P4を、撮影画像に投影した図である。図11は、ベッセル側面の四隅の点P1、点P2、点P3及び点P4を、ベッセルに正対する方向であるダンプトラックの側方から見たように視点変換した変換画像である。
【0060】
特徴量抽出部24は、視点変換後の変換画像から特徴量して抽出する。特徴量抽出部24が抽出した特徴量の特徴量データを画像分類部25に出力する。
【0061】
特徴量は、例えば、画像におけるエッジ(色の境界)を数値化したものである。
【0062】
画像分類部25は、特徴量データを用いて、変換画像から対象の画像であるか否かを機械学習によって画像分類する。画像分類部25は、特徴量抽出部24が抽出した特徴量と、図示しない記憶部に記憶された機械学習モデルの学習済みパラメータとに基づいて、変換画像を画像分類する。
【0063】
変換画像に基づいて対象を識別する方法は上記に限定されない。対象の識別方法は、例えば、パターンマッチングを用いてもよい。
【0064】
整合性確認部26は、対象の識別結果の整合性を確認する。整合性確認部26は、点群データに基づいて識別された対象の整合性を確認する。整合性確認部26は、点群識別部21による識別結果と、画像分類部25による分類結果である識別結果との整合性を確認する。整合性確認部26は、点群データに基づいて識別した対象と、変換画像に基づいて識別した対象との整合性を確認する。整合性確認部26は、点群識別部21によって識別された対象が、画像分類部25によって同じ対象として分類された場合、対象の識別結果に整合性があるとする。整合性確認部26は、点群識別部21によって識別された対象が、画像分類部25によって同じ対象として分類されない場合、対象の識別結果に整合性がないとする。なお、整合性確認部26は、点群識別部21による識別結果と、画像分類部25による分類結果である識別結果とが異なる場合、点群識別部21による識別結果を優先してもよい。
【0065】
出力制御部29は、点群識別部21による識別結果を、出力部19を介して出力するよう制御する。出力制御部29は、例えば、対象が識別された場合、識別された対象を示す映像をモニタに表示させる映像信号を出力する。出力制御部29は、例えば、対象が識別された場合、ランプを点灯させる制御信号を出力する。出力制御部29は、例えば、対象が識別された場合、でブザーを鳴動させる制御信号を出力する。
【0066】
<コントローラによる処理>
ホイールローダ100の起動中に、対象の識別処理が開始されると、図12図13に示す処理が実行される。図12は、点群による対象の識別方法の処理の一例を示すフローチャートである。図12に示すフローチャートの処理は、点群による対象の識別処理である。なお、ステップST19からステップST21までの処理は、必須の処理ではない。
【0067】
コントローラ20は、点群を取得する(ステップST11)。より詳しくは、コントローラ20は、センサデータ取得部211によって、3次元センサ11から点群データを受信する。コントローラ20は、ステップST12へ進む。
【0068】
コントローラ20は、平面抽出用点群をクロップする(ステップST12)。より詳しくは、コントローラ20は、識別部223によって、点群データから対象が存在すると推定される探索範囲に含まれる点群を平面抽出用点群として抽出する。コントローラ20は、ステップST13へ進む。
【0069】
コントローラ20は、平面抽出用点群をダウンサンプルする(ステップST13)。より詳しくは、コントローラ20は、識別部223によって、点群データのダウンサンプリング手法の一例であるボクセルダウンサンプリングを用いて、平面抽出用点群をダウンサンプルする。コントローラ20は、ステップST14へ進む。
【0070】
コントローラ20は、平面上点群を抽出し、平面を推定する(ステップST14)。より詳しくは、コントローラ20は、識別部223によって、ダウンサンプルされた平面抽出用点群から、ベッセル側面上の点群である平面上点群を抽出して、平面であるベッセル側面を推定する。コントローラ20は、ステップST15へ進む。
【0071】
コントローラ20は、二値画像生成用の点群をクロップする。(ステップST15)。より詳しくは、コントローラ20は、識別部223によって、推定した平面周辺の点群である平面周辺点群を二値画像生成用の点群としてクロップする。コントローラ20は、ステップST16へ進む。
【0072】
コントローラ20は、平面周辺点群の二値画像を生成する(ステップST16)。より詳しくは、コントローラ20は、識別部223によって、クロップした平面周辺点群をもとに、推定した平面の法線ベクトルがx軸の方向と一致する座標系のyz平面で二値画像化する。yz平面は、推定した平面を含む平面である。コントローラ20は、ステップST17へ進む。
【0073】
コントローラ20は、二値画像から対象の特徴を検出する(ステップST17)。より詳しくは、コントローラ20は、識別部223によって、二値画像の中に、特徴パターンと似ている形状を検出する。コントローラ20は、ステップST18へ進む。
【0074】
コントローラ20は、3次元位置へ復元する(ステップST18)。より詳しくは、コントローラ20は、識別部223によって、二値画像中の検出位置及び特徴パターンのベッセルの形状を基準にして、ダンプトラックの全体の位置、姿勢及び形状を識別する。コントローラ20は、ステップST19へ進む。
【0075】
コントローラ20は、センサの有効視野内か確認する(ステップST19)。より詳しくは、コントローラ20は、識別部223によって、ダンプトラックの全体の位置が、3次元センサ11の有効視野内であるかを確認する。3次元センサ11の視野の境界周辺は、識別性能が低下するため、識別性能が保証されることを確認するためである。
【0076】
コントローラ20は、予測値との整合性を確認する(ステップST20)。より詳しくは、コントローラ20は、識別部223によって、前回の推定結果から予測される対象の予測位置と、今回推測した対象の位置とを比較して、差分が閾値以下であるかを確認する。
【0077】
コントローラ20は、点群識別の分散、尤度を計算する(ステップST21)。
【0078】
このようにして、コントローラ20は、点群データから、対象であるダンプトラックのベッセルを識別する。
【0079】
上記の点群データに基づく対象の識別処理に続いて、図13に示す処理が実行される。図13は、実施形態に係る対象の識別方法の処理の一例を示すフローチャートである。図13に示すフローチャートの処理は、学習済みパラメータを用いた画像分類による対象の識別処理である。なお、ステップST55の処理は、必須の処理ではない。
【0080】
コントローラ20は、点群に基づく識別結果を取得する(ステップST51)。より詳しくは、コントローラ20は、点群識別部21によって、3次元センサ11から物体検出データである、複数の検出点からなる点群データを取得して、点群データから対象を識別する。ステップST51における処理を具体的に示したのが、上述した、図11に示したフローチャートの処理である。コントローラ20は、ステップST52へ進む。
【0081】
コントローラ20は、画像を視点変換する(ステップST52)。より詳しくは、コントローラ20は、視点変換部23によって、カメラ12が撮影した撮影画像を所定方向から見た撮影画像に視点変換する。コントローラ20は、ステップST53へ進む。
【0082】
コントローラ20は、特徴量を抽出する(ステップST53)。より詳しくは、コントローラ20は、特徴量抽出部24によって、視点変換後の変換画像から特徴量して抽出する。特徴量抽出部24が抽出した特徴量の特徴量データを画像分類部25に出力する。コントローラ20は、ステップST54へ進む。
【0083】
コントローラ20は、画像を分類する(ステップST54)。より詳しくは、コントローラ20は、画像分類部25によって、特徴量抽出部24が抽出した特徴量と、図示しない記憶部に記憶された機械学習モデルの学習済みパラメータとに基づいて、変換画像を画像分類する。コントローラ20は、ステップST55へ進む。
【0084】
コントローラ20は、整合性を確認する(ステップST55)。より詳しくは、コントローラ20は、整合性確認部26によって、点群識別部21による識別結果と、画像分類部25による分類結果である識別結果との整合性を確認する。
【0085】
このようにして、計算負荷を抑えて、カメラ12が撮影した撮影画像から対象が識別される。
【0086】
<効果>
以上説明したように、実施形態では、点群データに基づく識別結果を用いて撮影画像を視点変換し、視点変換した変換画像に基づいて対象を識別する。実施形態によれば、ディープラーニングのような計算負荷の高い処理を行わないことにより計算負荷を抑えて、カメラ12によって撮影した撮影画像から対象を識別できる。
【0087】
実施形態では、視点変換した変換画像に基づいて対象を識別するので、高い精度で識別できる。
【0088】
実施形態では、点群データに基づいて識別された対象の位置及び姿勢と、3次元センサ11とカメラ12との相対的な位置関係とに基づいて、撮影画像を視点変換する。実施形態では、点群データに基づく識別結果を用いることにより、より適切に撮影画像を視点変換できる。
【0089】
実施形態では、ホイールローダ100が対象に対して作業を行う際の正面から見た方向から見たように視点変換する。実施形態によれば、対象を識別しやすい方向から見たように視点変換した変換画像に基づいて対象を識別できる。実施形態は、高い精度で識別できる。
【0090】
実施形態では、点群データから推定された平面上に位置する複数の点を撮影画像に投影して、その複数の点を基準にして視点変換を行う。実施形態によれば、計算負荷を抑えて視点変換を行うことができる。
【符号の説明】
【0091】
1…識別システム、11…3次元センサ(物体検出センサ)、12…カメラ、19…出力部、20…コントローラ、21…点群識別部、211…センサデータ取得部、212…記憶部、213…識別部、22…画像処理部、221…視点変換部、222…特徴量抽出部、223…画像分類部、224…整合性確認部、29…出力制御部、100…ホイールローダ(作業車両)、102…車体、102F…車体前部、102R…車体後部、103…運転台、103R…運転室、104…走行装置、104A…エンジン、104B…ブレーキ、104C…ステアリングシリンダ、105…車輪、105F…前輪、105R…後輪、106…タイヤ、106F…前タイヤ、106R…後タイヤ、107…変速機、108…パーキングブレーキ、109…関節機構、110…作業機、111…ブーム、112…バケット、112B…先端部、113…ベルクランク、114…リンク、115…ブームシリンダ、116…バケットシリンダ、000…コンピュータシステム、1001…プロセッサ、1002…メインメモリ、1003…ストレージ、1004…インターフェース。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13