IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社小松製作所の特許一覧

特許7166088作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法
<>
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図1
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図2
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図3
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図4
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図5
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図6
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図7
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図8
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図9
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図10
  • 特許-作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-10-27
(45)【発行日】2022-11-07
(54)【発明の名称】作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法
(51)【国際特許分類】
   G07C 3/00 20060101AFI20221028BHJP
   E02F 9/20 20060101ALI20221028BHJP
   G06T 7/00 20170101ALI20221028BHJP
【FI】
G07C3/00
E02F9/20 Q
G06T7/00 350B
【請求項の数】 15
(21)【出願番号】P 2018123196
(22)【出願日】2018-06-28
(65)【公開番号】P2020004096
(43)【公開日】2020-01-09
【審査請求日】2021-05-06
(73)【特許権者】
【識別番号】000001236
【氏名又は名称】株式会社小松製作所
(74)【代理人】
【識別番号】110000202
【氏名又は名称】新樹グローバル・アイピー特許業務法人
(72)【発明者】
【氏名】山中 伸好
(72)【発明者】
【氏名】藤井 賢佑
【審査官】塩治 雅也
(56)【参考文献】
【文献】特開平10-060948(JP,A)
【文献】特開2017-142735(JP,A)
【文献】特開2015-217486(JP,A)
【文献】特開2008-240361(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G07C 3/00-3/14
E02F 9/20
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
走行体と、前記走行体に対して旋回可能に取り付けられた旋回体とを含む車両本体と、前記旋回体に対して可動的に取り付けられた作業機と、を含む作業車両が実行している作業を判定するためのシステムであって、
前記旋回体に取り付けられ、前記旋回体から前記作業機による作業位置に向けて配置され、前記作業位置を時系列で撮影した画像を示す画像データを生成するカメラと、
前記画像データを入力データとして、前記画像データに対応する前記作業の分類を出力する学習済みモデルを有するプロセッサと、
を備え、
前記プロセッサは、
前記画像データを取得し、
前記学習済みモデルを用いた画像解析により、前記画像データから前記作業の分類を決定する、
システム。
【請求項2】
前記作業機は、アームと、前記アームに対して回転可能に取り付けられたバケットとを含み、
前記画像データは、前記バケットの動作の映像を含む、
請求項1に記載のシステム。
【請求項3】
前記作業の分類は、掘削を含む、
請求項2に記載のシステム。
【請求項4】
前記作業の分類は、排土を含む、
請求項2又は3に記載のシステム。
【請求項5】
記画像データは、前記バケットと、前記旋回体の旋回によって変化する前記バケットの背景の映像を含む、
請求項から4のいずれかに記載のシステム。
【請求項6】
前記作業の分類は、ホイスト旋回を含む、
請求項5に記載のシステム。
【請求項7】
前記作業の分類は、空荷旋回を含む、
請求項5又は6に記載のシステム。
【請求項8】
前記画像データは、前記作業位置を撮影した動画を示す、
請求項1から7のいずれかに記載のシステム。
【請求項9】
走行体と、前記走行体に対して旋回可能に取り付けられた旋回体とを含む車両本体と、前記旋回体に対して可動的に取り付けられた作業機と、を含む作業車両が実行している作業を判定するために、コンピュータによって実行される方法であって、
前記作業機による作業位置に向けて前記旋回体において固定的に配置されたカメラから、前記作業位置を時系列で撮影した画像を示す画像データを取得することと、
前記画像データを入力データとして、前記画像データに対応する前記作業の分類を出力する学習済みモデルを用いた画像解析により、前記画像データから前記作業の分類を決定すること、
を備える方法。
【請求項10】
前記作業機は、アームと、前記アームに対して回転可能に取り付けられたバケットとを含み、
前記画像データは、前記バケットの動作の映像を含む、
請求項9に記載の方法。
【請求項11】
前記作業の分類は、掘削を含む、
請求項10に記載の方法。
【請求項12】
前記作業の分類は、排土を含む、
請求項10又は11に記載の方法。
【請求項13】
記画像データは、前記バケットと、前記旋回体の旋回によって変化する前記バケットの背景の映像を含む、
請求項10から12のいずれかに記載の方法。
【請求項14】
前記作業の分類は、ホイスト旋回を含む、
請求項13に記載の方法。
【請求項15】
走行体と、前記走行体に対して旋回可能に取り付けられた旋回体とを含む車両本体と、前記旋回体に対して可動的に取り付けられた作業機と、を含む作業車両が実行している作業を判定するための学習済みモデルの製造方法であって、
前記旋回体から前記作業機による作業位置に向けて前記作業位置を時系列で撮影した画像を示す画像データを取得することと、
前記画像における時刻と、前記時刻ごとに割り当てられた前記作業の分類とを含む作業データを生成することと、
前記画像データと前記作業データとを学習データとして、画像解析のためのモデルを学習させることで、前記学習済みモデルを構築すること、
を備える学習済みモデルの製造方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法に関する。
【背景技術】
【0002】
従来、作業車両による作業をコンピュータによって推定する技術が知られている。例えば、油圧ショベルは、掘削、旋回、或いは排土などの動作を行う。特許文献1では、油圧ショベルのこれらの作業を、油圧ショベルに備えられたセンサからの検出値に基づいて、コントローラが判定している。例えば、油圧ショベルは、回転速度センサ、圧力センサ、及び複数の角度センサを備えている。回転速度センサは、エンジンの回転速度を検出する。圧力センサは、油圧ポンプの吐出圧を検出する。複数の角度センサは、ブーム角度、アーム角度、及びバケット角度を検出する。コントローラは、これらのセンサからの検出値に基づいて、油圧ショベルが実行している作業を判定する。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2016-103301号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、上記の技術では、センサを備えていない作業車両の作業を判定することはできない。また、作業現場に配置された複数の作業車両を管理するために各作業車両の動作を判定する場合、全ての作業車両が、作業の判定に必要なセンサを備えているとは限らない。従って、作業現場に配置された複数の作業車両を管理するために各作業車両の作業を判定することは容易ではない。
【0005】
一方、近年、人や物の動作を撮影した動画を人工知能によって解析することで、どのような動作が行われているかをコンピュータが判定する技術が研究されている。例えば、動画を扱う人工知能のモデルとして、再帰型ニューラルネットワーク(RNN)などが研究されている。このような人工知能技術を用いて、作業車両の動作を撮影した動画を解析することができれば、作業車両の作業をコンピュータによって判定することができる。
【0006】
しかし、作業車両の外部に配置されたカメラにより作業車両を撮影する場合、同じ作業であっても、作業車両の向きに応じて、取得される動画は異なるものとなる。従って、人工知能のモデルを学習させるためには、作業車両の向きを変化させた膨大な量の動画が必要となる。そのため、判定精度の高い学習済みモデルを構築することは容易ではない。
【0007】
本発明の目的は、人工知能を用いて作業車両による作業を容易、且つ、精度良く判定することにある。
【課題を解決するための手段】
【0008】
第1の態様は、作業車両が実行している作業を判定するためのシステムである。作業車両は、車両本体と、車両本体に対して可動的に取り付けられた作業機と、を含む。本態様に係るシステムは、カメラとプロセッサとを備える。カメラは、車両本体に取り付けられ、車両本体から作業機による作業位置に向けて配置される。カメラは、作業位置を時系列で撮影した画像を示す画像データを生成する。プロセッサは、学習済みモデルを有する。学習済みモデルは、画像データを入力データとして、画像データに対応する作業の分類を出力する。プロセッサは、画像データを取得し、学習済みモデルを用いた画像解析により、画像データから作業の分類を決定する。
【0009】
第2の態様は、作業車両が実行している作業を判定するために、コンピュータによって実行される方法である。作業車両は、車両本体と、車両本体に対して可動的に取り付けられた作業機と、を含む。本態様に係る方法は、以下の処理を備える。第1の処理は、作業機による作業位置に向けて車両本体において固定的に配置されたカメラから、作業位置を時系列で撮影した画像を示す画像データを取得することである。第2の処理は、学習済みモデルを用いた画像解析により、画像データから作業の分類を決定することである。学習済みモデルは、画像データを入力データとして、画像データに対応する作業の分類を出力する。
【0010】
第3の態様は、作業車両が実行している作業を判定するための学習済みモデルの製造方法である。作業車両は、車両本体と、車両本体に対して可動的に取り付けられた作業機と、を含む。本態様に係る学習済みモデルの製造方法は、以下の処理を備える。第1の処理は、車両本体から作業機による作業位置に向けて作業位置を時系列で撮影した画像を示す画像データを取得することである。第2の処理は、画像における時刻と、時刻ごとに割り当てられた作業の分類とを含む作業データを生成することである。第3の処理は、画像データと作業データとを学習データとして、画像解析のためのモデルを学習させることで、学習済みモデルを構築することである。
【発明の効果】
【0011】
本発明では、作業機による作業位置に向けて車両本体に配置されたカメラから画像データが取得される。従って、作業車両の向きが変化しても、画像中の作業位置とカメラとの位置関係の変化は少ない。そのため、判定精度の高い学習済みモデルを容易に構築することができる。それにより、人工知能を用いて作業車両による作業を容易、且つ、精度良く判定することができる。
【図面の簡単な説明】
【0012】
図1】実施形態に係るシステムを示す模式図である。
図2】システムのコンピュータの構成を示す模式図である。
図3】コンピュータに実装されたシステムの構成を示す模式図である。
図4】ニューラルネットワークの構成を示す模式図である。
図5】作業車両の作業を推定するための処理を示すフローチャートである。
図6】掘削の画像データの一例を示す図である。
図7】ホイスト旋回の画像データの一例を示す図である。
図8】排土の画像データの一例を示す図である。
図9】空荷旋回の画像データの一例を示す図である。
図10】学習システムの構成を示す模式図である。
図11】作業データの一例を示す図である。
【発明を実施するための形態】
【0013】
以下、図面を参照して実施形態について説明する。図1は、実施形態に係る分類システム100を示す模式図である。分類システム100は、作業車両1が行っている作業を判定するためのシステムである。本実施形態において、作業車両1は、油圧ショベルである。作業車両1は、車両本体2と作業機3とを含む。
【0014】
車両本体2は、走行体4と旋回体5とを含む。走行体4は、履帯6を含む。履帯6が駆動されることで、作業車両1は走行する。旋回体5は、走行体4に対して旋回可能に取り付けられている。作業機3は、車両本体2に対して可動的に取り付けられている。詳細には、作業機3は、旋回体5に対して回転可能に取り付けられている。作業機3は、ブーム7と、アーム8と、バケット9とを含む。ブーム7は、旋回体5に対して回転可能に取り付けられている。アーム8は、ブーム7に対して回転可能に取り付けられている。バケット9は、アーム8に対して回転可能に取り付けられている。
【0015】
分類システム100は、カメラ101とコンピュータ102とを含む。カメラ101は、車両本体2に取り付けられている。詳細には、カメラ101は、旋回体5に取り付けられている。カメラ101は、車両本体2から作業機3による作業位置P1に向けて配置されている。車両本体2に対するカメラ101の向きは固定されている。作業位置P1は、作業機3の少なくとも一部、及び、その周囲を含む所定範囲である。
【0016】
詳細には、作業位置P1は、バケット9、及び、その周囲を含む。従って、画像データは、バケット9の動作の映像を含む。また、画像データは、バケット9の背景の映像を含む。作業位置P1は、アーム8の少なくとも一部をさらに含んでもよい。カメラ101は、作業位置P1を時系列で撮影した複数の画像を示す画像データを生成する。詳細には、カメラ101は、作業位置P1を撮影した動画データを生成する。
【0017】
コンピュータ102は、カメラ101と無線、或いは有線により通信を行う。カメラ101は、画像データをコンピュータ102に送信する。コンピュータ102は、通信ネットワークを介して、カメラ101から画像データを受信してもよい。コンピュータ102は、記録媒体を介してカメラ101から画像データを受信してもよい。
【0018】
コンピュータ102は、作業車両1が存在する作業現場に配置されてもよい。或いは、コンピュータ102は、作業現場から離れた管理センターに配置されてもよい。コンピュータ102は、分類システム100用に専用に設計されたものであってもよく、或いは汎用のPC(Personal Computer)であってもよい。コンピュータ102は、カメラ101から画像データを受信する。コンピュータ102は、人工知能の学習済みモデルを用いることで、画像データから作業車両1の作業の分類を決定する。
【0019】
図2は、コンピュータ102の構成を示す模式図である。図2に示すように、コンピュータ102は、プロセッサ103と、記憶装置104と、通信インタフェース105と、I/Oインタフェース106とを含む。プロセッサ103は、例えばCPU(Central Processing Unit)である。記憶装置104は、記録されたプログラム及びデータなどの情報をプロセッサ103が読み取り可能なように記録する媒体を含む。記憶装置104は、RAM(Random Access Memory)、或いはROM(Read Only Memory)などのシステムメモリと、補助記憶装置とを含む。補助記憶装置は、例えばハードディスク等の磁気的記録媒体、CD、DVD等の光学的記録媒体、或いは、フラッシュメモリ等の半導体メモリであってもよい。記憶装置104は、コンピュータ102に内蔵されてもよい。記憶装置104は、コンピュータ102に着脱可能に接続される外部記録媒体を含んでもよい。
【0020】
通信インタフェース105は、例えば有線LAN(Local Area Network)モジュール、或いは無線LANモジュール等であり、通信ネットワークを介した通信を行うためのインタフェースである。I/Oインタフェース106は、例えばUSB(Universal Serial Bus)ポート等であり、外部装置と接続するためのインタフェースである。
【0021】
コンピュータ102は、I/Oインタフェース106を介して、入力装置107、及び出力装置108と接続される。入力装置107は、ユーザーがコンピュータ102への入力を行うための装置である。入力装置107は、例えば、マウス、或いはトラックボール等のポインティングデバイスを含む。入力装置107は、キーボード等の文字入力のための装置を含んでもよい。出力装置108は、例えば、ディスプレイを含む。
【0022】
図3は、分類システム100の構成の一部を示す図である。図3に示すように、分類システム100は、学習済みの分類モデル111を含む。学習済みの分類モデル111は、コンピュータ102に実装されている。学習済みの分類モデル111は、コンピュータ102の記憶装置104に保存されていてもよい。
【0023】
本実施形態において、モジュール及びモデルは、ハードウェア、ハードウェア上で実行可能なソフトウェア、ファームウェア、或いはそれらの組合せに実装されていてもよい。モジュール及びモデルは、プロセッサによって実行されるプログラム、アルゴリズム、及びデータを含んでもよい。モジュール及びモデルの機能は、単一のモジュールによって実行されてもよく、或いは複数のモジュールに分散して実行されてもよい。モジュール及びモデルは、複数のコンピュータに分散して配置されてもよい。
【0024】
分類モデル111は、画像解析のための人工知能モデルである。詳細には、分類モデル111は、動画解析のための人工知能モデルである。分類モデル111は、入力された画像データD11を解析して、画像データD11中の動画に対応する分類を出力する。コンピュータ102は、画像データD11に対して、人工知能の分類モデル111を用いた動画解析を実行することにより、作業車両1の作業の分類を決定する。分類モデル111は、決定した作業の分類を示す出力データD12を出力する。
【0025】
分類モデル111は、図4に示すニューラルネットワーク120を含む。例えば、分類モデル111は、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含む。
【0026】
図4に示すように、ニューラルネットワーク120は、入力層121、中間層122(隠れ層)、及び出力層123を含む。各層121,122,123は、1又は複数のニューロンを備えている。例えば、入力層121のニューロンの数は、画像データD11の画素数に応じて設定することができる。中間層122のニューロンの数は、適宜設定することができる。出力層123は、作業車両1の作業の分類数に応じて設定することができる。
【0027】
互いに隣接する層のニューロン同士は結合されており、各結合には重み(結合荷重)が設定されている。ニューロンの結合数は、適宜設定されてよい。各ニューロンには閾値が設定されており、各ニューロンへの入力値と重みとの積の和が閾値を超えているか否かによって各ニューロンの出力値が決定される。
【0028】
入力層121には、作業車両1の画像データD11が入力される。出力層123には、分類された各動作の確率を示す出力値が出力される。分類モデル111は、画像データD11が入力されると、分類された各作業の確率を示す出力値を出力するように学習済みである。学習によって得られた分類モデル111の学習済みパラメータは、記憶装置104に記憶されている。学習済みパラメータは、例えば、ニューラルネットワーク120の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロン間の結合の重み、及び各ニューロンの閾値を含む。
【0029】
図5は、作業車両1の作業を判定するためにコンピュータ102(プロセッサ103)によって実行される処理を示すフローチャートである。図5に示すように、ステップS101では、コンピュータ102は、カメラ101が撮影した作業車両1の画像データD11を取得する。コンピュータ102は、カメラ101が撮影した画像データD11をリアルタイムに取得してもよい。或いは、コンピュータ102は、カメラ101が撮影した画像データD11を所定時刻に、或いは所定時間ごとに取得してもよい。コンピュータ102は、画像データD11を記憶装置104に保存する。
【0030】
ステップS102では、コンピュータ102は、学習済みの分類モデル111を用いた動画解析を実行する。コンピュータ102は、ステップS101で取得した画像データD11が示す動画を、分類モデル111への入力データとして用いて、上述したニューラルネットワーク120に基づく画像解析を実行する。
【0031】
例えば、コンピュータ102は、画像データD11に含まれる画素値をニューラルネットワーク120の入力層121に含まれる各ニューロンに入力する。コンピュータ102は、作業車両1の作業の各分類の確率を出力データD12として得る。本実施形態において、作業の分類は、「掘削」、「ホイスト旋回」、「排土」、及び「空荷旋回」を含む。従って、コンピュータ102は、「掘削」、「ホイスト旋回」、「排土」、及び「空荷旋回」の各分類の確率を示す出力値を得る。
【0032】
図6は、カメラ101が撮影した「掘削」の画像データの一例を示す図である。図6に示すように、掘削の画像データは、バケット9が掘削方向に回転し、バケット9が土に接触してから離れるまでの動作を動画で示す。図7は、カメラ101が撮影した「ホイスト旋回」の画像データの一例を示す図である。図7に示すように、ホイスト旋回の画像データは、旋回体5の旋回により、バケット9の背景が連続的に変化し始めてから、変化が止まるまでの動作を動画で示す。
【0033】
図8は、カメラ101が撮影した「排土」の画像データの一例を示す図である。図8に示すように、排土の画像データは、バケット9が排土方向に回転して、バケット9が開き始めてから、バケット9から土が全て落ちるまでの動作を動画で示す。図9は、カメラ101が撮影した「空荷旋回」の画像データの一例を示す図である。図9に示すように、空荷旋回の画像データは、旋回体5の旋回により、バケット9の背景が連続的に変化し始めてから、変化が止まるまでの動作を動画で示す。ただし、空荷旋回の画像データでは、ホイスト旋回の画像データと比べて、バケット9の姿勢が異なる。
【0034】
分類モデル111は、図6に示すような掘削を示す画像データに対しては「掘削」の分類の出力値が高くなるように、学習済みである。分類モデル111は、図7に示すようなホイスト旋回を示す画像データに対しては「ホイスト旋回」の分類の出力値が高くなるように、学習済みである。分類モデル111は、図8に示すような排土を示す画像データに対しては「排土」の分類の出力値が高くなるように、学習済みである。分類モデル111は、図9に示すような空荷旋回を示す画像データに対しては「空荷旋回」の分類の出力値が高くなるように、学習済みである。
【0035】
ステップS103では、コンピュータ102は、作業車両1の作業の分類を決定する。コンピュータ102は、出力データD12が示す各分類の確率に基づいて、作業車両1の作業の分類を決定する。コンピュータ102は、最も高い確率を有する分類を、作業車両1の作業として決定する。これにより、コンピュータ102は、作業車両1が実行している作業を推定する。
【0036】
ステップS104では、コンピュータ102は、ステップS103で決定された分類での作業車両1の作業時間を記録する。例えば、作業車両1が掘削を行っているときには、コンピュータ102は、作業の分類を「掘削」に決定すると共に、掘削の作業時間を記録する。
【0037】
ステップS105では、コンピュータ102は、作業の分類及び作業時間を含む管理データを生成する。コンピュータ102は、管理データを記憶装置104に記録する。なお、上述したステップS101からS105の処理は、それぞれ作業車両1の作業中にリアルタイムに実行されてもよい。或いは、ステップS101からS105の処理は、作業車両1の作業終了後に実行されてもよい。
【0038】
以上説明した本実施形態に係る分類システム100では、作業機3による作業位置P1に向けて車両本体2に配置されたカメラ101から画像データが取得される。作業位置P1とカメラとの位置関係とは固定されている。従って、作業車両1の向きが変化しても、動画中の作業位置P1とカメラ101との位置関係は変化しない。そのため、判定精度の高い学習済みモデルを容易に構築することができる。それにより、人工知能を用いて作業車両1による作業を容易、且つ、精度良く判定することができる。
【0039】
分類システム100では、コンピュータ102は、作業車両1の車両本体2に取り付けられたカメラ101から作業車両1を撮影した画像データD11を取得して、作業車両1の作業を判定することができる。従って、特定のセンサなどの作業判定用の装備を備えていない作業車両1に対しても、カメラ101を取り付けることで、容易、且つ、精度良く作業を判定することができる。
【0040】
分類システム100では、作業車両1の画像から、作業の分類を決定すると共に、当該分類の作業時間が管理データとして記録される。従って、作業車両1の画像を時系列で撮影することで、作業車両1による作業のタイムスタディをコンピュータ102によって容易且つ自動で行うことができる。また、作業現場における複数の作業車両1の時系列の画像をそれぞれ撮影して、分類システム100によって管理データを生成することで、作業現場における複数の作業車両1による作業のタイムスタディをコンピュータ102によって容易且つ自動で行うことができる。
【0041】
次に、実施形態に係る分類モデル111の学習方法について説明する。図10は、分類モデル111の学習を行う学習システム200を示す図である。学習システム200は、上述したコンピュータ102と同様にプロセッサと記憶装置とを含むコンピュータによって構成される。
【0042】
学習システム200は、学習データ生成モジュール211と学習モジュール212とを含む。学習データ生成モジュール211は、作業車両1の画像データD21と作業データD22とから学習データD23を生成する。画像データD21は、上述した画像データD11と同様に、車両本体2に取り付けられたカメラ101から取得される。
【0043】
図11は、作業データD22の一例を示す図である。図11に示すように、作業データD22は、画像データD21中の画像における時刻と、当該時刻ごとに割り当てられた作業の分類とを含む。分類の割り当ては、人によって行われてもよい。
【0044】
学習システム200には、画像解析のための分類モデル111が用意されている。学習モジュール212は、学習データD23によって分類モデル111を学習させることで、分類モデル111のパラメータを最適化する。学習システム200は、最適化されたパラメータを学習済みパラメータD24として取得する。
【0045】
なお、分類モデル111の各種のパラメータの初期値は、テンプレートにより与えられてもよい。或いは、パラメータの初期値は、人間の入力により手動で与えられてもよい。学習システム200は、分類モデル111の再学習を行ってもよい。分類モデル111の再学習を行うときには、学習システム200は、再学習を行う対象となる分類モデル111の学習済みパラメータD24に基づいて、パラメータの初期値を用意してもよい。
【0046】
学習システム200は、上述した分類モデル111の学習を定期的に実行することで、学習済みパラメータD24を更新してもよい。学習システム200は、更新した学習済みパラメータD24を分類システム100のコンピュータ102に転送してもよい。コンピュータ102は、転送された学習済みパラメータD24によって、分類モデル111のパラメータを更新してもよい。
【0047】
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。
【0048】
分類システム100、及び/又は、学習システム200の構成が変更されてもよい。例えば、分類システム100は、複数のコンピュータを含んでもよい。上述した分類システム100による処理は、複数のコンピュータに分散して実行されてもよい。
【0049】
学習システム200は、複数のコンピュータを含んでもよい。上述した学習システム200による処理は、複数のコンピュータで分散して実行されてもよい。例えば、学習データの生成と、分類モデル111の学習とは、異なるコンピュータによって実行されてもよい。すなわち、学習データ生成モジュール211と学習モジュール212とは異なるコンピュータに実装されてもよい。
【0050】
コンピュータ102は、複数のプロセッサを含んでもよい。上述した処理の少なくとも一部は、CPUに限らず、GPU(Graphics Processing Unit)などの他のプロセッサによって実行されてもよい。上述した処理は、複数のプロセッサに分散して実行されてもよい。
【0051】
上記実施形態では、分類モデル111はニューラルネットワーク120を含む。しかし、分類モデル111は、ニューラルネットワークに限らず、例えば、サポートベクターマシンなど、画像解析を精度良く行えるモデルあってもよい。
【0052】
作業車両1は、油圧ショベルに限らず、ブルドーザ、ホイールローダ、グレーダー、或いはダンプトラックなどの他の車両であってもよい。分類システム100は、複数の作業車両の作業を判定してもよい。分類モデル111、学習済みパラメータD24、及び/又は、学習データD23は、作業車両1の種類ごとに用意されてもよい。或いは、分類モデル111、学習済みパラメータD24、及び/又は、学習データD23は、複数種類の作業車両1に共通であってもよい。その場合、分類モデル111は、作業車両1の作業と共に作業車両1の種類を推定してもよい。
【0053】
分類システム100は、カメラ101を複数有してもよい。複数のカメラ101は、複数の作業車両1の画像を撮影してもよい。コンピュータ102は、複数のカメラ101のそれぞれから、画像データD11を受信してもよい。カメラ101は、時系列の静止画像を取得してもよい。すなわち、画像データD11は、時系列の複数の静止画像を示すデータであってもよい。
【0054】
作業の分類の一部が変更、或いは省略されてもよい。或いは、作業の分類は、他の分類をさらに含んでもよい。例えば、作業の分類は、「積込」或いは「溝掘削」などの分類を含んでもよい。「積込」と「溝掘削」とでは、作業機3の動作は類似している。そのため、上述したセンサによる判定では、精度良く作業を判定することは困難である。しかし、作業機3の背景を含む画像データから分類モデル111によって作業を判定することで、精度良く作業を判定することができる。
【0055】
上述した処理の一部が省略、或いは変更されてもよい。例えば、作業時間を記録する処理が省略されてもよい。管理データを生成する処理が省略されてもよい。
【0056】
上述した分類モデル111は、学習データを用いて機械学習により学習したモデルに限らず、当該学習したモデルを利用して生成されたモデルであってもよい。例えば、分類モデル111は、学習済みモデルに新たなデータを用いて更に学習させることで、パラメータを変化させ、精度をさらに高めた別の学習済みモデル(派生モデル)であってもよい。或いは、分類モデル111は、学習済みモデルにデータの入出力を繰り返すことで得られる結果を基に学習させた別の学習済みモデル(蒸留モデル)であってもよい。
【産業上の利用可能性】
【0057】
本発明によれば、人工知能を用いて作業車両による作業を容易、且つ、精度良く判定することができる。
【符号の説明】
【0058】
2 車両本体
3 作業機
4 走行体
5 旋回体
8 アーム
9 バケット
100 分類システム
101 カメラ
103 プロセッサ
P1 作業位置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11