(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023086500
(43)【公開日】2023-06-22
(54)【発明の名称】施工管理システム及び施工管理方法
(51)【国際特許分類】
G06Q 50/08 20120101AFI20230615BHJP
【FI】
G06Q50/08
【審査請求】未請求
【請求項の数】18
【出願形態】OL
(21)【出願番号】P 2021201058
(22)【出願日】2021-12-10
(71)【出願人】
【識別番号】000001236
【氏名又は名称】株式会社小松製作所
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】川本 駿
(72)【発明者】
【氏名】蓮實 翼
(72)【発明者】
【氏名】平間 翔大
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049CC07
(57)【要約】
【課題】施工現場における人の位置を確認すること。
【解決手段】施工管理システムは、作業機械が稼働する施工現場の画像を示す画像データを取得する画像データ取得部と、施工現場の地形の3次元形状を示す地形データを記憶する地形データ記憶部と、画像における人を特定する人特定部と、画像における人の2次元位置を特定する2次元位置特定部と、2次元位置と地形データとに基づいて、施工現場における人の3次元位置を特定する3次元位置特定部と、を備える。
【選択図】
図6
【特許請求の範囲】
【請求項1】
作業機械が稼働する施工現場の画像を示す画像データを取得する画像データ取得部と、
前記施工現場の地形の3次元形状を示す地形データを記憶する地形データ記憶部と、
前記画像における人を特定する人特定部と、
前記画像における前記人の2次元位置を特定する2次元位置特定部と、
前記2次元位置と前記地形データとに基づいて、前記施工現場における前記人の3次元位置を特定する3次元位置特定部と、を備える、
施工管理システム。
【請求項2】
前記画像データ取得部は、前記施工現場を撮像するカメラから画像データを取得し、
前記3次元位置特定部は、前記カメラの位置と前記2次元位置と前記地形データとに基づいて、前記3次元位置を特定する、
請求項1に記載の施工管理システム。
【請求項3】
前記カメラの光学中心と前記人との間に透視投影面が規定され、
前記3次元位置特定部は、前記光学中心と前記透視投影面における前記人とを結ぶベクトルと、前記地形との交点に基づいて、前記3次元位置を特定する、
請求項2に記載の施工管理システム。
【請求項4】
前記ベクトルは、前記透視投影面における前記人の部位を通るように設定される、
請求項3に記載の施工管理システム。
【請求項5】
前記人の部位は、前記人の足元である、
請求項4に記載の施工管理システム。
【請求項6】
前記カメラは、移動体に配置される、
請求項2から請求項5のいずれか一項に記載の施工管理システム。
【請求項7】
前記移動体は、飛行体及び作業機械の少なくとも一方を含む、
請求項6に記載の施工管理システム。
【請求項8】
前記人特定部は、物体の特徴量を入力とし人を出力とする学習モデルに基づいて、前記人を特定する、
請求項1から請求項7のいずれか一項に記載の施工管理システム。
【請求項9】
前記3次元位置を表示装置に表示させる表示制御部を備える、
請求項1から請求項8のいずれか一項に記載の施工管理システム。
【請求項10】
作業機械が稼働する施工現場の画像を示す画像データを取得することと、
前記施工現場の地形の3次元形状を示す地形データを記憶することと、
前記画像における人を特定することと、
前記画像における前記人の2次元位置を特定することと、
前記2次元位置と前記地形データとに基づいて、前記施工現場における前記人の3次元位置を特定することと、を含む、
施工管理方法。
【請求項11】
前記画像データは、前記施工現場を撮像するカメラから取得され、
前記カメラの位置と前記2次元位置と前記地形データとに基づいて、前記3次元位置を特定する、
請求項10に記載の施工管理方法。
【請求項12】
前記カメラの光学中心と前記人との間に透視投影面が規定され、
前記光学中心と前記透視投影面における前記人とを結ぶベクトルと、前記地形との交点に基づいて、前記3次元位置を特定する、
請求項11に記載の施工管理方法。
【請求項13】
前記ベクトルは、前記透視投影面における前記人の部位を通るように設定される、
請求項12に記載の施工管理方法。
【請求項14】
前記人の部位は、前記人の足元である、
請求項13に記載の施工管理方法。
【請求項15】
前記カメラは、移動体に配置される、
請求項11から請求項14のいずれか一項に記載の施工管理方法。
【請求項16】
前記移動体は、飛行体及び作業機械の少なくとも一方を含む、
請求項15に記載の施工管理方法。
【請求項17】
物体の特徴量を入力とし人を出力とする学習モデルに基づいて、前記人を特定する、
請求項10から請求項16のいずれか一項に記載の施工管理方法。
【請求項18】
前記3次元位置を表示装置に表示させることを含む、
請求項10から請求項17のいずれか一項に記載の施工管理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、施工管理システム及び施工管理方法に関する。
【背景技術】
【0002】
施工管理システムに係る技術分野において、特許文献1に開示されているような施工管理システムが知られている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
施工現場に人が存在する場合がある。施工現場の施工効率の低下を抑制するためには、人の位置を確認できることが好ましい。
【0005】
本開示は、施工現場における人の位置を確認することを目的とする。
【課題を解決するための手段】
【0006】
本開示に従えば、作業機械が稼働する施工現場の画像を示す画像データを取得する画像データ取得部と、施工現場の地形の3次元形状を示す地形データを記憶する地形データ記憶部と、画像における人を特定する人特定部と、画像における人の2次元位置を特定する2次元位置特定部と、2次元位置と前記地形データとに基づいて、施工現場における人の3次元位置を特定する3次元位置特定部と、を備える、施工管理システムが提供される。
【発明の効果】
【0007】
本開示によれば、施工現場における人の位置を確認することができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、実施形態に係る施工管理システムを示す模式図である。
【
図2】
図2は、実施形態に係る飛行体を示す図である。
【
図3】
図3は、実施形態に係る施工管理システムを示す機能ブロック図である。
【
図4】
図4は、実施形態に係る施工管理方法を示すフローチャートである。
【
図5】
図5は、実施形態に係る人の特定方法を示す図である。
【
図6】
図6は、実施形態に係る人の3次元位置の特定方法を示す図である。
【
図7】
図7は、実施形態に係る人の3次元位置の利用形態を示す図である。
【
図8】
図8は、実施形態に係るコンピュータシステムを示すブロック図である。
【
図9】
図9は、他の実施形態に係る人の3次元位置の特定方法を示す図である。
【発明を実施するための形態】
【0009】
以下、本開示に係る実施形態について図面を参照しながら説明するが、本開示は実施形態に限定されない。以下で説明する実施形態の構成要素は適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
【0010】
[施工管理システム]
図1は、実施形態に係る施工管理システム1を示す模式図である。施工管理システム1は、施工現場2の施工を管理する。施工現場2において複数の作業機械20が稼働する。実施形態において、作業機械20は、油圧ショベル21、ブルドーザ22、及びクローラダンプ23を含む。施工現場2に人WMが存在する。人WMとして、施工現場2で作業する作業者が例示される。なお、人WMは、施工を管理する監督者でもよい。人WMは、見学者でもよい。
【0011】
図1に示すように、施工管理システム1は、管理装置3と、サーバ4と、情報端末5と、飛行体8とを備える。
【0012】
管理装置3は、施工現場2に配置されるコンピュータシステムを含む。管理装置3は、走行装置6に支持される。管理装置3は、走行装置6により施工現場2を走行することができる。走行装置6として、高所作業車、トラック、及び走行ロボットが例示される。
【0013】
サーバ4は、コンピュータシステムを含む。サーバ4は、施工現場2に配置されてもよいし、施工現場2の遠隔地に配置されてもよい。
【0014】
情報端末5は、施工現場2の遠隔地9に配置されるコンピュータシステムである。情報端末5として、パーソナルコンピュータ及びスマートフォンが例示される。
【0015】
管理装置3とサーバ4と情報端末5とは、通信システム10を介して通信する。通信システム10として、インターネット(internet)、ローカルエリアネットワーク(LAN:Local Area Network)、携帯電話通信網、及び衛星通信網が例示される。
【0016】
飛行体8は、施工現場2を飛行する。飛行体8として、ドローンのような無人航空機(UAV:Unmanned Aerial Vehicle)が例示される。実施形態において、飛行体8と管理装置3とは、ケーブル7により接続される。管理装置3は、電源又は発電機を含む。管理装置3は、ケーブル7を介して飛行体8に電力を供給することができる。
【0017】
[飛行体]
図2は、実施形態に係る飛行体8を示す図である。飛行体8には、3次元センサ11と、カメラ12と、位置センサ14と、姿勢センサ15とが搭載される。
【0018】
3次元センサ11は、施工現場2を検出する。3次元センサ11は、施工現場2の地形の3次元形状を示す3次元データを取得する。3次元センサ11の検出データは、施工現場2の3次元データを含む。3次元センサ11は、飛行体8に配置される。3次元センサ11は、施工現場2の上空から施工現場2を検出する。3次元センサ11として、レーザ光を射出することにより検出対象を検出するレーザセンサ(LIDAR:Light Detection and Ranging)が例示される。なお、3次元センサ11は、赤外光を射出することにより物体を検出する赤外線センサ又は電波を射出することにより物体を検出するレーダセンサ(RADAR:Radio Detection and Ranging)でもよい。なお、3次元センサ11は、ステレオカメラのような3次元カメラでもよい。
【0019】
カメラ12は、施工現場2を撮像する。カメラ12は、施工現場2の画像を示す画像データを取得する。カメラ12の撮像データは、施工現場2の画像データを含む。カメラ12は、飛行体8に配置される。カメラ12は、施工現場2の上空から施工現場2を撮像する。カメラ12は、単眼カメラのような2次元カメラである。カメラ12は、可視光カメラでもよいし、赤外線カメラでもよい。カメラ12により取得される画像データは、動画データでもよいし静止画データでもよい。また、3次元センサ11がステレオカメラである場合、ステレオカメラをカメラ12としてもよい。
【0020】
位置センサ14は、飛行体8の位置を検出する。位置センサ14は、全地球航法衛星システム(GNSS)を利用して飛行体8の位置を検出する。位置センサ14は、GNSS受信機(GNSSセンサ)を含み、飛行体8のグローバル座標系の位置を検出する。3次元センサ11及びカメラ12のそれぞれは、飛行体8に固定される。位置センサ14は、飛行体8の位置を検出することにより、3次元センサ11の位置及びカメラ12の位置を検出することができる。位置センサ14の検出データは、3次元センサ11の位置データ及びカメラ12の位置データを含む。
【0021】
姿勢センサ15は、飛行体8の姿勢を検出する。姿勢は、例えばロール角、ピッチ角、及びヨー角を含む。姿勢センサ15として、慣性計測装置(IMU:Inertial Measurement Unit)が例示される。3次元センサ11及びカメラ12のそれぞれは、飛行体8に固定される。姿勢センサ15は、飛行体8の姿勢を検出することにより、3次元センサ11の姿勢及びカメラ12の姿勢を検出することができる。姿勢センサ15の検出データは、3次元センサ11の姿勢データ及びカメラ12の姿勢データを含む。
【0022】
3次元センサ11の検出データ、カメラ12の撮像データ、位置センサ14の検出データ、及び姿勢センサ15の検出データのそれぞれは、ケーブル7を介して管理装置3に送信される。管理装置3に受信された3次元センサ11の検出データ、カメラ12の撮像データ、位置センサ14の検出データ、及び姿勢センサ15の検出データのそれぞれは、通信システム10を介してサーバ4に送信される。
【0023】
[サーバ]
図3は、実施形態に係る施工管理システム1を示す機能ブロック図である。
図3に示すように、施工管理システム1は、飛行体8と、施工現場2に配置される管理装置3と、サーバ4と、施工現場2の遠隔地9に配置される情報端末5とを有する。
【0024】
飛行体8は、3次元センサ11と、カメラ12と、位置センサ14と、姿勢センサ15とを有する。
【0025】
情報端末5は、表示制御部51と表示装置52とを有する。
【0026】
表示装置52は、表示データを表示する。遠隔地9の管理者は、表示装置52に表示された表示データを確認することができる。表示装置52として、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)のようなフラットパネルディスプレイが例示される。
【0027】
サーバ4は、3次元データ取得部41と、地形データ算出部42と、地形データ記憶部43と、画像データ取得部44と、人特定部45と、2次元位置特定部46と、3次元位置特定部47と、出力部48とを有する。
【0028】
3次元データ取得部41は、3次元センサ11の検出データを取得する。すなわち、3次元データ取得部41は、3次元センサ11から施工現場2の3次元データを取得する。
【0029】
地形データ算出部42は、3次元データ取得部41により取得された施工現場2の3次元データに基づいて、施工現場2の地形の3次元形状を示す地形データを算出する。地形データ算出部42は、3次元センサ11が施工現場2を検出したときの3次元センサ11の位置を位置センサ14から取得し、3次元センサ11が施工現場2を検出したときの3次元センサ11の姿勢を姿勢センサ15から取得する。施工現場2の3次元データは、複数の検出点からなる点群データを含む。施工現場2の3次元データは、3次元センサ11と検出対象に規定される複数の検出点のそれぞれとの相対距離及び相対位置を含む。地形データ算出部42は、3次元データ取得部41により取得された施工現場2の3次元データと、位置センサ14により検出された3次元センサ11の位置と、姿勢センサ15により検出された3次元センサ11の姿勢とに基づいて、例えば施工現場2に規定されたローカル座標系における地形データを算出することができる。
【0030】
地形データ記憶部43は、地形データ算出部42により算出された施工現場2の地形の3次元形状を示す地形データを記憶する。
【0031】
画像データ取得部44は、カメラ12の撮像データを取得する。すなわち、画像データ取得部44は、カメラ12から施工現場2の画像を示す画像データを取得する。カメラ12から取得される画像は、施工現場2の2次元画像である。
【0032】
人特定部45は、画像データ取得部44により取得された施工現場2の画像における人WMを特定する。人特定部45は、入力データをアルゴリズムにより解析して出力データを出力する人工知能(AI:Artificial Intelligence)を利用して人WMを特定する。人特定部45は、例えばニューラルネットワークを利用して人WMを特定する。
【0033】
2次元位置特定部46は、画像データ取得部44により取得された施工現場2の画像における人WMの2次元位置を特定する。
【0034】
3次元位置特定部47は、2次元位置特定部46により特定された施工現場2の画像における人WMの2次元位置と地形データ記憶部43に記憶されている施工現場2の地形データとに基づいて、施工現場2における人WMの3次元位置を特定する。実施形態において、3次元位置特定部47は、位置センサ14により検出されたカメラ12の位置と、2次元位置特定部46により特定された施工現場2の画像における人WMの2次元位置と、地形データ記憶部43に記憶されている施工現場2の地形データとに基づいて、施工現場2における人WMの3次元位置を特定する。
【0035】
出力部48は、3次元位置特定部47により特定された施工現場2における人WMの3次元位置を情報端末5に出力する。出力部48は、通信システム10を介して、施工現場2における人WMの3次元位置を情報端末5に送信する。
【0036】
出力部48は、施工現場2における人WMの3次元位置を表示装置52に表示させる制御指令を表示制御部51に送信する。表示制御部51は、出力部48から送信された制御指令に基づいて、施工現場2における人WMの3次元位置が表示装置52に表示されるように、表示装置52を制御する。
【0037】
[施工管理方法]
図4は、実施形態に係る施工管理方法を示すフローチャートである。実施形態において、3次元センサ11の検出範囲とカメラ12の撮像範囲の少なくとも一部とは重複する。また、3次元センサ11による施工現場2の検出処理とカメラ12による施工現場2の撮像処理とは同時に実施される。3次元センサ11とカメラ12とは、飛行体8に固定されている。3次元センサ11による検出処理とカメラ12による撮像処理とが実施される前に、3次元センサ11とカメラ12との相対位置、及び3次元センサ11とカメラ12との相対姿勢のそれぞれを求めるキャリブレーション処理が実施される。
【0038】
飛行体8が施工現場2の上空において飛行を開始すると、3次元センサ11による施工現場2の検出処理とカメラ12による施工現場2の撮像処理とが開始される。
【0039】
3次元データ取得部41は、3次元センサ11から施工現場2の3次元データを取得する(ステップS1)。
【0040】
地形データ算出部42は、ステップS1において取得された施工現場2の3次元データに基づいて、施工現場2の地形の3次元形状を示す地形データを算出する(ステップS2)。
【0041】
地形データ算出部42は、施工現場2の3次元データと、位置センサ14により検出された3次元センサ11の位置と、姿勢センサ15により検出された3次元センサ11の姿勢とに基づいて、例えば施工現場2に規定されたローカル座標系における地形データを算出する。
【0042】
地形データ記憶部43は、ステップS2において算出された施工現場2の地形の3次元形状を示す地形データを記憶する(ステップS3)。
【0043】
画像データ取得部44は、カメラ12から施工現場2の画像を示す画像データを取得する。画像データ取得部44が取得する画像は、施工現場2の2次元画像である(ステップS4)。
【0044】
人特定部45は、ステップS4において取得された施工現場2の画像における人WMを特定する。人特定部45は、人工知能(AI:Artificial Intelligence)を利用して人WMを特定する(ステップS5)。
【0045】
図5は、実施形態に係る人WMの特定方法を示す図である。人特定部45は、物体の特徴量を学習することにより生成された学習モデルを保有する。人特定部45は、学習モデルに基づいて、2次元画像から人WMを特定する。人特定部45は、例えば人の画像を含む学習画像を教師データとして機械学習することにより、物体の特徴量を入力とし人(人物の存否)を出力とする学習モデルを生成する。人特定部45は、ステップS4において取得された施工現場2の画像を示す画像データから抽出された物体の特徴量を学習モデルに入力して、2次元画像における人WMを特定する。
【0046】
ステップS5において人WMが特定された後、2次元位置特定部46は、2次元画像における人WMの2次元位置を特定する。実施形態において、2次元位置特定部46は、人WMの足元の2次元位置を特定する(ステップS6)。
【0047】
3次元位置特定部47は、ステップS6において特定された施工現場2の2次元画像における人WMの2次元位置と地形データ記憶部43に記憶されている施工現場2の地形データとに基づいて、施工現場2における人WMの3次元位置を特定する(ステップS7)。
【0048】
図6は、実施形態に係る人WMの3次元位置の特定方法を示す図である。人WMの3次元位置は、例えば、施工現場2の地形データにおける3次元位置である。
図6に示すように、カメラ12の光学中心と人WMとの間に透視投影面が規定される。上述のキャリブレーション処理により、3次元センサ11とカメラ12との相対位置、及び3次元センサ11とカメラ12との相対姿勢のそれぞれは、既知である。透視投影面(Perspective Projection Surface)は、透視投影モデルに基づいて仮想的に規定される画像面である。3次元位置特定部47は、カメラ12の光学中心と透視投影面における人WMとを結ぶベクトルと、地形との交点に基づいて、施工現場2における人WMの3次元位置を特定する。施工現場2の地形データは、複数の検出点からなる点群データを含む。3次元位置特定部47は、複数の検出点からベクトルとの内積が最大となる検出点を人WMの3次元位置として特定する。ベクトルは、透視投影面における人WMの足元を通るように設定される。3次元位置特定部47は、人WMの3次元位置として、人WMの足元の3次元位置を特定する。
【0049】
出力部48は、ステップS7において特定された人WMの3次元位置を、通信システム10を介して情報端末5に送信する。出力部48は、施工現場2における人WMの3次元位置を表示装置52に表示させる制御指令を表示制御部51に送信する。表示制御部51は、出力部48から送信された制御指令に基づいて、施工現場2における人WMの3次元位置を表示装置52に表示させる(ステップS8)。
【0050】
[人の3次元位置の利用形態]
図7は、実施形態に係る人WMの3次元位置の利用形態を示す図である。情報端末5は、人WMの3次元位置に基づいて、施工現場2の状況を認識することができる。情報端末5は、人WMの3次元位置に基づいて、作業者の動線を解析して、例えば作業効率の改善を図ることができる。情報端末5は、人WMの3次元位置に基づいて、作業効率が高い作業手順を提案することができる。情報端末5は、人WMの3次元位置に基づいて、人WMに警告を通知することができる。情報端末5は、人WMの3次元位置に基づいて、例えば作業者の安全が確保されるように、作業者が所持する情報端末に警告を通知することができる。
【0051】
[コンピュータシステム]
図8は、実施形態に係るコンピュータシステム1000を示すブロック図である。上述のサーバ4は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPU(Central Processing Unit)のようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。上述のサーバ4の機能は、コンピュータプログラムとしてストレージ1003に記憶されている。プロセッサ1001は、コンピュータプログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、コンピュータプログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
【0052】
コンピュータプログラム又はコンピュータシステム1000は、上述の実施形態に従って、作業機械20が稼働する施工現場2の画像を示す画像データを取得することと、施工現場2の地形の3次元形状を示す地形データを記憶することと、画像における人WMを特定することと、画像における人WMの2次元位置を特定することと、2次元位置と地形データとに基づいて、施工現場2における人WMの3次元位置を特定することと、を実行することができる。
【0053】
[効果]
以上説明したように、実施形態によれば、サーバ4は、施工現場2における人WMの3次元位置を特定することができる。これにより、例えば管理者は、施工現場2における人WMの3次元位置を確認することができる。
【0054】
3次元センサ11の検出データからのみでは人WMを特定することが困難な可能性がある。カメラ12により取得された2次元画像から人WMを特定することは高精度に実施可能である。実施形態においては、3次元センサ11の検出データから算出される施工現場2の地形と、カメラ12の撮像データから特定される人WMの2次元位置とを組み合わせることにより、人WMの3次元位置が高精度に特定される。
【0055】
3次元位置特定部47は、位置センサ14により検出されるカメラ12の位置と、2次元画像における人WMの2次元位置と、施工現場2の地形データとに基づいて、人WMの3次元位置を特定することができる。
【0056】
透視投影面が規定されることにより、3次元位置特定部47は、カメラ12の光学中心と透視投影面における人WMとを結ぶベクトルと、地形との交点に基づいて、人WMの3次元位置を特定することができる。
【0057】
人WMの足元の位置が特定されることにより、人WMと地形との関係が高精度に特定される。
【0058】
カメラ12が移動体である飛行体8に配置されることにより、施工現場2が広範囲に亘って撮像される。3次元センサ11が移動体である飛行体8に配置されることにより、施工現場2の地形が広範囲に亘って検出される。
【0059】
人特定部45は、人工知能を利用して2次元画像から人WMを高精度に特定することができる。
【0060】
特定された人WMの3次元位置が表示装置52に表示されることにより、
図7を参照して説明したように、作業効率の低下の抑制及び施工現場2の労働環境の低下の抑制が図られる。
【0061】
[その他の実施形態]
上述の実施形態において、飛行体8は、ケーブル7に接続される有線飛行体であることとした。飛行体8は、ケーブル7に接続されない無線飛行体でもよい。
【0062】
上述の実施形態において、2次元位置特定部46は、人WMの足元の2次元位置を特定することとした。2次元位置特定部46は、人WMの頭部の2次元位置を特定してもよいし、人WMの任意の部位の2次元位置を特定してもよいし、人WMに装着された物品の2次元位置を特定してもよい。
【0063】
上述の実施形態において、位置センサ14を利用して飛行体8の位置を検出し、姿勢センサ15を利用して飛行体8の姿勢を検出することとした。SLAM(Simultaneous Localization and Mapping)を利用して飛行体8の位置及び姿勢を検出してもよい。地磁気又は気圧計を用いて飛行体8の位置及び姿勢が検出されてもよい。
【0064】
上述の実施形態において、人特定部45は、人工知能を利用せずに、例えばパターンマッチング法に基づいて人WMを特定してもよい。人特定部45は、人WMを示すテンプレートと施工現場2の画像データとを照合することにより、人WMを特定することができる。人特定部45は、赤外線カメラにより検出される人WMの熱量に基づいて人WMを特定してもよい。
【0065】
上述の実施形態において、管理装置3は、走行装置6に支持され、施工現場2を走行することができることとした。管理装置3は、作業機械20に搭載されてもよいし、施工現場2の所定の位置に設置されてもよい。
【0066】
上述の実施形態において、情報端末5は、施工現場2の遠隔地9に配置されなくてもよい。情報端末5は、例えば作業機械20に搭載されてもよい。
【0067】
上述の実施形態において、サーバ4の機能が管理装置3に設けられてもよいし、情報端末5に設けられてもよいし、飛行体8に搭載されたコンピュータシステムに設けられてもよい。例えば、3次元データ取得部41、地形データ算出部42、地形データ記憶部43、画像データ取得部44、人特定部45、2次元位置特定部46、3次元位置特定部47、及び出力部48の少なくとも一つの機能が、管理装置3に設けられてもよいし、情報端末5に設けられてもよいし、飛行体8に搭載されたコンピュータシステムに設けられてもよい。
【0068】
上述の実施形態において、3次元データ取得部41、地形データ算出部42、地形データ記憶部43、画像データ取得部44、人特定部45、2次元位置特定部46、3次元位置特定部47、及び出力部48のそれぞれが、別々のハードウエアにより構成されてもよい。
【0069】
上述の実施形態において、3次元センサ11及びカメラ12の少なくとも一方は、飛行体8に配置されなくてもよい。3次元センサ11及びカメラ12の少なくとも一方は、例えば作業機械20に配置されてもよい。
【0070】
図9は、他の実施形態に係る人WMの3次元位置の特定方法を示す図である。
図9に示すように、カメラ12は、作業機械20に搭載される。3次元位置特定部47は、作業機械20に搭載されたカメラ12の光学中心と透視投影面における人WMとを結ぶベクトルと、地形との交点に基づいて、施工現場2における人WMの3次元位置を特定してもよい。
【0071】
また、3次元センサ11及びカメラ12の少なくとも一方は、飛行体8及び作業機械20とは別の移動体に配置されてもよい。また、3次元センサ11及びカメラ12の少なくとも一方は、施工現場2に存在する構造物に配置されてもよい。また、3次元センサ11が施工現場2に複数設置され、施工現場2の地形が広範囲に亘って検出されてもよい。カメラ12が施工現場2に複数設置され、施工現場2が広範囲に亘って撮像されてもよい。
【0072】
上述の実施形態において、3次元センサ11による検出処理とカメラ12による撮像処理とが同時に実施されることとした。3次元センサ11による検出処理が実施され、施工現場2の地形データが地形データ記憶部43に記憶された後、カメラ12による施工現場2の撮像処理が実施されてもよい。施工現場2を検出するときの3次元センサ11の位置及び姿勢が検出され、施工現場2を撮像するときのカメラ12の位置及び姿勢が検出されることにより、3次元位置特定部47は、人WMの2次元位置と地形データとに基づいて、施工現場2における人WMの3次元位置を特定することができる。
【0073】
上述の実施形態において、作業機械20は、油圧ショベル21、ブルドーザ22、及びクローラダンプ23とは別の作業機械でもよい。作業機械20は、例えばホイールローダを含んでもよい。
【符号の説明】
【0074】
1…施工管理システム、2…施工現場、3…管理装置、4…サーバ(データ処理装置)、5…情報端末、6…走行装置、7…ケーブル、8…飛行体、9…遠隔地、10…通信システム、11…3次元センサ、12…カメラ、14…位置センサ、15…姿勢センサ、20…作業機械、21…油圧ショベル、22…ブルドーザ、23…クローラダンプ、41…3次元データ取得部、42…地形データ算出部、43…地形データ記憶部、44…画像データ取得部、45…人特定部、46…2次元位置特定部、47…3次元位置特定部、48…出力部、51…表示制御部、52…表示装置、1000…コンピュータシステム、1001…プロセッサ、1002…メインメモリ、1003…ストレージ、1004…インターフェース、WM…人。