(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024159126
(43)【公開日】2024-11-08
(54)【発明の名称】作業機械に対して所定の作業中の人の動作を推定するためのシステム及び方法
(51)【国際特許分類】
E02F 9/24 20060101AFI20241031BHJP
A61B 5/11 20060101ALI20241031BHJP
A61B 5/107 20060101ALI20241031BHJP
【FI】
E02F9/24 B
A61B5/11 230
A61B5/11 200
A61B5/107 300
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2023074914
(22)【出願日】2023-04-28
(71)【出願人】
【識別番号】000001236
【氏名又は名称】株式会社小松製作所
(71)【出願人】
【識別番号】301021533
【氏名又は名称】国立研究開発法人産業技術総合研究所
(74)【代理人】
【識別番号】110000202
【氏名又は名称】弁理士法人新樹グローバル・アイピー
(72)【発明者】
【氏名】川口 紗奈
(72)【発明者】
【氏名】古谷 健
(72)【発明者】
【氏名】和田 侑加
(72)【発明者】
【氏名】小林 優樹
(72)【発明者】
【氏名】松本 潤
(72)【発明者】
【氏名】中田 和志
(72)【発明者】
【氏名】辻本 直樹
(72)【発明者】
【氏名】丸山 翼
(72)【発明者】
【氏名】多田 充徳
(72)【発明者】
【氏名】遠藤 維
【テーマコード(参考)】
2D015
4C038
【Fターム(参考)】
2D015GA03
2D015GB06
4C038VA04
4C038VB11
4C038VB14
4C038VB35
(57)【要約】
【課題】作業機械に対して所定の作業中の人の動作を容易、且つ、精度よく推定する。
【解決手段】システムは、データベースとプロセッサとを備える。データベースは、基準モーションデータを含む。基準モーションデータは、第1作業機械に対して所定の作業中の第1の人の動作を示す。基準モーションデータには、第1作業機械の拘束条件を示す第1機械データと、第1の人の拘束条件を示す第1人データとが割り当てられている。プロセッサは、第1作業機械と異なる第2作業機械の拘束条件を示す第2機械データを取得する。プロセッサは、第1の人と異なる第2の人の拘束条件を示す第2人データを取得する。プロセッサは、第2機械データと第2人データとに基づいて、基準モーションデータを参照して、第2作業機械に対して所定の作業中の第2の人の動作を推定する。プロセッサは、第2作業機械に対して所定の作業中の第2の人の動作を示す推定モーションデータを生成する。
【選択図】
図6
【特許請求の範囲】
【請求項1】
作業機械に対して所定の作業中の人の動作を推定するためのシステムであって、前記作業機械と前記人とのそれぞれは、前記動作を規定する拘束条件を有し、
第1作業機械に対して所定の作業中の第1の人の動作を示す基準モーションデータを含み、前記基準モーションデータには、前記第1作業機械の前記拘束条件を示す第1機械データと、前記第1の人の前記拘束条件を示す第1人データとが割り当てられているデータベースと、
プロセッサと、
を備え、
前記プロセッサは、
前記第1作業機械と異なる第2作業機械の前記拘束条件を示す第2機械データを取得し、
前記第1の人と異なる第2の人の前記拘束条件を示す第2人データを取得し、
前記第2機械データと前記第2人データとに基づいて、前記基準モーションデータを参照して、前記第2作業機械に対して前記所定の作業中の前記第2の人の動作を推定し、
前記第2作業機械に対して前記所定の作業中の前記第2の人の動作を示す推定モーションデータを生成する、
システム。
【請求項2】
前記所定の作業は、前記作業機械への乗り込みであり、
前記作業機械は、手すり、及び/又は、ステップを含み、
前記拘束条件は、前記手すり、及び/又は、前記ステップの位置を示す、
請求項1に記載のシステム。
【請求項3】
前記所定の作業は、前記作業機械の整備であり、
前記作業機械は、所定の整備箇所を含み、
前記拘束条件は、前記所定の整備箇所の位置を示す、
請求項1に記載のシステム。
【請求項4】
前記所定の作業は、前記作業機械の運転操作であり、
前記拘束条件は、前記作業機械のオペレータ用のシートの位置、及び/又は、前記オペレータによって操作される操作部材の位置を示す、
請求項1に記載のシステム。
【請求項5】
前記拘束条件は、前記人の身長、及び/又は、体重を含む、
請求項1に記載のシステム。
【請求項6】
ディスプレイをさらに備え、
前記プロセッサは、前記推定モーションデータに基づいて、前記第2の人の動作をアニメーションで前記ディスプレイに表示する、
請求項1に記載のシステム。
【請求項7】
前記プロセッサは、前記推定モーションデータに基づいて、前記第2の人の動作を評価する、
請求項6に記載のシステム。
【請求項8】
前記プロセッサは、前記推定モーションデータに従ってデジタルヒューマンを動作させることによって前記第2の人の動作を評価する、
請求項7に記載のシステム。
【請求項9】
前記プロセッサは、前記デジタルヒューマンの手、又は、足が、前記第2作業機械の所定部分に接触しているかによって、前記第2の人の動作を評価する、
請求項8に記載のシステム。
【請求項10】
前記プロセッサは、前記デジタルヒューマンが、前記第2作業機械に衝突していないかによって、前記第2の人の動作を評価する、
請求項8に記載のシステム。
【請求項11】
前記プロセッサは、前記デジタルヒューマンの関節の角度が、所定の可動範囲内であるかによって、前記第2の人の動作を評価する、
請求項8に記載のシステム。
【請求項12】
作業機械に対して所定の作業中の人の動作を推定するためにコンピュータによって実行される方法であって、前記作業機械と前記人とのそれぞれは、前記動作を規定する拘束条件を有し、
第1作業機械に対して所定の作業中の第1の人の動作を示す基準モーションデータを取得し、前記基準モーションデータには、前記第1作業機械の前記拘束条件を示す第1機械データと、前記第1の人の前記拘束条件を示す第1人データとが割り当てられており、
前記第1作業機械と異なる第2作業機械の前記拘束条件を示す第2機械データを取得し、
前記第1の人と異なる第2の人の前記拘束条件を示す第2人データを取得し、
前記第2機械データと前記第2人データとに基づいて、前記基準モーションデータを参照して、前記第2作業機械に対して前記所定の作業中の前記第2の人の動作を推定し、
前記第2作業機械に対して前記所定の作業中の前記第2の人の動作を示す推定モーションデータを生成すること、
を備える方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、作業機械に対して所定の作業中の人の動作を推定するためのシステム及び方法に関する。
【背景技術】
【0002】
作業機械では、オペレータが、昇降、或いは整備などの様々な作業を行う。作業機械は、一般的な乗用車と比べて、大型であるため、或いは複雑な構造を有するため、これらの作業を行うことは、オペレータにとって容易ではない。例えば、作業機械では、キャブが高い位置に配置されている。そのため、例えば特許文献1に示されるように、作業機械には、オペレータが昇降するための手すりとステップとが設けられている。オペレータは、手すりを握り、ステップに足をかけることで、キャブまで、よじ登る。
【0003】
或いは、作業機械において、給油、フィルダー交換などの整備を行う場合、オペレータは、作業機械の側面カバー、或いは天面カバーを開くことで、作業機械の内部の整備箇所にアクセスする。この場合も、オペレータは、ステップに足をかけるなどして、整備箇所まで、よじ登る。或いは、整備箇所が地面からアクセス可能であっても、手が届きにくい位置にあることで、作業が容易ではない。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
作業機械は、上記のような作業中のオペレータの疲労低減、或いは作業性を向上させるように、設計されることが望ましい。そのため、作業機械におけるオペレータの作業中の動作を、精度よく推定することが望まれる。しかし、作業機械には様々な形状、或いは大きさのものがあり、同じ作業であっても、それらのそれぞれに対して、オペレータの作業中の動作を精度よく推定することは容易ではない。また、同じ作業機械であっても、設計者が、複数の設計候補を比較することで、最適な設計を選択することがある。このような場合、互いに異なる複数の設計候補のそれぞれに対して、オペレータの作業中の動作を推定することは煩雑であり、容易ではない。本開示の目的は、作業機械に対して所定の作業中の人の動作を容易、且つ、精度よく推定することにある。
【課題を解決するための手段】
【0006】
本開示の一態様に係るシステムは、作業機械に対して所定の作業中の人の動作を推定するためのシステムである。作業機械と人とのそれぞれは、動作を規定する拘束条件を有する。当該システムは、データベースとプロセッサとを備える。データベースは、基準モーションデータを含む。基準モーションデータは、第1作業機械に対して所定の作業中の第1の人の動作を示す。基準モーションデータには、第1作業機械の拘束条件を示す第1機械データと、第1の人の拘束条件を示す第1人データとが割り当てられている。プロセッサは、第1作業機械と異なる第2作業機械の拘束条件を示す第2機械データを取得する。プロセッサは、第1の人と異なる第2の人の拘束条件を示す第2人データを取得する。プロセッサは、第2機械データと第2人データとに基づいて、基準モーションデータを参照して、第2作業機械に対して所定の作業中の第2の人の動作を推定する。プロセッサは、第2作業機械に対して所定の作業中の第2の人の動作を示す推定モーションデータを生成する。
【0007】
本開示の他の態様に係る方法は、作業機械に対して所定の作業中の人の動作を推定するためにコンピュータによって実行される方法である。作業機械と人とのそれぞれは、動作を規定する拘束条件を有する。当該方法は、第1作業機械に対して所定の作業中の第1の人の動作を示す基準モーションデータを取得することを備える。基準モーションデータには、第1作業機械の拘束条件を示す第1機械データと、第1の人の拘束条件を示す第1人データとが割り当てられている。当該方法は、第1作業機械と異なる第2作業機械の拘束条件を示す第2機械データと、第1の人と異なる第2の人の拘束条件を示す第2人データとの少なくとも一方を取得し、第2機械データ、及び/又は、第2人データに基づいて、基準モーションデータを参照して、第2作業機械に対して所定の作業中の第2の人の動作を推定し、第2作業機械に対して所定の作業中の第2の人の動作を示す推定モーションデータを生成すること、を備える。
【発明の効果】
【0008】
本開示によれば、第1作業機械に対して所定の作業中の第1の人の動作を示す基準モーションデータが予め取得されて、データベースに格納されている。そして、基準モーションデータを参照することで、第2作業機械に対して所定の作業中の第2の人の動作を示す推定モーションデータが生成される。そのため、第1作業機械、及び、第1の人と拘束条件の異なる第2作業機械、及び、第2の人に対して、所定の作業中の動作を容易、且つ、精度よく推定することができる。
【図面の簡単な説明】
【0009】
【
図1】実施形態に係る第1作業機械の一例を示す斜視図である。
【
図2】第1作業機械のキャブ内を示す上面図である。
【
図3】実施形態に係る動作推定・負担評価システムの構成を示すブロック図である。
【
図4】コンピュータによって実行される動作推定処理、及び、負担評価処理を示すブロック図である。
【
図6】基準モーションデータの一例を示す図である。
【
図7】基準モーションデータの一例を示す図である。
【
図8】基準モーションデータの第1の人の各部の定義の一例を示す図である。
【
図9】推定モーションデータの一例を示す図である。
【
図10】基準モーションデータと推定モーションデータとの人の姿勢の違いを示す図である。
【
図11】推定モーションデータの一例を示す図である。
【
図12】負担評価処理を示すフローチャートである。
【
図16】所定の作業のさらに他の例を示す図である。
【発明を実施するための形態】
【0010】
以下、実施形態に係る動作推定・負担評価システムについて、図面を参照しながら説明する。本実施形態に係る動作推定・負担評価システムは、作業機械に対して所定の作業中の人の動作を推定する。
図1は、実施形態に係る作業機械の一例として、第1作業機械1Aを示す斜視図である。第1作業機械1Aは、例えば、油圧ショベルである。
【0011】
図1に示すように、第1作業機械1Aは、車体2と、作業機3と、走行体4とを含む。車体2は、走行体4に対して旋回可能に支持されている。車体2は、動力室5とキャブ6とを含む。動力室5内には、動力ユニット7が配置されている。動力ユニット7は、例えばエンジンと油圧ポンプとを含む。動力ユニット7は、電動モータを含んでもよい。動力室5は、側面カバー51と天面カバー52とを含む。側面カバー51は、開閉可能に車体に取り付けられている。天面カバー52は、開閉可能、或いは着脱可能に車体に取り付けられている。側面カバー51、或いは天面カバー52が開かれることで、動力室5内の動力ユニット7へのアクセスが可能となる。
【0012】
作業機3は、車体2に取り付けられている。第1作業機械1Aは、作業機3を動作させることで、掘削等の作業を行う。作業機3は、ブーム11と、アーム12と、バケット13とを含む。ブーム11にはブームシリンダ14が取り付けられている。アーム12にはアームシリンダ15が取り付けられている。バケット13にはバケットシリンダ16が取り付けられている。これらのシリンダ14-16が伸縮することで、作業機3が動作する。
【0013】
走行体4は、履帯17,18を含む。履帯17,18が駆動されることで、第1作業機械1Aは走行する。履帯17には、ステップ21が取り付けられている。ステップ21は、キャブ6の下方に配置されている。キャブ6には、手すり22が取り付けられている。第1作業機械1Aのオペレータは、ステップ21に足をかけ、手すり22を握りながら、地面上からキャブ6内に乗り込む。
【0014】
図2は、キャブ6内を示す上面図である。
図2に示すように、キャブ6内には、オペレータ用のシート23と、オペレータによって操作される操作部材24とが配置されている。シート23の側方には、アームレスト25,26が配置されている。操作部材24は、操作レバー27,28とペダル29とを含む。オペレータは、操作部材24を操作することで、作業機3を動作させる。オペレータは、操作部材24を操作することで、第1作業機械1Aを走行させる。
【0015】
図3は、実施形態に係る動作推定・負担評価システム100の構成を示すブロック図である。動作推定・負担評価システム100は、コンピュータ31と、入力装置32と、出力装置33と、ディスプレイ34とを含む。コンピュータ31は、プロセッサ35と、メモリ36と、記憶装置37とを含む。プロセッサ35は、例えばCPU(Central Processing Unit)である。メモリ36は、RAM(Random Access Memory)及びROM(Read Only Memory)を含む。
【0016】
記憶装置37は、HDD(Hard Disk Drive)、或いはSSD(Solid State Drive)などのストレージを含む。記憶装置37は、動作推定プログラム41と負担評価プログラム42とを記憶している。プロセッサ35は、動作推定プログラム41に従い、第1作業機械1Aに対して所定の作業中の人の動作を推定するための処理(以下、動作推定処理と呼ぶ)を実行する。プロセッサ35は、負担評価プログラム42に従い、第1作業機械1Aに対して所定の作業中の人への身体的な負担を評価するための処理(以下、負担評価処理と呼ぶ)を実行する。
【0017】
入力装置32は、コンピュータ31にデータを入力する。入力装置32は、例えば通信ネットワークを介して、コンピュータ31にデータを入力する。或いは、入力装置32は、記録媒体を介して、コンピュータ31にデータを入力してもよい。或いは、入力装置32は、マウスなどのポインティングデバイス、キーボード、タッチスクリーンなどの装置を介して、コンピュータ31にデータを入力してもよい。
【0018】
出力装置33は、コンピュータ31からデータを出力する。出力装置33は、例えば通信ネットワークを介して、他のコンピュータにデータを出力する。或いは、出力装置33は、記録媒体を介して、データを出力してもよい。ディスプレイ34は、コンピュータ31からの画像信号に応じた画像を表示する。
【0019】
次に、コンピュータ31によって実行される動作推定処理と負担評価処理とについて説明する。
図4は、コンピュータ31によって実行される動作推定処理、及び、負担評価処理を示すブロック図である。
図4に示すように、コンピュータ31は、動作推定部44と負担評価部45とを含む。プロセッサ35は、上述した動作推定プログラム41を実行することで、動作推定部44として機能する。動作推定部44は、第1作業機械1Aに対して所定の作業中の人の動作を推定する。以下、動作推定部44によって実行される動作推定処理について説明する。
【0020】
図5は、動作推定処理を示すフローチャートである。
図5に示すように。ステップS101で、動作推定部44は、基準モーションデータを取得する。動作推定部は、
図3に示すデータベース43から基準モーションデータを取得する。データベース43は、記憶装置37に保存されている。
【0021】
図6及び
図7A~
図7Eは、基準モーションデータ8Aの一例を示す図である。基準モーションデータ8Aは、第1作業機械1Aと第1の人9Aとに対して予め実測されたデータである。基準モーションデータ8Aは、予め実測された第1作業機械1Aに対して所定の作業中の第1の人9Aの動作と、動作中の第1の人9Aへの反力とを示す。基準モーションデータ8Aは、データ化された第1作業機械1Aと第1の人9Aとを含む。基準モーションデータ8Aは、実際の第1作業機械1Aをコンピュータ31上で再現するモデルと、実際の第1の人9Aをコンピュータ31上で再現するデジタルヒューマンとによって示される。なお、基準モーションデータ8Aは、複数の人の動作を組み合わせたものであってもよい。
【0022】
図7A~
図7Eに示すように、基準モーションデータ8Aは、第1作業機械1Aに乗り込むときの第1の人9Aの動作をアニメーションで示す。
図7Aに示すように、第1の人9Aは、地面上から、手すり22を握り、ステップ21に足をかける。次に、
図7B及び
図7Cに示すように、第1の人9Aは、ステップ21から履帯17上に乗リ上がる。そして、
図7D及び
図7Eに示すように、第1の人9Aは、履帯17上からキャブ6内に入る。なお、
図7A~
図7Eでは、アニメーションで示される第1の人9Aの動的な連続した動作の一部のみが画像で示されている。
【0023】
基準モーションデータ8Aに含まれる第1の人9Aの動作は、上記のような動作中に変化する第1の人9Aの各部の位置及び姿勢を示す。
図8に示すように、第1の人9Aを示すデジタルヒューマンの各部は、例えば、骨盤71、体幹72、上腕73,74、前腕75,76、手77,78、大腿79,80、下腿81,82、足83,84、頭85、及びこれらの間の関節86-98を含む。第1の人9Aの姿勢は、上述した各部71-85の間の角度で示される。
【0024】
基準モーションデータ8Aに含まれる第1の人9Aへの反力は、上記の動作中に第1の人9Aが受ける負荷の大きさを示す。例えば、第1の人9Aへの反力は、第1の人9Aの足が受ける負荷と、第1の人9Aの手が受ける負荷を含む。基準モーションデータ8Aは、予め第1作業機械1Aに対して所定の動作中の実際の第1の人9Aの動作と反力とをセンサによって検出することで取得され、データベース43に保存されている。
【0025】
また、所定の作業中の人の動作は、作業機械と人とのそれぞれが有する拘束条件によって規定される。例えば、所定の作業が、作業機械への乗り込みである場合には、作業機械における拘束条件は、手すり、及び、ステップの位置を含む。すなわち、作業機械に乗り込むときの人の動作と反力とは、手すり、及び、ステップの位置に応じて変化する。人における拘束条件は、人の各部の寸法、及び、体重を含む。すなわち、作業機械に乗り込むときの人の動作と反力とは、人の各部の寸法、及び、体重に応じて変化する。
【0026】
基準モーションデータ8Aには、第1作業機械1Aの拘束条件を示す第1機械データと、第1の人9Aの拘束条件を示す第1人データとが割り当てられている。
図6に示す例では、第1機械データは、第1作業機械1Aの手すり22、及び、ステップ21の位置を含む。第1の人9Aの拘束条件は、第1の人9Aの身長、及び、体重を含む。第1の人9Aの各部の寸法は、身長に応じた所定の割合で、それぞれ決定される。或いは、第1人データは、第1の人9Aの各部の寸法を含んでもよい。
【0027】
ステップS102では、動作推定部44は、推定対象データを取得する。例えば、推定対象データは、入力装置32を介してコンピュータ31に入力される。推定対象データは、動作推定処理の対象となる作業機械、及び、人の拘束条件を示す。例えば、推定対象データは、
図9に示す第2作業機械1B、及び、第2の人9Bの拘束条件を示す。推定対象データは、第2機械データと第2人データとを含む。
【0028】
第2機械データは、第2作業機械1Bの拘束条件を示す。所定の作業が、作業機械への乗り込みである場合には、第2機械データは、第2作業機械1Bのステップ21、及び、手すり22の位置を含む。第2作業機械1Bは、第1作業機械1Aと異なる作業機械であり、第2機械データは、第1機械データと異なる値を有する。例えば、第2作業機械1Bは、第1作業機械1Aと同じ油圧ショベルであるが、異なる大きさ、及び/又は、形状を有する。その場合、第2機械データが示す手すり22、及び、ステップ21の位置は、第1機械データが示す手すり22、及び、ステップ21の位置と異なる。
【0029】
第2人データは、第2の人9Bの身長、及び、体重を含む。第2の人9Bは、第1の人9Aと異なる体形を有しており、第2人データは、第1人データと異なる値を有する。すなわち、第2人データが示す第2の人9Bの身長、及び、体重は、第1人データが示す第1の人9Aの身長、及び、体重と異なる。そのため、動作推定部44は、第2作業機械1Bとして様々なタイプの作業機械に対して、第2の人9Bとして様々な体形の人の動作を推定することができる。
【0030】
ステップS103では、動作推定部44は、動作シミュレーションを実行する。すなわち、動作推定部44は、第2機械データと第2人データとに基づいて、基準モーションデータ8Aを参照して、第2作業機械1Bに対して所定の作業中の第2の人9Bの動作を推定する。
【0031】
図4に示すように、動作推定部44は、リターゲティングモジュール46と逆運動学モジュール47とを含む。リターゲティングモジュール46は、第1の人9Aと第2の人9Bとの身長の違い、第1作業機械1Aと第2作業機械1Bとの手すり22及びステップ21の位置の違いとに基づいて、第1作業機械1Aでの第1の人9Aの動作を、第2作業機械1Bでの第2の人9Bの動作に変換する。逆運動学モジュール47は、逆運動学により、第2の人9Bの動作から、第2の人9Bの関節の位置と関節の角度とを算出する。例えば、所定の作業が第1作業機械1Aへの乗り込みである場合には、骨盤に対する手又は足の関節の位置が、第2の人9Bの関節の位置として算出される。例えば
図10に示すように、キャブ6に乗り込むときの第1の人9Aの姿勢θ1は、第2の人9Bの姿勢θ2と異なる。動作推定部44は、このように第1の人9Aと姿勢の異なる第2の人9Bの動作を演算する。
【0032】
ステップS104では、推定モーションデータ8Bを出力する。動作推定部44は、第2作業機械1Bに対して所定の作業中の第2の人9Bの動作と、第2の人9Bへの反力を示す推定モーションデータ8Bを生成して出力する。
図11A~
図11Eに示すように、推定モーションデータ8Bは、第2作業機械1Bをコンピュータ31上で表現するモデルと、第2の人9Bをコンピュータ31上で表現するデジタルヒューマンによって示される。所定の作業が、第1作業機械1Aへの乗り込みである場合には、推定モーションデータ8Bは、第2作業機械1Bに乗り込むときの第2の人9Bの動作を示す。動作推定部44は、推定モーションデータ8Bに基づいて、第2の人9Bの動作をアニメーションでディスプレイ34に表示する。なお、
図11A~
図11Eでは、アニメーションで示される第2の人9Bの動的な連続した動作の一部のみが画像で示されている。
【0033】
ステップS105では、動作推定部44は、推定モーションデータ8Bに基づいて、第2の人9Bの動作を評価する。動作推定部44は、推定モーションデータ8Bに従って、第2の人9Bを示すデジタルヒューマンを動作させることによって、第2の人9Bの動作を評価する。動作推定部44は、評価の結果をディスプレイ34に表示する。
【0034】
例えば、動作推定部44は、デジタルヒューマンの手、又は、足が、第2作業機械1Bの所定部分に接触しているかによって、第2の人9Bの動作を評価する。所定部分は、例えば、手すり22とステップ21である。動作推定部44は、デジタルヒューマンの手、又は、足が、第2作業機械1Bの所定部分に接触している場合には、動作が適切と評価する。動作推定部44は、デジタルヒューマンの手、又は、足が、第2作業機械1Bの所定部分に接触していない場合には、動作が不適切と評価する。
【0035】
動作推定部44は、デジタルヒューマンが、第2作業機械1Bに衝突していないかによって、第2の人9Bの動作を評価する。動作推定部44は、デジタルヒューマンが、第2作業機械1Bに衝突していない場合に、動作が適切と評価する。動作推定部44は、デジタルヒューマンが、第2作業機械1Bに衝突している場合には、動作が不適切と評価する。
【0036】
動作推定部44は、デジタルヒューマンの関節の角度が、所定の可動範囲内であるかによって、第2の人9Bの動作を評価する。動作推定部44は、デジタルヒューマンの関節の角度が、所定の可動範囲内である場合に、動作が適切と評価する。動作推定部44は、デジタルヒューマンの関節の角度が、所定の可動範囲を超えている場合に、動作が不適切と評価する。
【0037】
或いは、動作推定部44は、デジタルヒューマンの動作が時系列的に連続性を有するかによって、動作を評価してもよい。動作推定部44は、デジタルヒューマンの動作が時系列的に連続性を有する場合に、動作が適切と評価してもよい。動作推定部44は、デジタルヒューマンの動作が時系列的に連続性を有しない場合に、動作が不適切と評価してもよい。
【0038】
本実施形態に係る動作推定・負担評価システム100によれば、第1作業機械1Aに対して所定の作業中の第1の人9Aの動作を示す基準モーションデータ8Aが予め取得されてデータベース43に格納されている。そして、基準モーションデータ8Aを参照することで、第2作業機械1Bに対して所定の作業中の第2の人9Bの動作を示す推定モーションデータ8Bが生成される。そのため、第1作業機械1A、及び、第1の人9Aと拘束条件の異なる第2作業機械1B、及び、第2の人9Bに対して、所定の作業中の動作を容易、且つ、精度よく推定することができる。
【0039】
また、推定モーションデータ8Bに基づいて、第2の人9Bの動作が評価される。そのため、第2作業機械1Bの設計時に、複数の設計候補に対する第2の人9Bの動作の評価を比較することで、最適な設計を容易に選択することができる。なお、動作の評価は、コンピュータ31ではなく、人が、ディスプレイ34上のデジタルヒューマンの動作を見て判断してもよい。
【0040】
次に、負担評価部45によって実行される負担評価処理について説明する。負担評価部45は、所定の作業中の人への身体的な負担を評価する。プロセッサ35は、負担評価プログラム42を実行することで、負担評価部45として機能する。
図12は、負担評価処理を示すフローチャートである。
【0041】
図12に示すように、ステップS201では、負担評価部45は、推定モーションデータ8Bを取得する。負担評価部45は、上述した動作推定処理によって生成された推定モーションデータ8Bを取得する。
【0042】
ステップS202では、負担評価部45は、身体指標を算出する。身体指標は、第2の人9Bへの身体的な負担を示す。負担評価部45は、推定モーションデータ8Bが示す第2の人9Bの動作と第2の人9Bへの反力とに基づいて身体指標を算出する。身体指標は、第2の人9Bの関節の位置と、関節の角度と、関節トルクを含む。
【0043】
図4に示すように、負担評価部45は、逆動力学モジュール48を含む。逆運動学モジュール47は、逆運動学により、第2の人9Bの関節の位置と関節の角度と、推定モーションデータ8Bが示す第2の人9Bへの反力とから、関節トルクを算出する。関節トルクは、第2の人9Bへの反力による関節回りのトルクを意味する。
【0044】
ステップS203では、負担評価部45は、身体指標に基づいて第2の人9Bへの身体的な負担を定量的に評価する。例えば、負担評価部45は、骨盤に対する手又は足の関節の位置までの距離が、閾値を越えているかによって、負担を評価する。閾値は、第2の人9Bの身長に応じて決定されてもよい。負担評価部45は、関節の角度が閾値を越えているかによって、負担を評価してもよい。負担評価部45は、関節トルクが閾値を越えているかによって、負担を評価してもよい。負担評価部45は、上述した身体指標に加えて、さらに時間を考慮して、負担を評価してもよい。例えば、負担評価部45は、所定の継続時間以上、関節トルクが閾値を越えているかによって、負担を評価してもよい。
【0045】
ステップS204では、負担評価部45は、負担の評価結果を出力する。例えば、負担評価部45は、上述した身体指標の数値を含む評価レポートを、負担の評価結果として出力する。或いは、負担評価部45は、上述した身体指標が閾値超えているいかの判断を含む評価レポートを、負担の評価結果として出力してもよい。
図13は、評価レポート49の一例を示す図である。負担評価部45は、評価レポート49をディスプレイ34に表示する。或いは、負担評価部45は、評価レポート49を示すデータを出力装置33から出力させてもよい。
【0046】
図13に示すように、評価レポート49は、推定モーションデータ8Bを含む。評価レポート49は、推定モーションデータ8Bに基づいて、第2作業機械1Bに対する第2の人9Bの動作をアニメーションで表示する。負担評価部45は、評価レポート49において、第2の人9Bへの身体的な負担に応じてデジタルヒューマンを部分的に異なる色で表示する。負担評価部45は、関節トルクの大きさに応じて、デジタルヒューマンを部分的に異なる色で表示する。
【0047】
例えば、
図14Aに示すように、腰に大きな負担がかかっている場合には、評価レポート49は、第2の人9Bを示すデジタルヒューマンの腰の部分53を他の部分54と異なる色で示す。
図14Bに示すように、足に大きな負担がかかっている場合には、デジタルヒューマンの足の部分55を他の部分56と異なる色で示す。第2の人9Bの動作中に、負担のかかる部分は変化する。そのため、評価レポート49は、第2の人9Bの動作を示すアニメーションにおいて、負担のかかる部分の変化に応じて、異なる色で示される部分を変化させる。なお、
図14A及び
図14Bにおいては、ハッチングの違いによって、色の違いが表現されている。
【0048】
以上説明した本実施形態に係る動作推定・負担評価システム100では、推定モーションデータ8Bが示す第2作業機械1Bに対して所定の作業中の第2の人9Bの動作と第2の人9Bへの反力とに基づいて、第2の人9Bへの身体的な負担を示す身体指標が算出される。そして、身体指標に基づいて、第2の人9Bへの身体的な負担が定量的に評価される。そのため、作業機械に対して所定の作業中の人への身体的な負担を容易、且つ、精度よく評価することができる。
【0049】
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。
【0050】
作業機械は、油圧ショベルに限らず、他の機械であってもよい。例えば、作業機械は、整地・運搬・積込み用機械、掘削用機械、締固め用機械、ダンプトラック、フォークリフトなどの建設機械、或いは林業機械であってもよい。動作推定・負担評価システム100の構成は、上記の実施形態のものに限らず、変更されてもよい。例えば、動作推定処理と負担評価処理とは、互いに異なるコンピュータによって実行されてよい。動作推定処理は、複数のコンピュータに分散して実行されてもよい。負担評価処理は、複数のコンピュータに分散して実行されてもよい。データベース43は、動作推定処理、又は、負担評価処理を実行するコンピュータと別のコンピュータに保存されていてもよい。例えば、動作推定処理、又は、負担評価処理を実行するコンピュータは、通信ネットワークを介して、データベース43にアクセスしてもよい。
【0051】
データベース43は、複数種類の作業機械に対する基準モーションデータを記憶していてもよい。データベース43は、複数種類の人に対する基準モーションデータを記憶していてもよい。
【0052】
動作推定・負担評価システム100は、第1作業機械1Aに対して所定の作業中の第2の人9Bの動作を推定してもよい。動作推定・負担評価システム100は、第1作業機械1Aに対して所定の作業中の第3の人の動作を推定してもよい。
【0053】
負担評価部45は、第2の人9Bへの身体的な負担をデジタルヒューマンの色に限らず、他の態様で表現してもよい。例えば、負担評価部45は、身体指標の好ましい数値範囲をグラフ化してディスプレイ34に表示させてもよい。或いは、負担評価部45は、身体指標に基づいて、第2の人9Bの好ましい動作範囲をディスプレイ34に表示させてもよい。
【0054】
所定の作業は、作業機械への乗り込みに限らず、他の作業であってもよい。例えば、所定の作業は、作業機械から降りる動作であってもよい。或いは、
図15に示すように、所定の作業は、作業機械の整備であってもよい。その場合、作業機械の拘束条件は、作業機械の所定の整備箇所の位置を示してもよい。
【0055】
例えば、所定の整備箇所は、動力室5内の動力ユニット7であってもよい。その場合、
図15に示すように、人9は、側面カバー51を開くことで、動力室5内の動力ユニット7にアクセスする。或いは、人9は、
図1に示す天面カバー52を開くことで、動力室5内の動力ユニット7にアクセスしてもよい。作業機械の整備は、例えば、エンジンオイル、マシナリオイル、作動油などのオイル、グリス、或いは冷却水などの補給であってもよい。作業機械の整備は、フィルター・エレメントの清掃、或いは交換であってもよい。
【0056】
図16に示すように、所定の作業は、作業機械の運転操作であってもよい。その場合、作業機械の拘束条件は、作業機械のオペレータ用のシート23の位置、及び/又は、人9によって操作される操作部材24の位置を示してもよい。例えば、作業機械の拘束条件は、操作レバー27,28の位置を示してもよい。作業機械の拘束条件は、
図2に示すペダル29の位置を示してもよい。作業機械の拘束条件は、アームレスト25,26の位置を示してもよい。
【産業上の利用可能性】
【0057】
本開示によれば、作業機械に対して所定の作業中の人の動作を容易、且つ、精度よく推定することができる。
【符号の説明】
【0058】
34:ディスプレイ
35:プロセッサ
43:データベース