IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 清水建設株式会社の特許一覧 ▶ グローバルワークス株式会社の特許一覧

特許7560316クレーン操作確認支援システム及びクレーン操作確認支援支援方法
<>
  • 特許-クレーン操作確認支援システム及びクレーン操作確認支援支援方法 図1
  • 特許-クレーン操作確認支援システム及びクレーン操作確認支援支援方法 図2
  • 特許-クレーン操作確認支援システム及びクレーン操作確認支援支援方法 図3
  • 特許-クレーン操作確認支援システム及びクレーン操作確認支援支援方法 図4
  • 特許-クレーン操作確認支援システム及びクレーン操作確認支援支援方法 図5
  • 特許-クレーン操作確認支援システム及びクレーン操作確認支援支援方法 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-24
(45)【発行日】2024-10-02
(54)【発明の名称】クレーン操作確認支援システム及びクレーン操作確認支援支援方法
(51)【国際特許分類】
   G06F 16/90 20190101AFI20240925BHJP
   B66C 23/90 20060101ALI20240925BHJP
【FI】
G06F16/90 100
B66C23/90 F
B66C23/90 T
【請求項の数】 4
(21)【出願番号】P 2020174151
(22)【出願日】2020-10-15
(65)【公開番号】P2022065521
(43)【公開日】2022-04-27
【審査請求日】2023-09-06
(73)【特許権者】
【識別番号】000002299
【氏名又は名称】清水建設株式会社
(73)【特許権者】
【識別番号】309041111
【氏名又は名称】グローバルワークス株式会社
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100161506
【弁理士】
【氏名又は名称】川渕 健一
(74)【代理人】
【識別番号】100161207
【弁理士】
【氏名又は名称】西澤 和純
(72)【発明者】
【氏名】杉橋 直行
(72)【発明者】
【氏名】矢ノ倉 ひろみ
(72)【発明者】
【氏名】川村 和湖
(72)【発明者】
【氏名】新田 智博
(72)【発明者】
【氏名】峰村 佳男
【審査官】原 秀人
(56)【参考文献】
【文献】特開平06-271281(JP,A)
【文献】特開2017-152948(JP,A)
【文献】特開2016-190719(JP,A)
【文献】特表2017-530273(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 16/00-16/958
B66C 23/88-23/94
(57)【特許請求の範囲】
【請求項1】
クレーンにより物体を移動させる機能の判定を行うための支援データを会話形式でユーザに通知するクレーン操作確認支援システムであり、
前記ユーザが音声で入力したクレーンによる物体の移動に関する問合せの会話データを、音声認識によってテキストデータを生成するアシスタント部と、
前記テキストデータに対して自然言語処理を行い、少なくとも吊り上げる荷重あるいは作業半径を含む操作関連データを抽出するチャット部と、
前記操作関連データに対応して、クレーンの最大作業半径及び最大吊り荷重の各々が示された操作支援データを出力するクレーン操作支援部と
を備え、
前記チャット部が前記自然言語処理により、前記操作支援データから自然言語としての回答テキストデータを生成し、前記アシスタント部を介して前記ユーザに通知し、
前記クレーン操作支援部が、
前記最大作業半径及び前記最大吊り荷重の各々を求めるために用いたクレーン仕様テーブルの画像を前記操作支援データに含め、
前記チャット部が、
前記回答テキストデータに前記クレーン仕様テーブルの画像を付加して、前記ユーザに対して通知する
ことを特徴とするクレーン操作確認支援システム。
【請求項2】
クレーン操作支援部が、
前記操作関連データが前記吊り上げる荷重である場合、当該荷重に対応した最大作業半径を求め、一方、作業半径である場合、当該作業半径に対応した最大吊り荷重を求め、操作支援データとして出力する
ことを特徴とする請求項1に記載のクレーン操作確認支援システム。
【請求項3】
前記チャット部が、
前記クレーンのメーカー及び種別の各々を確認するテキストデータを生成し、前記ユーザに対して通知し、
前記クレーン操作支援部が、前記ユーザの回答する前記メーカー及び前記種別の各々に対応する前記クレーン仕様テーブルを用いて、前記操作支援データを生成する
ことを特徴とする請求項に記載のクレーン操作確認支援システム。
【請求項4】
クレーンにより物体を移動させる機能の判定を行うための支援データを会話形式でユーザに通知するクレーン操作確認支援方法であり、
アシスタント部が、前記ユーザが音声で入力したクレーンによる物体の移動に関する問合せの会話データを、音声認識によってテキストデータを生成するアシスタント過程と、
チャット部が、前記テキストデータに対して自然言語処理を行い、少なくとも吊り上げる荷重あるいは作業半径を含む操作関連データを抽出する第1チャット過程と、
クレーン操作支援部が、前記操作関連データに対応して、クレーンの最大作業半径及び最大吊り荷重の各々が示された操作支援データを出力するクレーン使用支援過程と、
前記チャット部が、前記自然言語処理により、前記操作支援データから自然言語としての回答テキストデータを生成し、前記アシスタント部を介して前記ユーザに通知する第2チャット過程と
を含み、
前記クレーン使用支援過程において、
前記クレーン操作支援部は、
前記最大作業半径及び前記最大吊り荷重の各々を求めるために用いたクレーン仕様テーブルの画像を前記操作支援データに含め、
前記第2チャット過程において、
前記チャット部は、
前記回答テキストデータに前記クレーン仕様テーブルの画像を付加して、前記ユーザに対して通知する
ことを特徴とするクレーン操作確認支援方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、クレーン操作確認支援システム及びクレーン操作確認支援方法に関する。
【背景技術】
【0002】
一般的に、ラフタークレーン(または、ラフテレーンクレーン)などのブーム式クレーンにおいては、過負荷によるクレーンの損傷や転倒を防止し、吊り上げの作業の安全性を確保するため、過負荷防止機能が備えられている(例えば、特許文献1)。
上記過負荷防止機能は、ブームにより吊り上げる荷重が、ブームの長さに対応した作業半径により変化する。
このため、作業半径毎にブームへの負荷が許容される荷重を限界荷重として定め、実荷重がこの限界荷重に達したときには、過負荷状態として稼働を停止する。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2013-144588号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、クレーンのブームに資材を取り付けた後、過負荷防止機能によって過負荷であることを示すアラームが出た際、資材を取り外して荷重を減らすなどの作業を行なう必要がある。
このため、資材をブームに取り付けたり、取り外したりする作業を行なうことで、余計な工程による効率の低下が発生し、工事の進捗を遅延させる原因となる。
【0005】
また、熟練した技術者であれば多くの現場において色々なクレーンを用いて、資材を吊り上げて移動させる工程を経験しているため、どの程度の荷重であれば何mの作業半径で移動させることが可能か否かを、クレーンの性能表を用いて即座に判断できる。
一方、クレーンによる資材の移動作業における監督経験の少ない技術者には、荷重に対する作業半径、逆に作業半径に対する吊り上げ可能荷重に関しての的確な判断を行うことが容易ではない場合がある。
【0006】
本発明は、上記の事情を考慮してなされたものであり、現場の技術者がクレーンによる資材の移動作業において、資材の荷重に対する作業半径、逆に作業半径に対する吊り上げ可能荷重の情報を通知し、技術者のクレーンの吊り上げ作業の効率を上げることができるクレーン操作確認支援システム及びクレーン操作確認支援方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
上記課題を解決するため、本発明のクレーン操作確認支援システムは、クレーンにより物体を移動させる機能の判定を行うための支援データを会話形式でユーザに通知するクレーン操作確認支援システムであり、前記ユーザが音声で入力したクレーンによる物体の移動に関する問合せの会話データを、音声認識によってテキストデータを生成するアシスタント部と、前記テキストデータに対して自然言語処理を行い、少なくとも吊り上げる荷重あるいは作業半径を含む操作関連データを抽出するチャット部と、前記操作関連データに対応して、クレーンの最大作業半径及び最大吊り荷重の各々が示された操作支援データを出力するクレーン操作支援部とを備え、前記チャット部が前記自然言語処理により、前記操作支援データから自然言語としての回答テキストデータを生成し、前記アシスタント部を介して前記ユーザに通知し、前記クレーン操作支援部が、前記最大作業半径及び前記最大吊り荷重の各々を求めるために用いたクレーン仕様テーブルの画像を前記操作支援データに含め、前記チャット部が、前記回答テキストデータに前記クレーン仕様テーブルの画像を付加して、前記ユーザに対して通知することを特徴とする。
【0008】
本発明のクレーン操作確認支援方法は、クレーンにより物体を移動させる機能の判定を行うための支援データを会話形式でユーザに通知するクレーン操作確認支援方法であり、アシスタント部が、前記ユーザが音声で入力したクレーンによる物体の移動に関する問合せの会話データを、音声認識によってテキストデータを生成するアシスタント過程と、チャット部が、前記テキストデータに対して自然言語処理を行い、少なくとも吊り上げる荷重あるいは作業半径を含む操作関連データを抽出する第1チャット過程と、クレーン操作支援部が、前記操作関連データに対応して、クレーンの最大作業半径及び最大吊り荷重の各々が示された操作支援データを出力するクレーン使用支援過程と、前記チャット部が、前記自然言語処理により、前記操作支援データから自然言語としての回答テキストデータを生成し、前記アシスタント部を介して前記ユーザに通知する第2チャット過程とを含み、前記クレーン使用支援過程において、前記クレーン操作支援部は、前記最大作業半径及び前記最大吊り荷重の各々を求めるために用いたクレーン仕様テーブルの画像を前記操作支援データに含め、前記第2チャット過程において、前記チャット部は、前記回答テキストデータに前記クレーン仕様テーブルの画像を付加して、前記ユーザに対して通知することを特徴とする。
【発明の効果】
【0009】
本発明によれば、現場の技術者がクレーンによる資材の移動作業において、資材の荷重に対する作業半径、逆に作業半径に対する吊り上げ可能荷重の情報を通知し、技術者のクレーンの吊り上げ作業の効率を上げることができるクレーン操作確認支援システム及びクレーン操作確認支援方法を提供することができる。
【図面の簡単な説明】
【0010】
図1】本発明の一実施形態によるクレーン操作確認支援システムの構成例を示す概略構成図である。
図2】ユーザデバイス2の表示画面2Sに表示される、アシスタントサーバ3を介したチャットサーバ4によるユーザとのクレーンの操作に関連する対話処理の概念を説明する図である。
図3】記憶部51に書き込まれて記憶されているクレーン仕様テーブルの一例を示す図である。
図4】本実施形態によるコンクリート打設支援システムの打設の可否をユーザに示す支援処理の動作例を示すフローチャートである。
図5】クレーン操作確認支援システムがユーザデバイス2の表示画面2Sに最大作業半径を表示する一例である。
図6】本発明の他の実施形態によるクレーン操作確認支援システムの構成例を示す概略構成図である。
【発明を実施するための形態】
【0011】
図1は、本発明の一実施形態によるクレーン操作確認支援システムの構成例を示す概略構成図である。本実施形態においては、クレーンの操作における所定のメーカーの所定の品種(対応トン数別の種類)による、指定された荷重に対するクレーンの最大作業半径、及び指定された作業半径に対する最大吊り荷重を示す構成を一例として説明するが、クレーンの操作に関する他の複数の質問に対しても対応可能である。
図1において、クレーン操作確認支援システムは、ユーザデバイス2、アシスタントサーバ3、チャットサーバ4及びクレーン操作支援サーバ5の各々を備えている。ユーザデバイス2、アシスタントサーバ3、チャットサーバ4及びクレーン操作支援サーバ5の各々は、インターネットを含む情報通信網6を介してデータの送受信を行なう。
【0012】
ユーザデバイス2は、例えばタブレット端末やスマートフォンなどの携帯端末であり、作業現場の現場監督(作業を指示する技術者)が使用するデバイスである。また、ユーザデバイス2は、ノートパソコン(パーソナルコンピュータ)などを用いてもよい。ユーザデバイス2は、チャットボットと会話するためのアプリケーションのプログラムがインストールされており、このプログラムを起動することにより、クレーンの操作に関する質問情報の入力、及び当該質問情報の示す質問に対する回答である操作支援データを、現場の作業の管理を行う現場監督あるいはクレーンの操作を支持する技術者(以下、ユーザと示す)に対して、音声あるいは表示画面に対する表示により通知する。
【0013】
アシスタントサーバ3は、音声認識エンジンを備えており、ユーザが入力する音声情報の音声認識の処理を行ってテキストデータを作成し、チャットサーバ4に対して送信する。アシスタントサーバ3は、音声合成エンジンを備えており、質問情報に対応して判定された打設の作業の可否を示す打設判定情報のテキストデータを、音声信号に変換してユーザデバイス2に通知する。アシスタントサーバ3は、音声信号に換えて、あるいは音声信号に加えて、ユーザデバイス2の表示画面に表示する打設判定情報を、このユーザデバイス2に対して送信する。また、アシスタントサーバ3は、対話型AI(artificial intelligence)エンジンを備えている。
【0014】
チャットサーバ4は、例えばクラウドベースのプラットフォームで動作するソフトウェアロボットである自然言語処理エンジンのアプリケーションプログラムを搭載している。チャットサーバ4は、アシスタントサーバ3から供給される質問情報のテキストデータ(以下、質問テキストデータ)に対して後述する自然言語処理を行う。
【0015】
そして、本実施形態において、クレーンの操作に関連する質問及び回答に対応した対話をユーザとの間で行なうため、チャットサーバ4は、クレーンの操作に関するワードの抽出及び質問の意味の解析など(形態素解析、構文解析、意味解析及び文脈解析などを含む一般的な自然言語処理)を、コンクリート打設に関する機械可読目録やコーパスなどを用いて行なう。チャットサーバ4は、質問テキストデータから少なくともクレーンに吊り上げさせる荷重(すなわち、吊り上げようとする資材などの重量)、や荷重(資材)を移動させる距離を示す作業半径などの操作関連データを抽出する。
【0016】
また、チャットサーバ4はクレーンの操作に関連する操作関連データが全て揃ったか否かを判定する。そして、チャットサーバ4は、操作関連データが不足している場合、この不足している操作関連データをユーザに質問するための質問テキストデータを、上記コーパスを利用して生成し、アシスタントサーバ3に送信する。チャットサーバ4は、クレーンの操作に関連する操作関連データが揃った場合、この操作関連データの組合せを、クレーン操作支援サーバ5に対して出力する。
【0017】
図2は、ユーザデバイス2の表示画面2Sに表示される、アシスタントサーバ3を介したチャットサーバ4によるユーザとのクレーンの操作に関連する対話処理の概念を説明する図である。
図2(a)においては、ユーザがクレーンにより資材を移動させる操作についての質問として、「25tラフタークレーンの最大作業半径は?」を、ユーザデバイス2に対して発声する。ユーザデバイス2は、ユーザの音声を入力し音声データ(音声波形)を、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、音声認識エンジンにより、ユーザの音声の音声認識を行ない、質問テキストデータ「25tラフタークレーンの最大作業半径は?」を生成し、生成した質問テキストデータを、チャットサーバ4及びユーザデバイス2に対して送信する。
【0018】
ユーザデバイス2は、供給された質問テキストデータ「25tラフタークレーンの最大作業半径は?」を、自身の表示画面2Sにおいて、文字列画像201として表示する。
また、チャットサーバ4は、質問テキストデータ「25tラフタークレーンの最大作業半径は?」を自然言語処理を行い、クレーンの操作における最大作業半径に対する質問であることを認識する。
これにより、チャットサーバ4は、操作関連データとして、吊り上げる荷重と、クレーンのメーカーとを取得することを認識し、吊り上げる荷重を取得するため、自然言語処理により、質問テキストデータ「吊り荷重は何トンですか?」を生成し、アシスタントサーバ3に対して送信する。
【0019】
アシスタントサーバ3は、質問テキストデータ「吊り荷重は何トンですか?」を、音声合成により音声データに変換し、質問テキストデータ「吊り荷重は何トンですか?」と、その音声データとをユーザデバイス2に対して送信する。
ユーザデバイス2は、供給された質問テキストデータ「吊り荷重は何トンですか?」を、自身の表示画面2Sにおいて、文字列画像202として表示し、音声データをスピーカ(不図示)から音声として出力する。
【0020】
ユーザは、表示画面2Sに表示された「吊り荷重は何トンですか?」に対する回答として、音声により「△トンです(例えば、3トン(さんとん))。」を発声する。ユーザデバイス2は、ユーザの音声を入力し音声データ(音声波形)を、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、音声認識エンジンにより、ユーザの音声の音声認識を行ない、質問テキストデータ「△トンです。」を生成し、生成したテキストデータを、チャットサーバ4及びユーザデバイス2に対して送信する。
【0021】
ユーザデバイス2は、供給されたテキストデータ「△トンです。」を、自身の表示画面2Sにおいて、文字列画像201として表示する。
また、チャットサーバ4は、テキストデータ「△トンです。」を自然言語処理を行い、操作関連データにおける吊り荷重が△トンであることを認識する。
そして、チャットサーバ4は、操作関連データとして、クレーンのメーカーとを取得するため、自然言語処理により、質問テキストデータ「クレーンのメーカーはどこですか?」を生成し、アシスタントサーバ3に対して送信する。
【0022】
アシスタントサーバ3は、質問テキストデータ「クレーンのメーカーはどこですか?」を、音声合成により音声データに変換し、質問テキストデータ「クレーンのメーカーはどこですか?」と、その音声データとをユーザデバイス2に対して送信する。
ユーザデバイス2は、供給された質問テキストデータ「クレーンのメーカーはどこですか?」を、自身の表示画面2Sにおいて、文字列画像204として表示し、音声データをスピーカ(不図示)から音声として出力する。
【0023】
ユーザは、表示画面2Sに表示された「クレーンのメーカーはどこですか?」に対する回答として、音声により「〇〇〇です(例えば、AA株式会社(えーえーかぶしきがいしゃ)です)。」を発声する。ユーザデバイス2は、ユーザの音声を入力し音声データ(音声波形)を、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、音声認識エンジンにより、ユーザの音声の音声認識を行ない、質問テキストデータ「〇〇〇です。」を生成し、生成したテキストデータを、チャットサーバ4及びユーザデバイス2に対して送信する。
【0024】
ユーザデバイス2は、供給されたテキストデータ「〇〇〇です。」を、自身の表示画面2Sにおいて、文字列画像205として表示する。
また、チャットサーバ4は、テキストデータ「〇〇〇です。」を自然言語処理を行い、操作関連データにおけるクレーンのメーカーが〇〇〇であることを認識する。
そして、チャットサーバ4は、操作関連データとして、質問ワードである「最大作業半径」と、この「最大作業半径」に対応する操作関連データである関連ワード、「25tラフタークレーン」と、「△トン」と、「〇〇〇」との各々を、クレーン操作支援サーバ5に対して送信する。
【0025】
クレーン操作支援サーバ5は、入力される質問ワード「最大作業半径」と、操作関連データであるクレーンの種別「25tラフタークレーン」、荷重「△トン」、メーカー「〇〇〇」とに基づき、記憶部51におけるクレーン仕様テーブルから、荷重「△トン」の場合における最大作業半径を抽出する。
このクレーン仕様テーブルは、メーカー単位においてそれぞれのクレーンの種別毎に、記憶部51に予め書き込まれて記憶されている。また、記憶部51に記憶されたクレーン仕様テーブルに、対応するメーカーやクレーンの種別がない場合、クレーン操作支援サーバ5がウェブの検索サイトにより検索し、メーカー及びクレーンの種別に対応するクレーン仕様テーブルを取得する。
【0026】
そして、クレーン操作支援サーバ5は、メーカー及びクレーンの種別に対応するクレーン仕様テーブルから、荷重「△トン」に対応する最大作業半径を取得し、取得した最大作業半径を、荷重「△トン」のワードとともに、チャットサーバ4に対して送信する。
チャットサーバ4は、供給される最大作業半径及び荷重「△トン」のワードの各々から、自然言語処理により、回答のテキストデータ「最大作業半径は、◇◇◇m(例えば、21m)です。」を生成し、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、テキストデータ「最大作業半径は、◇◇◇mです。」を、音声合成により音声データに変換し、テキストデータ「最大作業半径は、◇◇◇mです。」と、その音声データとをユーザデバイス2に対して送信する。
ユーザデバイス2は、供給されたテキストデータ「最大作業半径は、◇◇◇m」を、自身の表示画面2Sにおいて、文字列画像206として表示し、音声データ(例えば、さいだいさぎょうはんけいは、にじゅういちめーとるです。)をスピーカから音声として出力する。
【0027】
図2(b)においては、ユーザがクレーンにより資材を移動させる操作についての質問として、「25tラフタークレーンの最大吊り荷重は?」を、ユーザデバイス2に対して発声する。ユーザデバイス2は、ユーザの音声を入力し音声データ(音声波形)を、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、音声認識エンジンにより、ユーザの音声の音声認識を行ない、質問テキストデータ「25tラフタークレーンの最大吊り荷重は?」を生成し、生成した質問テキストデータを、チャットサーバ4及びユーザデバイス2に対して送信する。
【0028】
ユーザデバイス2は、供給された質問テキストデータ「25tラフタークレーンの最大吊り荷重は?」を、自身の表示画面2Sにおいて、文字列画像201として表示する。
また、チャットサーバ4は、質問テキストデータ「25tラフタークレーンの最大吊り荷重は?」を自然言語処理を行い、クレーンの操作における最大吊り荷重に対する質問であることを認識する。
これにより、チャットサーバ4は、操作関連データとして、クレーンの作業半径と、クレーンのメーカーとを取得することを認識し、作業半径を取得するため、自然言語処理により、質問テキストデータ「作業半径は何mですか?」を生成し、アシスタントサーバ3に対して送信する。
【0029】
アシスタントサーバ3は、質問テキストデータ「作業半径は何mですか?」を、音声合成により音声データに変換し、質問テキストデータ「作業半径は何mですか?」と、その音声データとをユーザデバイス2に対して送信する。
ユーザデバイス2は、供給された質問テキストデータ「作業半径は何mですか?」を、自身の表示画面2Sにおいて、文字列画像208として表示し、音声データをスピーカから音声として出力する。
【0030】
ユーザは、表示画面2Sに表示された「作業半径は何mですか?」に対する回答として、音声により「□(例えば、5)m(ごめーとる)です。」を発声する。ユーザデバイス2は、ユーザの音声を入力し音声データ(音声波形)を、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、音声認識エンジンにより、ユーザの音声の音声認識を行ない、質問テキストデータ「□mです。」を生成し、生成したテキストデータを、チャットサーバ4及びユーザデバイス2に対して送信する。
【0031】
ユーザデバイス2は、供給されたテキストデータ「□mです。」を、自身の表示画面2Sにおいて、文字列画像209として表示する。
また、チャットサーバ4は、テキストデータ「□mです。」を自然言語処理を行い、操作関連データにおける作業半径が□mであることを認識する。
そして、チャットサーバ4は、操作関連データとして、クレーンのメーカーとを取得するため、自然言語処理により、質問テキストデータ「クレーンのメーカーはどこですか?」を生成し、アシスタントサーバ3に対して送信する。
【0032】
アシスタントサーバ3は、質問テキストデータ「クレーンのメーカーはどこですか?」を、音声合成により音声データに変換し、質問テキストデータ「クレーンのメーカーはどこですか?」と、その音声データとをユーザデバイス2に対して送信する。
ユーザデバイス2は、供給された質問テキストデータ「クレーンのメーカーはどこですか?」を、自身の表示画面2Sにおいて、文字列画像210として表示し、音声データをスピーカから音声として出力する。
【0033】
ユーザは、表示画面2Sに表示された「クレーンのメーカーはどこですか?」に対する回答として、音声により「▽▽▽です。」を発声する。ユーザデバイス2は、ユーザの音声を入力し音声データ(音声波形)を、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、音声認識エンジンにより、ユーザの音声の音声認識を行ない、質問テキストデータ「▽▽▽です。」を生成し、生成したテキストデータを、チャットサーバ4及びユーザデバイス2に対して送信する。
【0034】
ユーザデバイス2は、供給されたテキストデータ「▽▽▽です。」を、自身の表示画面2Sにおいて、文字列画像211として表示する。
また、チャットサーバ4は、テキストデータ「▽▽▽です。」を自然言語処理を行い、操作関連データにおけるクレーンのメーカーが▽▽▽であることを認識する。
そして、チャットサーバ4は、操作関連データとして、質問ワードである「最大吊り荷重」と、この「最大吊り荷重」に対応する操作関連データである関連ワード、「25tラフタークレーン」と、「□m(例えば、5メートル)」と、「▽▽▽(例えば、BBB株式会社)」との各々を、クレーン操作支援サーバ5に対して送信する。
【0035】
クレーン操作支援サーバ5は、入力される質問ワード「最大吊り荷重」と、操作関連データであるクレーンの種別「25tラフタークレーン」、作業半径「□m」、メーカー「▽▽▽」とに基づき、記憶部51におけるクレーン仕様テーブルから、作業半径「□m」の場合における最大吊り荷重を抽出する。
そして、クレーン操作支援サーバ5は、メーカー及びクレーンの種別に対応するクレーン仕様テーブルから、作業半径「□m」に対応する最大吊り荷重「XXX(18)t」を取得し、取得した最大吊り荷重を、作業半径「□m」のワードとともに、チャットサーバ4に対して送信する。
【0036】
チャットサーバ4は、供給される最大吊り荷重及び作業半径「□m」のワードの各々から、自然言語処理により、回答テキストデータ「最大吊り荷重はXXXトン(例えば、18トン)です。」を生成し、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、回答テキストデータ「最大吊り荷重はXXXトンです。」を、音声合成により音声データに変換し、テキストデータ「最大吊り荷重はXXXトンです。」と、その音声データ(例えば、さいだいつりかじゅうはじゅうはちとん)とをユーザデバイス2に対して送信する。
ユーザデバイス2は、供給された回答テキストデータ「最大吊り荷重はXXXトンです。」を、自身の表示画面2Sにおいて、文字列画像212として表示し、音声データ(さいだいつりかじゅうは、じゅうはちとんです)をスピーカから音声として出力する。
【0037】
図3は、記憶部51に書き込まれて記憶されているクレーン仕様テーブルの一例を示す図である。上述したように、記憶部51には、メーカー及びクレーンの種別の各々に対応した複数のクレーンり仕様テーブルが記憶されている。図3は、一例としてのクレーンの種別として25t(トン)ラフタークレーンに対応したクレーン仕様テーブルである。
レコード毎に、ブーム(すなわち、クレーンに搭載され、先端に資材を吊り下げる機構を有する棒状の構造物)の長さの各々に対応する作業半径が示されている。作業半径(最大作業半径)としては、例えば、2.5mから11mまで、1m単位で示されており、それぞれに対応する吊り荷重(最大吊り荷重)が示されている。
例えば、レコード220においては、作業半径6mにおける吊り荷重の各々が示されている。9.5mのブームの場合、吊り荷重が16.3トンであり、16.5mのブームの場合、吊り荷重が14.5トンであり、23.5mのブームの場合、11.2トンであり、30.5mのブームの場合、7トンとなっている。
【0038】
また、図2においては、ブームの長さについては、省略しているが、実際にはチャットがユーザから取得する操作関連データに含まれている。
また、クレーン操作支援サーバ5は、回答テキストデータとともに、図3に示すクレーン仕様テーブルの画像データを操作支援データに含めて、アシスタントサーバ3に送信する構成としてもよい。
この場合、アシスタントサーバ3は、回答テキストデータと、回答テキストデータに対応する音声データとともに、クレーン仕様テーブルの画像データをユーザデバイス2に送信する。
ユーザデバイス2は、音声データを音声として出力するとともに、回答テキストデータとクレーン仕様テーブルとを、表示画面2Sに表示する。
【0039】
図4は、本実施形態によるコンクリート打設支援システムの打設の可否をユーザに示す支援処理の動作例を示すフローチャートである。このとき、ユーザはユーザデバイス2において、コンクリート打設支援システムによるクレーンの操作を確認するためのアプリケーションを起動している。
ステップS101:ユーザは、ラフタークレーンで資材を移動させる際、最大作業半径が何メートルか、あるいは最大吊り荷重が何トンかを確認するため、ユーザデバイス2に対して発生する。
例えば、ユーザが△トンの資材を移動させる際、移動させる場所までラフタークレーンのブームが届くか否かを確認するため、使用しようとしてるラフタークレーンの最大作業半径を確認するため、「25トンラフタークレーンの最大作業半径は?」を、ユーザデバイス2に対して発生する。
そして、ユーザデバイス2は、「25トンラフタークレーンの最大作業半径は?」の音声データを、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、音声データを質問テキストデータ「25トンラフタークレーンの最大作業半径は?」に変換して、チャットサーバ4に対して送信する。
【0040】
一方、ユーザが所定の位置に資材を移動させる際、ラフタークレーンが何トンの荷重まで吊り下げられるか(すなわち、移動させる資材を吊り下げられるか)否かを確認するため、「25トンラフタークレーンの最大吊り荷重は?」を、ユーザデバイス2に対して発生する。
そして、ユーザデバイス2は、「25トンラフタークレーンの最大吊り荷重は?」の音声データを、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、音声データを質問テキストデータ「25トンラフタークレーンの最大吊り荷重は?」に変換して、チャットサーバ4に対して送信する。
【0041】
ステップS102:チャットサーバ4は、供給される質問テキストデータが「25トンラフタークレーンの最大作業半径は?」の場合、自然言語処理によりユーザの確認項目が最大作業半径であることを認識する。
このとき、チャットサーバ4は、最大作業半径を求めるために必要な操作関連データとして、クレーンのメーカー及び吊り荷重を取得するため、処理をステップS103Aへ進める。
一方、チャットサーバ4は、供給される質問テキストデータが「25トンラフタークレーンの最大作業半径は?」の場合、自然言語処理によりユーザの確認項目が最大作業半径であることを認識する。
このとき、チャットサーバ4は、最大作業半径を求めるために必要な操作関連データとして、クレーンのメーカー及び吊り荷重を取得するため、処理をステップS103Aへ進める。
【0042】
ステップS103A:チャットサーバ4は、図2(a)で説明した処理(文字列画像202及び文字列画像203に対応)により、25トンラフタークレーンで移動させる資材の荷重を取得する。
ステップS104A:チャットサーバ4は、図2(a)で説明した処理(文字列画像204及び文字列画像205に対応)により、25トンラフタークレーンのメーカーの情報(例えば、メーカー名)を取得する。
【0043】
ステップS105A:チャットサーバ4は、質問ワードである「最大作業半径」と、操作関連データにおけるクレーンの種別である「25トンラフタークレーン」、吊り荷重のデータ「△トン」及びメーカー名「〇〇〇」を、クレーン操作支援サーバ5に送信する。
そして、クレーン操作支援サーバ5は、クレーンの種別及びメーカー名に対応したクレーン仕様テーブルを記憶部51のテーブル群から検索する。
クレーン操作支援サーバ5は、検索したクレーン仕様テーブルを参照し、吊り荷重に対応する(最大吊り荷重の範囲内)における最大作業半径を抽出する(このとき、説明は省略しているが、ブームの種類(長さ)も操作関連データとして取得している)。
【0044】
ステップS106A:クレーン操作支援サーバ5は、ユーザの確認項目に対する操作支援データとして、質問ワードの「最大作業半径」と、最大作業半径のデータ「◇◇◇m」を、チャットサーバ4に対して送信する。
これにより、チャットサーバ4は、質問ワードの「最大作業半径」と、最大作業半径のデータ「◇◇◇m」とが供給された場合、自然言語処理により、回答テキストデータ「最大作業半径は、◇◇◇mです。」を生成し、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、回答テキストデータを、音声合成により音声データに変換し、回答テキストデータ及びこの回答テキストデータの音声信号とを、ユーザデバイス2に対して送信する。
そして、ユーザデバイス2は、図2(a)に示すように、回答テキストデータ「最大作業半径は、◇◇◇mです。」を表示画面2Sに表示する(文字列画像206に対応)とともに、音声データに対応した音声により、ユーザの質問に対応した回答を通知する。
【0045】
ステップS103B:チャットサーバ4は、図2(b)で説明した処理(文字列画像208及び文字列画像209に対応)により、25トンラフタークレーンで資材を移動させる距離(作業半径)のデータを取得する。
ステップS104B:チャットサーバ4は、図2(b)で説明した処理(文字列画像210及び文字列画像211に対応)により、25トンラフタークレーンのメーカーの情報(例えば、メーカー名)を取得する。
【0046】
ステップS105B:チャットサーバ4は、質問ワードである「最大吊り荷重」と、操作関連データにおけるクレーンの種別である「25トンラフタークレーン」、作業半径のデータ「□トン」及びメーカー名「〇〇〇」を、クレーン操作支援サーバ5に送信する。
そして、クレーン操作支援サーバ5は、クレーンの種別及びメーカー名に対応したクレーン仕様テーブルを記憶部51のテーブル群から検索する。
クレーン操作支援サーバ5は、検索したクレーン仕様テーブルを参照し、作業半径に対応する(最大作業半径の範囲内)における最大吊り荷重を抽出する(このとき、説明は省略しているが、ブームの種類(長さ)も操作関連データとして取得している)。
【0047】
ステップS106B:クレーン操作支援サーバ5は、ユーザの確認項目に対する操作支援データとして、質問ワードの「最大吊り荷重」と、最大吊り荷重のデータ「XXXt」を、チャットサーバ4に対して送信する。
これにより、チャットサーバ4は、質問ワードの「最大吊り荷重」と、最大吊り荷重のデータ「XXXt」とが供給された場合、自然言語処理により、回答テキストデータ「最大吊り荷重は、XXXtです。」を生成し、アシスタントサーバ3に対して送信する。
アシスタントサーバ3は、回答テキストデータを、音声合成により音声データに変換し、回答テキストデータ及びこの回答テキストデータの音声信号とを、ユーザデバイス2に対して送信する。
そして、ユーザデバイス2は、図2(b)に示すように、回答テキストデータ「最大吊り荷重は、XXXtです。」を表示画面2Sに表示する(文字列画像212に対応)とともに、音声データに対応した音声により、ユーザの質問に対応した回答を通知する。
【0048】
上述したように、本実施形態によれば、現場の技術者がクレーンによる資材の移動作業において、資材の荷重に対する作業半径としての最大作業半径、逆に作業半径に対する吊り上げ可能荷重としての最大作業半径の情報を取得することが可能となり、クレーンによる資材の移動の作業に経験が少ない技術者でも、資材を移動させる際に、移動させる資材を吊り上げることが可能か、また、資材を所定の場所に移動させることが可能かなどの確認を容易とし、クレーンの吊り上げ作業の効率を上げることができる。
また、本実施形態によれば、現場の技術者がクレーンによる資材の移動作業において、クレーンの仕様書を確認することができない(例えば、作業中で手を使用することができない)状況においても、資材の荷重に対する作業半径としての最大作業半径、逆に作業半径に対する吊り上げ可能荷重としての最大作業半径の情報を容易に取得することが可能となり、クレーンの吊り上げ作業の効率を上げることができる。
【0049】
図5は、クレーン操作確認支援システムがユーザデバイス2の表示画面2Sに最大作業半径を表示する一例である。
ユーザが現場の図面上における最大作業半径を示すことを要求する場合、チャットサーバ4は、現場の図面を取得するための現場を識別するための識別情報(住所、工事名)などの情報を、図2に示す対話により取得する。
そして、クレーン操作支援サーバ5は、チャットサーバ4から供給される上記識別情報により、現場の図面を所定のサーバより取得する。
【0050】
これにより、クレーン操作支援サーバ5は、現場の図面をチャットサーバ4及びアシスタントサーバ3を介して、ユーザデバイス2へ送信する。
ユーザデバイス2は、表示画面2Sに対して現場の図面を表示し、クレーンの位置の入力をユーザに対して促す。
そして、ユーザは、ユーザデバイス2の表示画面2Sに表示されている現場の図面上において、クレーンの配置されている位置を指などでタッチする。
ユーザデバイス2は、ユーザでタッチした位置を中心として、図5に示すように、最大作業半径を表示する。
【0051】
図6は、本発明の他の実施形態によるクレーン操作確認支援システムの構成例を示す概略構成図である。図1のクレーン操作確認支援システムにさらに備えられた構成となっている。
文書検索サーバ7は、ユーザの質問がクレーンの最大作業半径や最大吊り荷重に対してなどではなく、クレーンの操作の方法や言葉の意味などの検索を行う。
ユーザがクレーンの操作の方法や言葉の意味などを知りたい場合、例えば、「〇〇〇社の25トンのラフタークレーンのブームにはどんな種類があるの?」の質問を音声で行った場合、アシスタントサーバ3が音声のテキスト化を行い、チャットサーバ4が自然言語処理を行う。
【0052】
チャットサーバ4は、ユーザの質問がクレーンの最大作業半径や最大吊り荷重と認識した場合、質問ワードや操作関連情報をクレーン操作支援サーバ5に送信し、一方、クレーンの操作の方法や言葉の意味と認識した場合、質問ワードを文書検索サーバ7へ送信する。
クレーン操作支援サーバ5は、すでに説明したように、最大作業半径や最大吊り荷重の抽出を行う。
一方、文書検索サーバ7は、クレーンの操作の方法や言葉の意味の検索を、ウェブ上の所定の検索サイトによって行う。
【符号の説明】
【0053】
2…ユーザデバイス 3…アシスタントサーバ 4…チャットサーバ 5…クレーン操作支援サーバ 6…情報通信網 7…文書検索サーバ 51…記憶部
図1
図2
図3
図4
図5
図6