IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特許7687156データ処理装置、データ処理方法及びプログラム
<>
  • 特許-データ処理装置、データ処理方法及びプログラム 図1
  • 特許-データ処理装置、データ処理方法及びプログラム 図2
  • 特許-データ処理装置、データ処理方法及びプログラム 図3
  • 特許-データ処理装置、データ処理方法及びプログラム 図4
  • 特許-データ処理装置、データ処理方法及びプログラム 図5
  • 特許-データ処理装置、データ処理方法及びプログラム 図6
  • 特許-データ処理装置、データ処理方法及びプログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-05-26
(45)【発行日】2025-06-03
(54)【発明の名称】データ処理装置、データ処理方法及びプログラム
(51)【国際特許分類】
   G06Q 50/40 20240101AFI20250527BHJP
【FI】
G06Q50/40
【請求項の数】 10
(21)【出願番号】P 2021146661
(22)【出願日】2021-09-09
(65)【公開番号】P2023039515
(43)【公開日】2023-03-22
【審査請求日】2024-08-06
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100110928
【弁理士】
【氏名又は名称】速水 進治
(72)【発明者】
【氏名】高橋 広行
(72)【発明者】
【氏名】川崎 大輔
(72)【発明者】
【氏名】山根 薫
【審査官】阿部 潤
(56)【参考文献】
【文献】特開2017-122953(JP,A)
【文献】特開2020-187513(JP,A)
【文献】特開2002-344636(JP,A)
【文献】特開2000-163671(JP,A)
【文献】特開2002-41502(JP,A)
【文献】特開2016-55765(JP,A)
【文献】特開2009-87242(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00 - 99/00
(57)【特許請求の範囲】
【請求項1】
作業者の発言内容を記録した音声データを取得する取得手段と、
前記音声データに含まれる音声をテキストに変換する変換手段と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段と、
前記音声データが所定条件を満たすとき、前記テキストの一部に基づき第2の報告書関連データを作成する第2の作成手段と、
を有し、
前記所定条件は、前記音声データに記録された前記作業者の発言内容の中に所定の第2の報告書関連キーワードが含まれることであり、
前記第2の作成手段は、
前記音声データの解析又は前記テキストの解析により、前記音声データに記録された前記作業者の発言内容の中に前記第2の報告書関連キーワードが含まれるか判断し、
前記音声データの中の前記第2の報告書関連キーワードが発声されたタイミングに基づき、前記第2の報告書関連データの作成に利用する前記テキストの一部を決定するデータ処理装置。
【請求項2】
作業者の発言内容を記録した音声データ、及び画像データを取得する取得手段と、
前記音声データに含まれる音声をテキストに変換する変換手段と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段と、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成手段と、
を有し、
前記所定条件は、前記音声データに記録された前記作業者の発言内容の中に所定の第2の報告書関連キーワードが含まれることであり、
前記第2の作成手段は、前記音声データの解析又は前記テキストの解析により、前記音声データに記録された前記作業者の発言内容の中に前記第2の報告書関連キーワードが含まれるか判断し、
前記音声データ及び前記画像データにはタイムスタンプが付与されており、
前記第1の作成手段は、
前記音声データの中から所定の複数種類の撮影関連キーワードを検出し、前記複数種類の撮影関連キーワード各々が発声されたタイミングで撮影された前記画像データを、前記タイムスタンプに基づき特定し、特定した前記画像データをさらに用いて前記第1の報告書関連データを作成するデータ処理装置。
【請求項3】
前記第1の報告書関連データでは、複数種類の画像各々を添付する位置が定められており、
前記第1の作成手段は、
第1の撮影関連キーワードが発声されたタイミングで撮影された画像データを第1の種類の画像データとして特定し、第N(Nは2以上の整数)の撮影関連キーワードが発声されたタイミングで撮影された画像データを第Nの種類の画像データとして特定し、
特定した複数種類の画像データ各々を、前記第1の報告書関連データの中で定められた複数種類の画像各々を添付する位置に添付する請求項に記載のデータ処理装置。
【請求項4】
作業者の発言内容を記録した音声データを取得する取得手段と、
前記音声データに含まれる音声をテキストに変換する変換手段と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段と、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成手段と、
線路上で作業を行う作業者が装着する作業者端末に情報を送信し、出力させる出力手段と、
前記作業者端末の位置、及び列車の位置を監視し、前記作業者端末の位置及び前記列車の位置の関係が所定の接近条件を満たすことを検知する監視手段と、
を有し、
前記所定条件は、前記音声データに記録された前記作業者の発言内容の中に所定の第2の報告書関連キーワードが含まれることであり、
前記第2の作成手段は、前記音声データの解析又は前記テキストの解析により、前記音声データに記録された前記作業者の発言内容の中に前記第2の報告書関連キーワードが含まれるか判断し、
前記出力手段は、前記接近条件を満たすことが検知された場合、列車が接近していることを示す警告情報を前記作業者端末に送信するデータ処理装置。
【請求項5】
コンピュータが、
作業者の発言内容を記録した音声データを取得する取得工程と、
前記音声データに含まれる音声をテキストに変換する変換工程と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成工程と、
前記音声データが所定条件を満たすとき、前記テキストの一部に基づき第2の報告書関連データを作成する第2の作成工程と、
を実行し、
前記所定条件は、前記音声データに記録された前記作業者の発言内容の中に所定の第2の報告書関連キーワードが含まれることであり、
前記第2の作成工程では、
前記音声データの解析又は前記テキストの解析により、前記音声データに記録された前記作業者の発言内容の中に前記第2の報告書関連キーワードが含まれるか判断し、
前記音声データの中の前記第2の報告書関連キーワードが発声されたタイミングに基づき、前記第2の報告書関連データの作成に利用する前記テキストの一部を決定するデータ処理方法。
【請求項6】
コンピュータが、
作業者の発言内容を記録した音声データ、及び画像データを取得する取得工程と、
前記音声データに含まれる音声をテキストに変換する変換工程と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成工程と、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成工程と、
を実行し、
前記所定条件は、前記音声データに記録された前記作業者の発言内容の中に所定の第2の報告書関連キーワードが含まれることであり、
前記第2の作成工程では、前記音声データの解析又は前記テキストの解析により、前記音声データに記録された前記作業者の発言内容の中に前記第2の報告書関連キーワードが含まれるか判断し、
前記音声データ及び前記画像データにはタイムスタンプが付与されており、
前記第1の作成工程では、
前記音声データの中から所定の複数種類の撮影関連キーワードを検出し、前記複数種類の撮影関連キーワード各々が発声されたタイミングで撮影された前記画像データを、前記タイムスタンプに基づき特定し、特定した前記画像データをさらに用いて前記第1の報告書関連データを作成するデータ処理方法。
【請求項7】
コンピュータが、
作業者の発言内容を記録した音声データを取得する取得工程と、
前記音声データに含まれる音声をテキストに変換する変換工程と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成工程と、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成工程と、
線路上で作業を行う作業者が装着する作業者端末に情報を送信し、出力させる出力工程と、
前記作業者端末の位置、及び列車の位置を監視し、前記作業者端末の位置及び前記列車の位置の関係が所定の接近条件を満たすことを検知する監視工程と、
を実行し、
前記所定条件は、前記音声データに記録された前記作業者の発言内容の中に所定の第2の報告書関連キーワードが含まれることであり、
前記第2の作成工程では、前記音声データの解析又は前記テキストの解析により、前記音声データに記録された前記作業者の発言内容の中に前記第2の報告書関連キーワードが含まれるか判断し、
前記出力工程では、前記接近条件を満たすことが検知された場合、列車が接近していることを示す警告情報を前記作業者端末に送信するデータ処理方法。
【請求項8】
コンピュータを、
作業者の発言内容を記録した音声データを取得する取得手段、
前記音声データに含まれる音声をテキストに変換する変換手段、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段、
前記音声データが所定条件を満たすとき、前記テキストの一部に基づき第2の報告書関連データを作成する第2の作成手段、
として機能させ
前記所定条件は、前記音声データに記録された前記作業者の発言内容の中に所定の第2の報告書関連キーワードが含まれることであり、
前記第2の作成手段は、
前記音声データの解析又は前記テキストの解析により、前記音声データに記録された前記作業者の発言内容の中に前記第2の報告書関連キーワードが含まれるか判断し、
前記音声データの中の前記第2の報告書関連キーワードが発声されたタイミングに基づき、前記第2の報告書関連データの作成に利用する前記テキストの一部を決定するプログラム。
【請求項9】
コンピュータを、
作業者の発言内容を記録した音声データ、及び画像データを取得する取得手段、
前記音声データに含まれる音声をテキストに変換する変換手段、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成手段、
として機能させ
前記所定条件は、前記音声データに記録された前記作業者の発言内容の中に所定の第2の報告書関連キーワードが含まれることであり、
前記第2の作成手段は、前記音声データの解析又は前記テキストの解析により、前記音声データに記録された前記作業者の発言内容の中に前記第2の報告書関連キーワードが含まれるか判断し、
前記音声データ及び前記画像データにはタイムスタンプが付与されており、
前記第1の作成手段は、
前記音声データの中から所定の複数種類の撮影関連キーワードを検出し、前記複数種類の撮影関連キーワード各々が発声されたタイミングで撮影された前記画像データを、前記タイムスタンプに基づき特定し、特定した前記画像データをさらに用いて前記第1の報告書関連データを作成するプログラム。
【請求項10】
コンピュータを、
作業者の発言内容を記録した音声データを取得する取得手段、
前記音声データに含まれる音声をテキストに変換する変換手段、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成手段、
線路上で作業を行う作業者が装着する作業者端末に情報を送信し、出力させる出力手段、
前記作業者端末の位置、及び列車の位置を監視し、前記作業者端末の位置及び前記列車の位置の関係が所定の接近条件を満たすことを検知する監視手段、
として機能させ
前記所定条件は、前記音声データに記録された前記作業者の発言内容の中に所定の第2の報告書関連キーワードが含まれることであり、
前記第2の作成手段は、前記音声データの解析又は前記テキストの解析により、前記音声データに記録された前記作業者の発言内容の中に前記第2の報告書関連キーワードが含まれるか判断し、
前記出力手段は、前記接近条件を満たすことが検知された場合、列車が接近していることを示す警告情報を前記作業者端末に送信するプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、データ処理装置、データ処理方法及びプログラムに関する。
【背景技術】
【0002】
本発明に関連する技術が、特許文献1乃至3に開示されている。特許文献1及び2は、会議の音声データに含まれる発言の話者を音声認識で特定し、特定結果に基づき会議の議事録を作成する技術を開示している。特許文献3は、保線作業者に、発音、発光、バイブレーション等の手段で列車の接近を通知する技術を開示している。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2004-020739号公報
【文献】特開2000-352995号公報
【文献】特開2005-289309号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
線路、道路、橋、建物等の人工物や、山、川、海等の自然物等のあらゆる対象に対し、調査、修繕、建設等の各種作業が日々行われている。作業者は、現場での作業後、作業報告書やインシデント報告書(インシデントが発生した場合に作成)等の各種報告書を作成する必要があるが、非常に手間である。特許文献1乃至3はいずれも、当該課題を記載も示唆もしていない。
【0005】
本発明は、作業者による各種報告書の作成を支援する技術を提供することを課題とする。
【課題を解決するための手段】
【0006】
本発明によれば、
音声データを取得する取得手段と、
前記音声データに含まれる音声をテキストに変換する変換手段と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段と、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成手段と、
を有するデータ処理装置が提供される。
【0007】
また、本発明によれば、
コンピュータが、
音声データを取得する取得工程と、
前記音声データに含まれる音声をテキストに変換する変換工程と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成工程と、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成工程と、
を実行するデータ処理方法が提供される。
【0008】
また、本発明によれば、
コンピュータを、
音声データを取得する取得手段、
前記音声データに含まれる音声をテキストに変換する変換手段、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成手段、
として機能させるプログラムが提供される。
【発明の効果】
【0009】
本発明によれば、作業者による各種報告書の作成を支援する技術が実現される。
【図面の簡単な説明】
【0010】
図1】本実施形態のシステムの機能ブロック図の一例を示す図である。
図2】本実施形態のデータ処理装置の機能ブロック図の一例を示す図である。
図3】本実施形態のデータ処理装置の処理の流れの一例を示すフローチャートである。
図4】本実施形態の装置のハードウエア構成の一例を示す図である。
図5】本実施形態の第1の報告書関連データの一例を模式的に示す図である。
図6】本実施形態の第2の報告書関連データの一例を模式的に示す図である。
図7】本実施形態のデータ処理装置の機能ブロック図の一例を示す図である。
【発明を実施するための形態】
【0011】
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
【0012】
<第1の実施形態>
「全体構成」
まず、本実施形態のシステムの全体構成を説明する。図1に示すように、本実施形態のシステム1は、データ処理装置10と、複数の作業者端末20とを有する。本実施形態のシステム1は、データ処理装置10と、複数の作業者端末20各々との間でデータ通信できるように構成されている。なお、複数の作業者端末20間で通信できるように構成されてもよい。複数の作業者端末20間の通信は、データ処理装置10を経由して間接的に行われてもよいし、データ処理装置10を経由せずに直接的に行われてもよい。
【0013】
「作業者端末20の機能構成」
次に、作業者端末20の機能構成を説明する。作業者端末20は、作業者が所持する端末である。1人の作業者が1つの作業者端末20を所持する。
【0014】
作業者は、作業現場で作業を行う者である。作業現場は、作業の対象が存在する場所である。作業の対象は、線路、道路、橋、建物等の人工物や、山、川、海等の自然物等が例示されるがこれらに限定されない。作業の内容は、作業の対象に対する調査、修繕、建設等が例示されるがこれらに限定されない。
【0015】
作業者端末20は、ヘッドセット型、ヘルメットマウント型、ヘッドマウントディスプレイ型、メガネ型、時計型、リストバンド型、ストラップ型、ヘルメット型等のウェアラブラル端末であることが好ましい。なお、スマートフォン、携帯電話、タブレット端末等の作業者端末20を作業者の衣服のポケット等に収納して利用してもよい。
【0016】
作業者端末20は、少なくとも、作業者が発した音声を集音し、音声データに変換するマイク機能と、外部装置と通信する通信機能とを有する。作業者端末20は、さらに、作業者に向けて情報を出力する出力機能を備えてもよい。例えば、作業者端末20は、ディスプレイ、スピーカ、警告ランプ、バイブレーションの中の少なくとも1つの出力装置を備えることができる。作業者端末20は、画像データを作成するカメラ機能や、時計機能、位置情報取得機能(GPS(global positioning system)機能等)等のその他の機能を備えてもよい。
【0017】
作業者は、作業中、作業者端末20の集音機能をオンにしておく。各作業者端末20は、マイクを介して、各作業者端末20を所持している作業者が発した音声や、その作業者の周辺の音声等を集音し、音声データに変換する。そして、各作業者端末20は、当該音声データをデータ処理装置10に送信する。
【0018】
作業者端末20は、リアルタイム処理で、作成した音声データをデータ処理装置10に送信してもよい。その他、作業者端末20は、音声データを自端末の記憶装置に蓄積しておき、任意のタイミングで、それまでに蓄積した音声データをまとめてデータ処理装置10に送信してもよい。音声データをまとめて送信するタイミングは、作業が終了し、作業者が作業者端末20の集音機能をオフにしたタイミングや、作業者がデータのアップロードを指示する入力を作業者端末20に対して行ったタイミング等が例示されるが、これらに限定されない。
【0019】
なお、複数の作業者端末20は、作成した音声データを互いに送受信してもよい。そして、各作業者端末20は、他の作業者端末20から受信した音声データを処理し、スピーカを介してその音声データが示す音声を出力してもよい。当該処理により、作業者端末20を介した作業者間の通話が実現される。複数の作業者端末20間の音声データの送受信は、データ処理装置10を経由して行われてもよいし、データ処理装置10を経由せずに行われてもよい。
【0020】
「データ処理装置10の機能構成」
次に、データ処理装置10の機能構成を説明する。データ処理装置10は、作業者端末20から取得した音声データを処理し、各種報告書関連データを作成する機能を有する。
【0021】
図2に、データ処理装置10の機能ブロック図の一例を示す。図示するように、データ処理装置10は、取得部11と、変換部12と、第1の作成部13と、第2の作成部14とを有する。
【0022】
取得部11は、音声データを取得する。そして、取得部11は、取得した音声データを変換部12に入力する。
【0023】
例えば、データ処理装置10は、ミキサーを備えてもよい。そして、データ処理装置10は、複数の作業者端末20各々から送信された音声データをミックスし、1つの音声データ(音声ファイル)を作成してもよい。この場合、取得部11は、この1つの音声データを取得し、変換部12に入力する。その他、取得部11は、上記ミキサーによる処理が行われていない「複数の作業者端末20各々から送信された音声データ」を別々に取得し、当該複数の音声データ各々を変換部12に入力してもよい。
【0024】
変換部12は、取得部11が取得した音声データに含まれる音声をテキストに変換する。変換部12が利用する音声認識技術は特段制限されず、あらゆる技術を利用できる。予め、作業の専門用語を辞書データに登録しておいてもよい。このようにすることで、テキスト変換の精度が向上する。なお、音声データには、タイムスタンプが付与される。このタイムスタンプを利用することで、変換部12が作成したテキストで示される各音声が発せられた日時を特定することができる。
【0025】
第1の作成部13は、変換部12が作成したテキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する。第1の報告書関連データは、第1の報告書に関連するデータである。作業者は、第1の報告書関連データを利用して第1の報告書を作成することができる。
【0026】
第1の報告書は、作業の都度、毎回作成される報告書であり、各回の作業の内容等を報告するために作成される。第1の報告書は、例えば、「作業報告書」、「作業連絡書」、「日報」等と呼ばれる報告書であってもよい。第1の報告書関連データの具体例は、以下の実施形態で説明する。
【0027】
第2の作成部14は、変換部12が作成したテキストに基づき第2の報告書関連データを作成する。第2の報告書関連データは、第2の報告書に関連するデータである。作業者は、第2の報告書関連データを利用して第2の報告書を作成することができる。
【0028】
第2の報告書は、作業中に所定の事象が発生した場合のみ作成される報告書であり、発生した事象の内容等を報告するために作成される。所定の事象は、例えば予期せず起きた事象であり、インシデント、トラブル、不具合、事故等が例示される。第2の報告書は、例えば、「インシデント報告書」、「トラブル報告書」、「不具合報告書」等と呼ばれる報告書であってもよい。第2の報告書関連データの具体例は、以下の実施形態で説明する。
【0029】
第2の作成部14は、取得部11が取得した音声データが所定条件を満たすときに、第2の報告書関連データを作成する。第2の作成部14は、取得部11が取得した音声データが所定条件を満たさないとき、第2の報告書関連データを作成しない。所定条件は、「取得部11が取得した音声データが、所定の事象の発生を示していること」である。所定条件の具体例は、以下の実施形態で説明する。
【0030】
第2の作成部14は、取得部11が取得した音声データを解析することで、上記所定条件が満たされるか否かを判断してもよいし、変換部12が作成したテキストを解析することで、上記所定条件が満たされるか否かを判断してもよい。
【0031】
次に、図3のフローチャートを用いて、データ処理装置10の処理の流れの一例を説明する。
【0032】
データ処理装置10は、音声データを取得すると(S10)、取得された音声データに対して音声認識処理を行い、取得された音声データに含まれる音声をテキストに変換する(S11)。上記音声認識処理が行われる音声データは、複数の作業者端末20各々から送信された音声データをミックスして作成された音声データ(音声ファイル)であってもよい。その他、音声認識処理が行われる音声データは、複数の作業者端末20各々から送信された音声データの各々であってもよい。
【0033】
その後、データ処理装置10は、S12で作成したテキストに基づき、テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する(S12)。
【0034】
また、データ処理装置10は、S10で取得された音声データが所定条件を満たすか判断する(S13)。所定条件は、「S10で取得された音声データが、所定の事象の発生を示していること」である。
【0035】
S10で取得された音声データが所定条件を満たす場合(S13のYes)、データ処理装置10は、S12で作成したテキストに基づき、第2の報告書関連データを作成する(S14)。S10で取得された音声データが所定条件を満たさない場合(S13のNo)、データ処理装置10は、第2の報告書関連データを作成しない。
【0036】
なお、S12乃至S14の処理の処理順は、図3で示すものに限定されない。S12の前にS13及びS14を行ってもよい。また、S12と、S13及びS14とを並行して行ってもよい。
【0037】
「データ処理装置10及び作業者端末20のハードウエア構成」
次に、データ処理装置10及び作業者端末20のハードウエア構成の一例を説明する。図4は、データ処理装置10及び作業者端末20のハードウエア構成例を示す図である。データ処理装置10及び作業者端末20各々が備える各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
【0038】
図4に示すように、データ処理装置10及び作業者端末20各々は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。データ処理装置10及び作業者端末20の少なくとも一方は、周辺回路4Aを有さなくてもよい。なお、データ処理装置10及び作業者端末20各々は、物理的及び/又は論理的に分かれた複数の装置で構成されてもよいし、物理的及び論理的に一体となった1つの装置で構成されてもよい。物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。
【0039】
バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
【0040】
「作用効果」
本実施形態のデータ処理装置10及び作業者端末20によれば、作業者が発した音声を示す音声データをテキスト化し、当該テキストに基づき、第1の報告書を作成するために利用される第1の報告書関連データを作成することができる。第1の報告書は、作業の都度、毎回作成され、各回の作業の内容等を示す報告書である。
【0041】
また、本実施形態のデータ処理装置10及び作業者端末20によれば、作業者が発した音声を示す音声データをテキスト化し、当該テキストに基づき、第2の報告書を作成するために利用される第2の報告書関連データを作成することができる。第2の報告書は、作業中に所定の事象が発生した場合のみ作成され、発生した事象の内容等を示す報告書である。
【0042】
このように、本実施形態のデータ処理装置10及び作業者端末20によれば、各回の作業の内容等を示す第1の報告書や、作業中に発生した所定の事象の内容等を示す第2の報告書等を作成するために利用されるデータ(第1の報告書関連データ及び第2の報告書関連データ)を、作業者が発した音声を示す音声データに基づき作成することができる。
【0043】
作業者は、このような第1の報告書関連データ及び第2の報告書関連データを利用して、効率的に、第1の報告者や第2の報告書を作成することができる。
【0044】
また、本実施形態のデータ処理装置10及び作業者端末20によれば、音声データが所定条件を満たすときに、第2の報告書関連データを作成することができる。音声データが所定条件を満たさないとき、データ処理装置10は、第2の報告書関連データを作成しない。必要な時のみ第2の報告書関連データを作成することができるので、必要ないときに第2の報告書関連データが作成される不都合を回避することができる。
【0045】
<第2の実施形態>
本実施形態では、第1及び第2の報告書関連データの中身や、作成方法がより具体化される。
【0046】
「第1の報告書関連データ」
まず、第1の報告書関連データの具体例を説明する。
【0047】
-第1の具体例-
第1の作成部13は、変換部12が作成したテキストの全部を時系列に並べた第1の報告書関連データを作成することができる。この例の場合、作業中に作業者が発言した内容の全てが時系列に並んだ第1の報告書関連データが作成される。作業者は、当該第1の報告書関連データを参照して作業の内容や流れを思い出し、第1の報告書を作成する。
【0048】
-第2の具体例-
第1の作成部13は、変換部12が作成したテキストを解析し、解析結果に基づき、予め用意された所定フォーマットに情報を入力して第1の報告書関連データを作成することができる。
【0049】
図5に、第1の報告書関連データの一例を模式的に示す。当該第1の報告書関連データは、「作業日」、「作業時間」、「作業場所」、「作業者」、「詳細」の項目を含む。第1の報告書関連データは、その他の項目を含んでもよいし、例示した項目の一部を含まなくてもよい。
【0050】
第1の作成部13は、第1の報告書関連データが含む複数の項目の少なくとも一部の内容を、変換部12が作成したテキストを解析して特定する。なお、第1の作成部13は、第1の報告書関連データが含む複数の項目の一部の内容を、変換部12が作成したテキストの解析以外の手法で特定してもよい。以下、上述した項目各々の内容を特定する手法の一例を説明する。なお、以下で説明する例はあくまで一例であり、第1の作成部13は、その他の手法(例えば、AI(Artificial Intelligence)を利用した手法)で上述した項目各々の内容を特定してもよい。
【0051】
「作業日」は、作業が行われた日を示す。例えば、作業者は、作業者端末20の集音機能をオンにした後、「作業日、2021年8月13日」等のように、作業日に関連する所定のキーワード(「作業日」等)を発言するとともに、それに続いて作業日(「2021年8月13日」等)を発言する。この場合、変換部12が作成したテキストの中に、当該発言内容が含まれる。第1の作成部13は、変換部12が作成したテキストの中から、このキーワードと、それに続いて発言された作業日を検出することで、作業日を特定する。
【0052】
その他、取得部11が取得した音声データには、音声が集音された日時を示すタイムスタンプが付与されていてもよい。そして、第1の作成部13は、このタイムスタンプが示す日付を、作業日として特定してもよい。
【0053】
「作業時間」は、作業が行われた時間帯を示す。作業時間は、例えば作業開始時刻及び作業終了時刻で示される。例えば、作業者は、作業者端末20の集音機能をオンにした後、作業開始に関連する所定のキーワード(「作業開始」等)、及び作業終了に関連する所定のキーワード(「作業終了」等)を発言する。この場合、変換部12が作成したテキストの中に、当該発言内容が含まれる。第1の作成部13は、変換部12が作成したテキストの中から、このキーワードを検出する。そして、第1の作成部13は、作業開始に関連するキーワードが発声された時刻を作業開始時刻として特定し、作業終了に関連するキーワードが発声された時刻を作業終了時刻として特定する。
【0054】
「作業場所」は、作業が行われた場所を示す。例えば、作業者は、作業者端末20の集音機能をオンにした後、「作業場所、〇〇地点」等のように、作業場所に関連する所定のキーワード(「作業場所」等)を発言するとともに、それに続いて作業場所(「〇〇地点」等)を発言する。この場合、変換部12が作成したテキストの中に、当該発言内容が含まれる。第1の作成部13は、変換部12が作成したテキストの中から、このキーワードと、それに続いて発言された作業場所を検出することで、作業場所を特定する。
【0055】
「作業者」は、作業を行った者を示す。例えば、作業者は、作業者端末20の集音機能をオンにした後、「作業者、東京太郎、京都花子」等のように、作業者に関連する所定のキーワード(「作業者」等)を発言するとともに、それに続いて作業者(「東京太郎、京都花子」等)を発言する。この場合、変換部12が作成したテキストの中に、当該発言内容が含まれる。第1の作成部13は、変換部12が作成したテキストの中から、このキーワードと、それに続いて発言された作業者を検出することで、作業者を特定する。
【0056】
「詳細」は、作業の内容を示す。例えば、第1の作成部13は、当該欄に、変換部12が作成したテキストの全部又は一部を時系列に並べて表示することができる。
【0057】
また、詳細の欄には、図示するように、複数種類の画像各々を添付する位置が定められていてもよい。図示する例では、「作業前画像」、「作業中画像」及び「作業後画像」各々を添付する位置が定められている。そして、第1の作成部13は、作業者端末20から受信した画像データの中から、複数種類の画像各々を特定し、特定した各種画像を第1の報告書関連データの所定位置に添付してもよい。以下、当該処理の詳細を説明する。
【0058】
まず、作業者端末20は、自端末が備えるカメラ機能に基づく撮影を実行し、画像データを作成する。当該画像データには、タイムスタンプが付与される。例えば、作業者端末20は、作業者からの撮影指示入力があったタイミングで、上記撮影を実行してもよい。撮影指示入力は、作業者端末20が備える物理ボタンやタッチパネル等を介した入力であってもよいし、マイクを介した所定のキーワードの音声入力であってもよいし、カメラを介した所定のジェスチャーの入力であってもよいし、その他であってもよい。そして、作業者端末20は、作成した画像データをデータ処理装置10に送信する。取得部11は、当該画像データを取得する。
【0059】
図5に示すような第1の報告書関連データを作成する場合、作業者は、「作業前」、「作業中」及び「作業後」の各々で作業現場を含むようにカメラの向きを調整し、撮影を行う。また、作業者は、各種画像各々を撮影するタイミングで、各種画像に関連する複数種類の撮影関連キーワード(「作業前画像」、「作業中画像」及び「作業後画像」等)を発言する。この場合、変換部12が作成したテキストの中に、当該発言内容が含まれる。
【0060】
第1の作成部13は、変換部12が作成したテキストの中から、この複数種類の撮影関連キーワードを検出する。そして、第1の作成部13は、複数種類の撮影関連キーワード各々が発声されたタイミング(時刻)を特定し、その特定したタイミング(時刻)に作成された画像データを、各種画像として特定する。例えば、第1の作成部13は、「作業前画像」という撮影関連キーワードが発声されたタイミング(時刻)に作成された画像データを、作業前画像として特定する。
【0061】
なお、「撮影関連キーワードが発声されたタイミング(時刻)に作成された画像データ」は、作業者端末20から受信した複数の画像データの中の、撮影関連キーワードが発声されたタイミング(時刻)に最も近いタイミング(時刻)に撮影された画像データであってもよい。その他、「撮影関連キーワードが発声されたタイミング(時刻)に作成された画像データ」は、作業者端末20から受信した複数の画像データの中の、撮影関連キーワードが発声されたタイミング(時刻)に最も近いタイミング(時刻)に撮影され、かつ、撮影時刻と撮影関連キーワードが発声されたタイミング(時刻)との差が基準時間以内である画像データであってもよい。撮影関連キーワード各々が発声されたタイミング(時刻)や各画像データの撮影時刻は、音声データ及び画像データに付与されたタイムスタンプに基づき特定される。
【0062】
このように、第1の作成部13は、第1の撮影関連キーワードが発声されたタイミングで撮影された画像データを第1の種類の画像データとして特定し、第Nの撮影関連キーワードが発声されたタイミング(Nは2以上の整数)で撮影された画像データを第Nの種類の画像データとして特定することができる。そして、第1の作成部13は、特定した複数種類の画像データ各々を、第1の報告書関連データの中で定められた複数種類の画像各々を添付する位置に添付することができる。なお、第1の報告書関連データに添付する画像データの数は、特段制限されない。
【0063】
「第2の報告書関連データ」
次に、第2の報告書関連データの具体例を説明する。
【0064】
第2の作成部14は、取得部11が取得した音声データが所定条件を満たすとき、第2の報告書関連データを作成する。
【0065】
所定条件は、「取得部11が取得した音声データが、所定の事象の発生を示していること」である。より具体的には、所定条件は、「取得部11が取得した音声データに、所定の第2の報告書関連キーワードが含まれること」である。「第2の報告書関連キーワード」は、「事故発生」、「インシデント発生」等、所定の事象の発生に関連するワードである。
【0066】
第2の作成部14は、取得部11が取得した音声データを解析することで、上記所定条件が満たされるか否かを判断してもよいし、変換部12が作成したテキストを解析することで、上記所定条件が満たされるか否かを判断してもよい。
【0067】
なお、第2の作成部14は、変換部12が作成したテキストの全部でなく、変換部が作成したテキストの中の「発生した所定の事象」に関連する部分のみを利用して、第2の報告書関連データを作成することができる。
【0068】
第2の作成部14は、取得部11が取得した音声データの中の第2の報告書関連キーワードが発声されたタイミングに基づき、第2の報告書関連データの作成に利用する「テキストの一部」を決定する。まず、「第2の報告書関連キーワード」は、「事故発生」、「インシデント発生」等のように、所定の事象の発生に関連するワードと、「事故解決」、「インシデント解決」等のように、所定の事象の解決を示すワードとを含むことができる。そして、第2の作成部14は、所定の事象の発生に関連するワードが発声されたタイミングから、所定の事象の解決を示すワードが発声されたタイミングまでの音声のテキストを、第2の報告書関連データの作成に利用する「テキストの一部」として決定することができる。
【0069】
第2の作成部13は、変換部12が作成したテキストの一部を解析し、解析結果に基づき、予め用意された所定フォーマットに情報を入力して第2の報告書関連データを作成することができる。
【0070】
図6に、第2の報告書関連データの一例を模式的に示す。当該第2の報告書関連データは、「作業日」、「インシデント種」、「発生時刻」、「終了時刻」、「発生場所」、「作業者」、「原因」、「対処」、「画像」の項目を含む。第2の報告書関連データは、その他の項目を含んでもよいし、例示した項目の一部を含まなくてもよい。第2の作成部14は、第2の報告書関連データが含む複数の項目の少なくとも一部の内容を、変換部12が作成したテキストを解析して特定する。なお、第2の作成部14は、第2の報告書関連データが含む複数の項目の一部の内容を、テキストの解析以外の手法で特定してもよい。
【0071】
第2の作成部14は、上述した第1の作成部13による処理と同様の処理で、第2の報告書関連データが含む複数の項目の少なくとも一部の内容を特定することができる。すなわち、第2の作成部14は、テキストの中から所定のキーワードやそれに続くワードを検出したり、タイムスタンプに基づき所定のキーワードが発声されたタイミングを特定したり、特定したタイミングの時刻を特定したり、特定したタイミング(時刻)に撮影された画像データを特定したりすることで、各項目の内容を特定することができる。なお、第2の作成部14は、その他の手法(例えば、AIを利用した手法)で上述した項目各々の内容を特定してもよい。
【0072】
本実施形態のデータ処理装置10及び作業者端末20のその他の構成は、第1の実施形態と同様である。
【0073】
本実施形態のデータ処理装置10及び作業者端末20によれば、第1の実施形態と同様の作用効果が実現される。
【0074】
また、本実施形態のデータ処理装置10及び作業者端末20によれば、例えば図5及び図6に示すように複数の項目を含む所定フォーマットに情報を入力して第1及び第2の報告書関連データを作成することができる。作業者は、このような複数の項目の情報が埋められた第1及び第2の報告書関連データを利用することで、より効率的に第1及び第2の報告書を作成することができる。
【0075】
<第3の実施形態>
本実施形態のシステム1は、作業者端末20に情報を出力させる機能を有する。
【0076】
図7に、データ処理装置10の機能ブロック図の一例を示す。図示するように、本実施形態のデータ処理装置10は、監視部15及び出力部16をさらに有する点で、第1及び第2の実施形態のデータ処理装置10と異なる。
【0077】
監視部15は、作業者の状況を監視する。例えば、作業者が線路上で作業を行っている場合、監視部15は、作業者の位置と、列車の位置との位置関係を監視する。そして、監視部15は、列車が作業者に接近していることを検知する。
【0078】
「作業者の位置の監視について」
作業者の位置の監視は、あらゆる技術を利用して実現できる。例えば、以下のような手段が考えられる。なお、以下の例示はあくまで一例であり、これに限定されない。
【0079】
-作業者位置取得例1-
複数の作業者端末20各々は、現在位置を示す位置情報を取得する位置情報取得機能(GPS(global positioning system)機能等)を備える。そして、データ処理装置10は、複数の作業者端末20各々が取得した当該位置情報を取得する。監視部15は、当該位置情報に基づき、各作業者端末20を所持している作業者の位置を特定する。
【0080】
-作業者位置取得例2-
線路上には複数の監視カメラが設置される。そして、データ処理装置10は、複数の監視カメラ各々が作成した画像を取得する。監視部15は、当該画像を解析し、作業者がどの監視カメラが作成した画像に含まれるかを特定することで、作業者の位置を特定する。この場合、予め、複数の作業者各々の外観の特徴量がデータ処理装置10に登録されている。そして、監視部15は、当該特徴量を備える人物を画像の中から検出することで、作業者の検出を実現する。
【0081】
「列車の位置の監視について」
列車の位置の監視は、あらゆる技術を利用して実現できる。例えば、以下のような手段が考えられる。なお、以下の例示はあくまで一例であり、これに限定されない。
【0082】
-列車位置取得例1-
複数の列車各々は、現在位置を示す位置情報を取得する位置情報取得機能(GPS(global positioning system)機能等)を備える。そして、データ処理装置10は、複数の列車各々が取得した当該位置情報を取得する。監視部15は、当該位置情報に基づき、各列車の位置を特定する。
【0083】
-列車位置取得例2-
監視部15は、複数の列車各々の運行スケジュールを保持する。この運行スケジュールでは、何時何分にどの駅を出発し、何時何分にどの駅に到着するかが示される。監視部15は、この運行スケジュールと、列車の線路の位置を示すマップと、列車の標準速度とに基づき、各列車の現在の位置を推定する。
【0084】
-列車位置取得例3-
監視部15は、列車接近警報装置の出力状態に基づき、列車の接近(位置)を検出する。列車接近警報装置は、線路上(踏切やその他の箇所)に常設されている装置であり、ライトの点灯状態/点滅状態や、出力音等により、列車の接近状態や非接近状態等を周囲に周知する装置である。列車接近警報装置の構成は特段制限されず、あらゆる構成を採用できる。
【0085】
当該例の場合、データ処理装置10は、列車接近警報装置の出力状態を示す情報を取得し、その情報に基づき列車の接近(位置)を特定する機能を備える。例えば、データ処理装置10は、列車接近警報装置と通信可能に接続され、列車接近警報装置から出力状態を示す情報を取得してもよい。その他、複数の列車接近警報装置各々の出力状態を監視する監視サーバが設けられている場合、データ処理装置10は、当該監視サーバから、作業現場の近くに設置された列車接近警報装置の出力状態を示す情報を取得してもよい。その他、作業の度に、作業現場の近くに設置された列車接近警報装置の出力状態を監視する状態監視装置が、その列車接近警報装置の周辺に設置されてもよい。状態監視装置は、列車接近警報装置のライトの点灯状態/点滅状態等を撮影するカメラや、列車接近警報装置から出力された音声を集音するマイク等である。そして、データ処理装置10は、カメラが生成した画像や、マイクが生成した音声データを解析することで、列車接近装置の出力状態を特定してもよい。
【0086】
「作業者と列車の接近の検知について」
例えば、監視部15は、「作業者の位置と列車の位置との間の距離が閾値以下になった状況」を、「列車が接近している状況」として検知してもよい。その他、監視部15は、「作業者の位置と列車の位置との間の距離が閾値以下であり、かつ当該距離が時間とともに小さくなっている状況」を、「列車が接近している状況」として検知してもよい。その他、監視部15は、作業現場の近くに設置された列車接近警報装置の出力状態が列車の接近(位置)を示していることを検出することで、作業者と列車の接近を検知してもよい。
【0087】
出力部16は、監視部15により「列車が接近している状況」が検知された場合、列車が接近していることを示す警告情報を作業者端末20に送信し、出力させる。作業者端末20は、当該警告情報を出力する。作業者端末20は、ディスプレイに警告情報を表示したり、スピーカから警告情報を出力したり、警告ランプを点灯したり、バイブレーションを起動したりすることで、警告情報を出力することができる。
【0088】
ディスプレイやスピーカから出力する警告情報としては、例えば、「上り列車、〇〇駅発車、〇〇秒後到着予定」、「上り列車、○○秒後到達予定、退避の準備をしてください」、「上り列車、○○秒後到達予定、退避してください」、「下り列車、○○駅発車、秒後到達予定」、「下り列車、〇〇秒後到達予定、退避の準備をしてください」、「下り列車、○○秒後到達予定、退避してください」等が例示される。
【0089】
なお、作業者と列車との距離に応じて、警告情報の内容を変更してもよい。例えば、以下の例が考えられる。
【0090】
作業者と列車との距離がW1以下W2以上の時の警告情報:「上り列車、〇〇駅発車、〇〇秒後到着予定」又は「下り列車、○○駅発車、秒後到達予定」
【0091】
作業者と列車との距離がW2未満W3以上の時の警告情報:「上り列車、○○秒後到達予定、退避の準備をしてください」又は「下り列車、○○秒後到達予定、退避の準備をしてください」
【0092】
作業者と列車との距離がW3未満W4以上の時の警告情報:「上り列車、○○秒後到達予定、退避してください」又は「下り列車、○○秒後到達予定、退避してください」
【0093】
その他、出力部16は、変換部12が作成したテキストを作業者端末20に送信し、出力させてもよい。作業者端末20は、ディスプレイに当該テキストを表示させる。作業者端末20は、作業者の操作に応じて、当該テキストをディスプレイに表示してもよい。このようにすれば、作業者端末20は、作業者が確認したいタイミングで、当該テキストをディスプレイに表示することができる。
【0094】
なお、ここまでは、データ処理装置10が、列車の現在位置と作業者の現在位置とに基づき列車と作業者との接近を検出した。変形例として、作業者端末20各々が、当該検出を行い、検出結果に基づき警告情報を出力してもよい。この場合、各作業者端末20は、上述した手法で列車の位置及び自端末(作業者端末20)の位置を把握し、その結果に基づき列車と作業者との接近を検出する。
【0095】
本実施形態のデータ処理装置10及び作業者端末20のその他の構成は、第1及び第2の実施形態と同様である。
【0096】
本実施形態のデータ処理装置10及び作業者端末20によれば、第1及び第2の実施形態と同様の作用効果が実現される。
【0097】
また、本実施形態のデータ処理装置10及び作業者端末20によれば、作業者に有益な情報を提供することができる。例えば、線路上で作業する作業者に向けて、列車が接近していることを示す警告情報を提供することができる。この警告情報に基づき、作業者は、列車の接近を把握できる。当該機能を利用することで、列車の接近を監視する監視員を作業現場に配置しなくてすむ。
【0098】
<変形例>
次に、第1乃至第3の実施形態に適用可能な変形例を説明する。当該変形例を採用しても、上記実施形態と同様の作用効果が実現される。
【0099】
「変形例1」
予め各作業者の音声情報を登録しておく。音声情報は、声紋を含む。データ処理装置10は、当該音声情報を利用して、音声データに含まれる発言各々の発言者を特定する。そして、データ処理装置10は、各発言の発言者をさらに示す第1の報告書関連データ及び/又は第2の報告書関連データを作成する。
【0100】
なお、最初の作業の時に各作業者の音声情報が登録されると、その作業者の識別情報とその音声情報を紐付けて記憶装置に記憶し続けてもよい。そして、2回目以降の作業の時には、その記憶されている情報の中から、所定の作業者の音声情報が取得されてもよい。
【0101】
「変形例2」
各作業者端末20を所持する作業者を示す情報がデータ処理装置10に登録される。データ処理装置10は、当該情報を利用して、音声データに含まれる発言各々の発言者を特定する。各作業者の発言内容は、各作業者が所持する作業者端末20で作成された音声データに含まれる。そして、データ処理装置10は、各発言の発言者をさらに示す第1の報告書関連データ及び/又は第2の報告書関連データを作成する。
【0102】
「変形例3」
予め各作業者の音声情報を登録しておく。音声情報は、各作業者の声の周波数帯を含む。データ処理装置10は、当該音声情報で示される周波数帯以外の周波数成分を除去する(ノイズカット)。そして、データ処理装置10は、当該音声情報で示される周波数帯の成分に対し音声認識処理を実行し、テキストを作成する。
【0103】
なお、最初の作業の時に各作業者の音声情報が登録されると、その作業者の識別情報とその音声情報を紐付けて記憶装置に記憶し続けてもよい。そして、2回目以降の作業の時には、その記憶されている情報の中から、所定の作業者の音声情報が取得されてもよい。
【0104】
なお、本明細書において、「取得」とは、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置が他の装置や記憶媒体に格納されているデータを取りに行くこと(能動的な取得)」、たとえば、他の装置にリクエストまたは問い合わせして受信すること、他の装置や記憶媒体にアクセスして読み出すこと等、および、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置に他の装置から出力されるデータを入力すること(受動的な取得)」、たとえば、配信(または、送信、プッシュ通知等)されるデータを受信すること、また、受信したデータまたは情報の中から選択して取得すること、及び、「データを編集(テキスト化、データの並び替え、一部データの抽出、ファイル形式の変更等)などして新たなデータを作成し、当該新たなデータを取得すること」の少なくともいずれか一方を含む。
【0105】
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 音声データを取得する取得手段と、
前記音声データに含まれる音声をテキストに変換する変換手段と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段と、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成手段と、
を有するデータ処理装置。
2. 前記所定条件は、所定の第2の報告書関連キーワードが含まれることである1に記載のデータ処理装置。
3. 前記第2の作成手段は、
前記テキストの一部に基づき前記第2の報告書関連データを作成し、
前記音声データの中の前記第2の報告書関連キーワードが発声されたタイミングに基づき、前記第2の報告書関連データの作成に利用する前記テキストの一部を決定する2に記載のデータ処理装置。
4. 前記取得手段は、画像データをさらに取得し、
前記音声データ及び前記画像データにはタイムスタンプが付与されており、
前記第1の作成手段は、
前記音声データの中から所定の複数種類の撮影関連キーワードを検出し、前記複数種類の撮影関連キーワード各々が発声されたタイミングで撮影された前記画像データを、前記タイムスタンプに基づき特定し、特定した前記画像データをさらに用いて前記第1の報告書関連データを作成する1から3のいずれかに記載のデータ処理装置。
5. 前記第1の報告書関連データでは、複数種類の画像各々を添付する位置が定められており、
前記第1の作成手段は、
第1の撮影関連キーワードが発声されたタイミングで撮影された画像データを第1の種類の画像データとして特定し、第N(Nは2以上の整数)の撮影関連キーワードが発声されたタイミングで撮影された画像データを第Nの種類の画像データとして特定し、
特定した複数種類の画像データ各々を、前記第1の報告書関連データの中で定められた複数種類の画像各々を添付する位置に添付する4に記載のデータ処理装置。
6. 作業者が装着する作業者端末に情報を送信し、出力させる出力手段をさらに有する1から5のいずれかに記載のデータ処理装置。
7. 前記作業者は、線路上で作業を行い、
前記出力手段は、列車が接近していることを示す警告情報を前記作業者端末に送信する6に記載のデータ処理装置。
8. 前記出力手段は、前記テキストを前記作業者端末に送信する6又は7に記載のデータ処理装置。
9. コンピュータが、
音声データを取得する取得工程と、
前記音声データに含まれる音声をテキストに変換する変換工程と、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成工程と、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成工程と、
を実行するデータ処理方法。
10. コンピュータを、
音声データを取得する取得手段、
前記音声データに含まれる音声をテキストに変換する変換手段、
前記テキストの一部又は全部を時系列に並べた第1の報告書関連データを作成する第1の作成手段、
前記音声データが所定条件を満たすとき、前記テキストに基づき第2の報告書関連データを作成する第2の作成手段、
として機能させるプログラム。
【符号の説明】
【0106】
1 システム
10 データ処理装置
11 取得部
12 変換部
13 第1の作成部
14 第2の作成部
15 監視部
16 出力部
20 作業者端末
1A プロセッサ
2A メモリ
3A 入出力I/F
4A 周辺回路
5A バス
図1
図2
図3
図4
図5
図6
図7