IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特開2024-142584学習支援装置、学習支援システム、学習支援方法、およびプログラム
<>
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図1
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図2
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図3
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図4
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図5
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図6
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図7
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図8
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図9
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図10
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図11
  • 特開-学習支援装置、学習支援システム、学習支援方法、およびプログラム 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024142584
(43)【公開日】2024-10-11
(54)【発明の名称】学習支援装置、学習支援システム、学習支援方法、およびプログラム
(51)【国際特許分類】
   G09B 9/00 20060101AFI20241003BHJP
   G06Q 50/20 20120101ALI20241003BHJP
【FI】
G09B9/00 Z
G06Q50/20
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023054785
(22)【出願日】2023-03-30
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100109313
【弁理士】
【氏名又は名称】机 昌彦
(74)【代理人】
【識別番号】100149618
【弁理士】
【氏名又は名称】北嶋 啓至
(72)【発明者】
【氏名】西塚 純一
(72)【発明者】
【氏名】高橋 誠
(72)【発明者】
【氏名】林田 知之
(72)【発明者】
【氏名】眞崎 泰成
(72)【発明者】
【氏名】細井 麻帆
(72)【発明者】
【氏名】長谷川 元美
【テーマコード(参考)】
5L049
5L050
【Fターム(参考)】
5L049CC34
5L050CC34
(57)【要約】
【課題】 学習者が触感を使って、作業を効果的に習得可能にするための技術を提供する。
【解決手段】
観測部(11)は、作業者の触感を観測し、取得部(12)は、作業者の視界を撮影して得られた画像を取得し、生成部(13)は、作業者の視界、および作業者の触感を、模擬的に再現するための情報を生成する。
【選択図】 図3
【特許請求の範囲】
【請求項1】
作業者の触感を観測する観測手段と、
前記作業者の視界を撮影して得られた画像を取得する取得手段と、
前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成する生成手段と
を備えた学習支援装置。
【請求項2】
前記取得手段は、前記作業者が操縦する機械から、前記作業者の触感を示す情報を取得する
ことを特徴とする請求項1に記載の学習支援装置。
【請求項3】
前記取得手段は、前記作業者に装着された触覚センサから、前記作業者の触感を示す情報を取得する
ことを特徴とする請求項1に記載の学習支援装置。
【請求項4】
前記生成手段は、推定された前記作業者の操作と、予め登録された模範的な作業者の操作とを比較して、両者の操作が相違する場合、警報を出力する
ことを特徴とする請求項1に記載の学習支援装置。
【請求項5】
前記生成手段は、
前記作業者の熟練度を示す情報を取得し、
前記両者の操作のパターンの類似度が、前記作業者の熟練度に応じた閾値を下回る場合、前記警報を出力する
ことを特徴とする請求項4に記載の学習支援装置。
【請求項6】
前記取得手段は、前記作業者の動きを撮影して得られた映像をさらに取得し、
前記作業者の動きを撮影して得られた映像を分析することにより、前記作業者の操作を推定する推定手段をさらに備え、
前記生成手段は、推定された前記作業者の操作を模擬的に再現するための情報をさらに生成する
ことを特徴とする請求項1から5のいずれか1項に記載の学習支援装置。
【請求項7】
前記作業者が操縦する機械の動作を検出する検出手段をさらに備え、
前記生成手段は、前記作業者の視界および前記作業者の感覚に加えて、前記機械の動作を模擬的に再現するための情報をさらに生成する
ことを特徴とする請求項1から5のいずれか1項に記載の学習支援装置。
【請求項8】
作業者の触感を観測するためのセンサと、
前記作業者の視界を撮影する視界撮影装置と、
学習支援装置と、を備え、
前記学習支援装置は、
前記センサを用いて、前記作業者の触感を観測し、
前記視界撮影装置から、前記作業者の視界を撮影して得られた画像を取得し、
前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成する
学習支援システム。
【請求項9】
コンピュータが、
作業者の触感を観測し、
前記作業者の視界を撮影して得られた画像を取得し、
前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成する
学習支援方法。
【請求項10】
作業者の触感を観測することと、
前記作業者の視界を撮影して得られた画像を取得することと、
前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成することと
をコンピュータに実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習者が、熟練の作業者による作業のやり方を学習することを支援するための技術に関する。
【背景技術】
【0002】
現在、建設業や農業では、経験豊富な熟練の作業者によって、建設作業や農作業が行われている。後の世代に技術を継承するために、熟練の作業者による作業に関わるデータを取得し、取得したデータを保存する取り組みが行われている。
【0003】
例えば、特許文献1および特許文献2には、熟練の作業者の動きおよび視界をカメラで撮影することにより得られた画像データを用いて、作業者の姿勢および状態を推定することが記載されている。
【0004】
特許文献3には、ウェアラブル端末を用いて、作業者の視界を画像として再現することが記載されている。特許文献4には、ヘッドマウントディスプレイの画面上に、術者の視界を3D画像として表示することにより、術者の視界を他者と共有できるようにすることが記載されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2004-240264号公報
【特許文献2】特開2022-153717号公報
【特許文献3】特開2017-191490号公報
【特許文献4】特開2020-014160号公報
【特許文献5】特開2019-020670号公報
【特許文献6】特開2020-173326号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
作業の中には、作業者が感じ取る振動、摩擦、反発力などの触感が、特に重要であるものがある。具体的には、木工、陶芸、研磨、金属加工、および、農機や建機の運転などの作業などである。特許文献3または特許文献4に記載の関連する技術では、学習者は、作業者の触感を体感することはできないため、技術を効果的に習得することが難しい場合がある。
【0007】
本発明は、上記の課題に鑑みてなされたものであり、その目的は、学習者が触感を使って、作業を効果的に習得可能にするための技術を提供することにある。
【課題を解決するための手段】
【0008】
本発明の一態様に係る学習支援装置は、作業者の触感を観測する観測手段と、前記作業者の視界を撮影して得られた画像を取得する取得手段と、前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成する生成手段とを備えている。
【0009】
本発明の一態様に係る学習支援システムは、作業者の触感を観測するためのセンサと、前記作業者の視界を撮影する視界撮影装置と、学習支援装置と、を備え、前記学習支援装置は、前記センサを用いて、前記作業者の触感を観測し、前記視界撮影装置から、前記作業者の視界を撮影して得られた画像を取得し、前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成する。
【0010】
本発明の一態様に係る学習支援方法では、コンピュータが、作業者の触感を観測し、前記作業者の視界を撮影して得られた画像を取得し、前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成する。
【0011】
本発明の一態様に係るプログラムは、作業者の触感を観測することと、前記作業者の視界を撮影して得られた画像を取得することと、前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成することとをコンピュータに実行させる。
【発明の効果】
【0012】
本発明の一態様によれば、学習者が作業を効果的に習得することができる。
【図面の簡単な説明】
【0013】
図1】実施形態1に係る学習支援システムの構成を概略的に示す図である。
図2】実施形態1に係る学習支援システムの一変形例の構成を示す図である。
図3】実施形態2に係る学習支援装置の構成を示すブロック図である。
図4】実施形態2に係る学習支援装置の動作を示すフローチャートである。
図5】実施形態3に係る学習支援システムの構成を概略的に示す図である。
図6】実施形態3に係る学習支援システムの一変形例の構成を示す図である。
図7】実施形態3に係る学習支援装置の構成を示すブロック図である。
図8】実施形態3に係る学習支援装置の動作を示すフローチャートである。
図9】実施形態4に係る学習支援システムの構成を概略的に示す図である。
図10】実施形態4に係る学習支援装置の構成を示すブロック図である。
図11】実施形態4に係る学習支援装置の動作を示すフローチャートである。
図12】実施形態1~4のいずれかに係る学習支援装置のハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0014】
〔実施形態1〕
図1図2を参照して、実施形態1について説明する。
【0015】
(学習支援システム1)
図1を参照して、本実施形態1に係る学習支援システム1の構成を説明する。図1は、学習支援システム1の構成を概略的に示す図である。
【0016】
図1に示すように、学習支援システム1は、作業者の触感を観測するためのセンサ100と、作業者の視界を撮影する視界撮影装置200と、学習支援装置10(20,30)と、を備えている。ここで、「学習支援装置10(20,30)」は、実施形態2~4に係る学習支援装置10,20,30のいずれかを表す。
【0017】
センサ100は、例えば、作業者の手に装着されるハプティクスセンサである。他の一例では、センサ100は、作業者の身体に取り付けられるモーションセンサである。さらに他の一例では、センサ100は、操縦者(作業者の一例である)が運転および操作する機械(建機や農機など)のハンドル、レバー、あるいはボタン等に、設置されてもよい。
【0018】
センサ100は、作業者の触感を示すセンサデータを、学習支援装置10(20,30)へ送信する。
【0019】
視界撮影装置200は、例えば、作業者の顔(特に、目の付近)に装着される。あるいは、視界撮影装置200は、操縦者(作業者の一例である)が運転および操作する機械の運転席付近に、設置されてもよい。この場合、視界撮影装置200の画角が操縦者の視界を含むように、視界撮影装置200の角度および向きが調整される。そして、視界撮影装置200は、操縦者が運転および操作する機械に固定される。
【0020】
視界撮影装置200は、作業者の視界を撮影することによって得られた画像データを、学習支援装置10(20,30)へ送信する。
【0021】
学習支援装置10(20,30)は、センサ100から、作業者の触感を示すセンサデータを受信する。学習支援装置10(20,30)は、センサ100を用いて、作業者の触感を観測する。
【0022】
また、学習支援装置10(20,30)は、視界撮影装置200から、作業者の視界を撮影して得られた画像データを取得する。
【0023】
学習支援装置10(20,30)は、作業者の触感を示すセンサデータ、および、作業者の視界を撮影して得られた画像データを用いて、作業者の視界、および作業者の触感を、模擬的に再現するための情報を生成する。
【0024】
例えば、学習支援装置10(20,30)は、作業者の視界を撮影して得られた画像データから、作業者の視界と対応する3D画像データを生成する。また、学習支援装置10(20,30)は、作業者の触感を示すセンサデータを用いて、作業者が触覚により知覚した振動、抵抗、および反発力などの力を機械的または電気的に再現するための情報を生成する。
【0025】
学習支援装置10(20,30)は、作業者の視界、および作業者の触感を、模擬的に再現するための情報を、図示しない記憶装置に保存する。あるいは、後述する実施形態3または実施形態4で説明するように、学習支援装置10(20,30)は、作業者の視界を表す画像データを、シミュレータ400(図5)へ送信してもよい。
【0026】
(変形例)
図2を参照して、本実施形態1に係る学習支援システム1の一変形例を説明する。図2は、学習支援システム1の一変形例である学習支援システム1Aの構成を概略的に示す図である。
【0027】
図2に示すように、学習支援システム1Aは、作業者の触感を観測するためのセンサ100と、作業者の視界を撮影する視界撮影装置200と、学習支援装置10(20,30)と、を備えている。学習支援システム1Aは、作業者の動きを撮影する動き撮影装置300をさらに備えている。
【0028】
動き撮影装置300は、作業者の身体または骨格の動きを撮影可能であれば、どこに設置されてもよい。例えば、動き撮影装置300は、作業者の頭上に設置される。例えば、動き撮影装置300は、360度カメラまたは監視カメラである。
【0029】
動き撮影装置300は、作業者の動きを撮影することによって得られた画像データを、学習支援装置10(20,30)へ送信する。
【0030】
学習支援装置10(20,30)は、動き撮影装置300から、作業者の動きを撮影して得られた画像データを取得する。
【0031】
学習支援装置10(20,30)は、動き撮影装置300が撮影した画像を分析することにより、作業者の操作を推定する。そして、学習支援装置10(20,30)は、推定された作業者の操作を示す情報を出力する。
【0032】
(本実施形態の効果)
本実施形態の構成によれば、センサ100は、作業者の触感を観測する。視界撮影装置200は、作業者の視界を撮影する。学習支援装置10(20,30)は、センサ100を用いて、作業者の触感を観測し、視界撮影装置200から、作業者の視界を撮影して得られた画像を取得し、作業者の視界、および作業者の触感を、模擬的に再現するための情報を生成する。
【0033】
このようにして、センサ100および視界撮影装置200によって、作業者から収集されたデータを用いて、作業者の視界と触感とを模擬的に再現することができる。学習者は、模擬的に再現された作業者の視界と触感とから、作業者の触感を体感することができる。これにより、学習者が作業を効果的に習得することができる。
【0034】
〔実施形態2〕
図3図4を参照して、実施形態2について説明する。
【0035】
(学習支援装置10の構成)
図3を参照して、本実施形態2に係る学習支援装置10の構成を説明する。図3は、学習支援装置10の構成を示すブロック図である。
【0036】
図3に示すように、学習支援装置10は、観測部11、取得部12、および生成部13を備えている。
【0037】
観測部11は、作業者の触感を観測する。観測部11は、観測手段の一例である。
【0038】
例えば、観測部11は、前記実施形態1に係る学習支援システム1のセンサ100(図1または図2)から、作業者の触感を観測することによって得られたセンサデータを取得する。観測部11は、受信したセンサデータを、生成部13へ出力する。
【0039】
取得部12は、作業者の視界を撮影して得られた画像を取得する。取得部12は、取得手段の一例である。
【0040】
例えば、取得部12は、前記実施形態1に係る学習支援システム1の視界撮影装置200(図1または図2)から、作業者の視界を撮影することによって得られた画像データを取得する。
【0041】
取得部12は、作業者が操縦(運転および操作)する機械から、作業者の触感を示す情報を取得してもよい。あるいは、取得部12は、作業者に装着された触覚センサから、作業者の触感を示す情報を取得してもよい。
【0042】
取得部12は、受信した画像データを、生成部13へ出力する。
【0043】
生成部13は、作業者の視界、および作業者の触感を、模擬的に再現するための情報を生成する。生成部13は、生成手段の一例である。
【0044】
例えば、生成部13は、観測部11から、作業者の触感を観測することによって得られたセンサデータを受信する。また、生成部13は、取得部12から、作業者の視界を撮影することによって得られた画像データを受信する。
【0045】
生成部13は、作業者の触感を観測することによって得られたセンサデータを用いて、作業者の触感を模擬的に再現するための情報を生成する。作業者の触感を模擬的に再現するための情報とは、作業者が触覚により知覚した振動、抵抗、および反発力などの力を、機械的または電気的に再現するための情報である。
【0046】
例えば、作業者の触感を模擬的に再現するための情報は、作業者の手あるいは身体に対して加えられた振動を表す時系列データである。
【0047】
また、生成部13は、作業者の視界を撮影することによって得られた画像データを用いて、作業者の視界を模擬的に再現するための情報を生成する。例えば、作業者の視界を模擬的に再現するための情報は、作業者の視界と対応する3D画像データである。
【0048】
生成部13は、推定された作業者の操作と、予め登録された模範的な作業者の操作とを比較して、両者の操作が相違する場合、警報を出力してもよい。あるいは、生成部13は、作業者の熟練度を示す情報を取得する。そして、推定された作業者の操作のパターンと、予め登録された模範的な作業者の操作のパターンとの類似度が、作業者の熟練度に応じた閾値を下回る場合、警報を出力してもよい。
【0049】
生成部13は、作業者の触感を模擬的に再現するための情報、および、作業者の視界を模擬的に再現するための情報を、図示しない記憶装置に保存する。あるいは、後述する実施形態3または実施形態4で説明するように、生成部13は、作業者の触感を模擬的に再現するための情報、および、作業者の視界を模擬的に再現するための情報を、シミュレータ400(図5または図8)へ送信してもよい。
【0050】
(学習支援装置10の動作)
図4を参照して、本実施形態2に係る学習支援装置10の動作について説明する。図4は、学習支援装置10の動作を示すフローチャートである。
【0051】
図4に示すように、観測部11は、作業者の触感を観測する(S101)。例えば、観測部11は、センサ100(図1または図2)から、作業者の触感を観測することによって得られたセンサデータを受信する。観測部11は、受信したセンサデータを、生成部13へ出力する。
【0052】
取得部12は、作業者の視界を撮影して得られた画像を取得する(S102)。取得部12は、取得した画像データを、生成部13へ出力する。
【0053】
生成部13は、観測部11から、作業者の触感を観測することによって得られたセンサデータを受信する。また、生成部13は、取得部12から、作業者の視界を撮影することによって得られた画像データを受信する。
【0054】
そして、生成部13は、作業者の視界、および作業者の触感を、模擬的に再現するための情報を生成する(S103)。
【0055】
以上で、本実施形態2に係る学習支援装置10の動作は終了する。
【0056】
(本実施形態の効果)
本実施形態の構成によれば、観測部11は、作業者の触感を観測する。取得部12は、作業者の視界を撮影して得られた画像を取得する。生成部13は、作業者の視界、および作業者の触感を、模擬的に再現するための情報を生成する。
【0057】
このようにして、作業者から収集されたデータを用いて、作業者の視界と触感とを模擬的に再現することができる。学習者は、模擬的に再現された作業者の視界と触感とから、作業者の触感を体感することができる。これにより、学習者が作業を効果的に習得することができる。
【0058】
〔実施形態3〕
図5図8を参照して、実施形態3について説明する。本実施形態3では、前記実施形態1~2において説明した学習支援装置10(20,30)を、学習者が機械の操作を習得するために利用する構成を説明する。
【0059】
本実施形態3では、前記実施形態1~2と共通する構成要素に対して、前記実施形態1~2と同じ符号を付して、それらの構成要素に関して、前記実施形態1~2における説明を引用して、その説明を省略する。
【0060】
(学習支援システム2)
図5を参照して、本実施形態3に係る学習支援システム2の構成を説明する。図5は、学習支援システム2の構成を概略的に示す図である。
【0061】
図6に示すように、学習支援システム2は、機械の操縦者(作業者の一例)の触感を観測するためのセンサ100と、操縦者の視界を撮影する視界撮影装置200と、学習支援装置10(20,30)と、を備えている。ここで、「学習支援装置10(20,30)」は、実施形態2~4に係る学習支援装置10,20,30のいずれかを表す。
【0062】
学習支援システム2は、シミュレータ400をさらに備えている。シミュレータ400は、学習支援装置10(20,30)によって予め登録された熟練の操縦者による機械の操作を、模擬的に再現する。シミュレータ400は、操縦者による機械の操作を、学習者が習得するために使用される。
【0063】
図5に示すように、シミュレータ400は、視界再現装置410および触感再現装置420を備えている。
【0064】
視界再現装置410は、学習支援装置10(20,30)から、操縦者の視界を模擬的に再現するための情報を受信する。例えば、操縦者の視界を模擬的に再現するための情報は、機械の操縦者の視界と対応する3D画像データである。
【0065】
視界再現装置410は、機械の操縦者の視界と対応する3D画像データを用いて、操縦者の視界を模擬的に再現する。例えば、視界再現装置410は、学習者が装着するヘッドマウントディスプレイの画面上に、機械の操縦者の視界と対応する3D画像データを表示する。
【0066】
触感再現装置420は、学習支援装置10(20,30)から、操縦者の視界を模擬的に再現するための情報を受信する。操縦者の視界を模擬的に再現するための情報とは、作業者が触覚により知覚した振動、抵抗、および反発力などの力を、機械的または電気的に再現するための情報である。
【0067】
触感再現装置420は、操縦者の視界を模擬的に再現するための情報を用いて、操縦者の触感を模擬的に再現する。例えば、触感再現装置420は、学習者が接触しているバイブレータに、操縦者の触感に対応する振動を発生させる。
【0068】
(変形例)
図6を参照して、本実施形態3に係る学習支援システム2の一変形例を説明する。図6は、学習支援システム2の一変形例である学習支援システム2Aの構成を概略的に示す図である。
【0069】
図6に示すように、学習支援システム2Aは、操縦者の触感を観測するためのセンサ100と、操縦者の視界を撮影する視界撮影装置200と、学習支援装置20とを備えている。学習支援システム2Aは、操縦者の動きを撮影する動き撮影装置300をさらに備えている。
【0070】
動き撮影装置300は、操縦者の身体または骨格の動きを撮影可能であれば、どこに設置されてもよい。例えば、動き撮影装置300は、操縦者の頭上に設置される。例えば、動き撮影装置300は、360度カメラまたは監視カメラである。
【0071】
動き撮影装置300は、操縦者の動きを撮影することによって得られた画像データを、学習支援装置20へ送信する。
【0072】
学習支援装置20は、動き撮影装置300から、操縦者の動きを撮影して得られた画像データを取得する。
【0073】
学習支援装置20は、動き撮影装置300が撮影した画像データを分析することにより、操縦者の操作を推定する。そして、学習支援装置20は、推定された操縦者の操作を模擬的に再現するための情報を、シミュレータ400へ送信する。
【0074】
図5に示すように、シミュレータ400は、視界再現装置410および触感再現装置420を備えている。シミュレータ400は、操作再現装置430をさらに備えている。
【0075】
操作再現装置430は、学習支援装置20が生成した、操縦者の操作を模擬的に再現するための情報を用いて、操縦者の操作を模擬的に再現する。例えば、操作再現装置430は、操縦者が機械に対して行った、レバー操作、ハンドル操作、ペダル操作、ボタンの押下などの操作に基づく動作を、別の機械(バーチャルマシンを含む)に実行させる。あるいは、操作再現装置430は、操縦者が機械に対して行った操作の内容を、学習者が装着するスマートグラスやヘッドマウントディスプレイの画面上に表示してもよい。
【0076】
学習支援装置20の構成および動作について、以下で詳細に説明する。
【0077】
(学習支援装置20の構成)
図7を参照して、本実施形態3に係る学習支援装置20の構成を説明する。図7は、学習支援装置20の構成を示すブロック図である。
【0078】
図7に示すように、学習支援装置20は、観測部11、取得部12、および生成部13を備えている。学習支援装置20は、推定部24をさらに備えている。
【0079】
取得部12は、機械の操縦者の視界を撮影して得られた画像を取得する。また、取得部12は、操縦者の動きを撮影して得られた映像(動画)をさらに取得する。取得部12は、操縦者の動きを撮影して得られた映像を、推定部24へ出力する。
【0080】
推定部24は、取得部12から、操縦者の動きを撮影して得られた映像を受信する。推定部24は、操縦者の動きを撮影して得られた映像を分析することにより、操縦者の操作を推定する。推定部24は、推定手段の一例である。
【0081】
例えば、推定部24は、操縦者の動きに基づいて、操縦者がレバー操作、ハンドル操作、ペダル操作、ボタンの押下、あるいはその他の操作を行ったことを推定する。推定部24は、推定された操縦者の操作を示す情報を、生成部13へ出力する。
【0082】
生成部13は、推定部24から、推定された操縦者の操作を示す情報を受信する。生成部13は、推定された操縦者の操作を示す情報に基づいて、操縦者の操作を模擬的に再現するための情報をさらに生成する。操縦者の操作を模擬的に再現するための情報は、例えば、学習者が装着したパワードスーツのアクチュエータを駆動するための電気信号である。
【0083】
生成部13は、操作者の操作を模擬的に再現するための情報を、図示しない記憶装置に保存する。また、生成部13は、作業者の操作を模擬的に再現するための情報を、学習支援システム2Aのシミュレータ400(図6)へ送信する。シミュレータ400は、視界再現装置410および触感再現装置420と、学習者が装着したパワードスーツとを連動させる。これにより、操縦者の視界および触感と同時に、操縦者の操作が模擬的に再現される。
【0084】
(学習支援装置20の動作)
図8を参照して、本実施形態3に係る学習支援装置20の動作について説明する。図8は、学習支援装置20の動作を示すフローチャートである。
【0085】
図8に示すように、観測部11は、作業者の触感を観測する(S201)。例えば、観測部11は、センサ100(図6)から、作業者の触感を観測することによって得られたセンサデータを受信する。観測部11は、受信したセンサデータを、生成部13へ出力する。
【0086】
取得部12は、作業者の視界を撮影して得られた画像を取得する(S202)。取得部12は、取得した画像データを、生成部13へ出力する。
【0087】
また、取得部12は、操縦者の動きを撮影して得られた映像(動画)をさらに取得する(S203)。取得部12は、操縦者の動きを撮影して得られた映像を、推定部24へ出力する。
【0088】
推定部24は、取得部12から、操縦者の動きを撮影して得られた映像を受信する。推定部24は、操縦者の動きを撮影して得られた映像を分析することにより、操縦者の操作を推定する(S204)。
【0089】
推定部24は、推定された操縦者の操作を示す情報を、生成部13へ出力する。
【0090】
生成部13は、観測部11から作業者の触感を観測することによって得られたセンサデータを受信する。また、生成部13は、取得部12から、作業者の視界を撮影することによって得られた画像データを受信する。
【0091】
そして、生成部13は、作業者の視界、および作業者の触感を、模擬的に再現するための情報を生成する(S205)。
【0092】
また、生成部13は、推定部24から、推定された操縦者の操作を示す情報を受信する。生成部13は、推定された操縦者の操作を示す情報に基づいて、操縦者の操作を模擬的に再現するための情報をさらに生成する(S206)。
【0093】
以上で、本実施形態3に係る学習支援装置20の動作は終了する。
【0094】
(本実施形態の効果)
本実施形態の構成によれば、観測部11は、機械の操縦者の触感を観測する。取得部12は、操縦者の視界を撮影して得られた画像を取得する。生成部13は、操縦者の視界、および操縦者の触感を、模擬的に再現するための情報を生成する。
【0095】
このようにして、操縦者から収集されたデータを用いて、操縦者の視界と触感とが、模擬的に再現される。学習者は、模擬的に再現された操縦者の視界と触感とから、操縦者の触感を体感することができる。これにより、学習者が機械の操作を効果的に習得することができる。
【0096】
さらに、本実施形態の構成によれば、取得部12は、操縦者の動きを撮影して得られた映像をさらに取得する。推定部24は、操縦者の動きを撮影して得られた映像を分析することにより、操縦者の操作を推定する。生成部13は、操縦者の操作を模擬的に再現するための情報をさらに生成する。
【0097】
学習者は、模擬的に再現された操縦者の視界と触感と同時に、模擬的に再現された操縦者の操作を体感することにより、機械の操作をより効果的に習得することができる。
【0098】
〔実施形態4〕
図9図11を参照して、実施形態4について説明する。本実施形態4では、前記実施形態1~2において説明した学習支援装置10(20,30)を、機械の操作を学習するために利用する構成を説明する。
【0099】
本実施形態4では、前記実施形態1~3と共通する構成要素に対して、前記実施形態1~3と同じ符号を付して、それらの構成要素に関して、前記実施形態1~3における説明を引用して、その説明を省略する。
【0100】
(学習支援システム2)
図9を参照して、本実施形態4に係る学習支援システム3の構成を説明する。図9は、学習支援システム3の構成を概略的に示す図である。
【0101】
図9に示すように、学習支援システム3は、機械の操縦者(作業者の一例)の触感を観測するためのセンサ100と、操縦者の視界を撮影する視界撮影装置200と、シミュレータ400と、ECU500と、学習支援装置30と、を備えている。
【0102】
ECU500は、機械のエンジンの運転制御などを総合的に制御するマイクロコントローラである。ECU500は、機械の動作(例えば、エンジンの回転数、機械の速度、スロットル開度)を示すECUデータを、学習支援装置30へ送信する。
【0103】
学習支援装置30は、ECU500から、ECUデータを受信する。学習支援装置30は、受信したECUデータを用いて、機械の動作を模擬的に再現するための情報をさらに生成する。機械の動作を模擬的に再現するための情報は、例えば、機械のエンジンの回転数、機械の速度、ハンドルの角度、およびスロットル開度など、機械の動作に関する指標のデータの集合である。
【0104】
学習支援装置30は、機械の動作を模擬的に再現するための情報を、シミュレータ400へ送信する。
【0105】
シミュレータ400は、学習支援装置30によって予め登録された熟練の操縦者による機械の操作を、模擬的に再現する。シミュレータ400は、操縦者による機械の操作を、学習者が習得するために使用される。
【0106】
図9に示すように、シミュレータ400は、視界再現装置410および触感再現装置420を備えている。シミュレータ400は、動作再現装置440をさらに備えている。
【0107】
動作再現装置440は、学習支援装置30が生成した、機械の動作を模擬的に再現するための情報を用いて、機械の動作を模擬的に再現する。例えば、動作再現装置440は、機械の動作と同じ動作を、別の機械(バーチャルマシンを含む)に実行させる。
【0108】
学習支援装置30の構成および動作について、以下で詳細に説明する。
【0109】
(学習支援装置30の構成)
図10を参照して、本実施形態4に係る学習支援装置30の構成を説明する。図10は、学習支援装置30の構成を示すブロック図である。
【0110】
図10に示すように、学習支援装置30は、観測部11、取得部12、および生成部13を備えている。学習支援装置30は、検出部34をさらに備えている。
【0111】
検出部34は、ECU500(図10)から、ECUデータを受信する。検出部34は、ECUデータを解析することにより、操縦者が操作する機械の動作(例えば、機械のエンジンの回転数、機械の速度、ハンドルの角度、およびスロットル開度)を検出する。検出部34は、検出した機械の動作を示す情報を、生成部13へ出力する。
【0112】
生成部13は、検出部34から、機械の動作を示す情報を受信する。生成部13は、操縦者の視界および操縦者の感覚に加えて、機械の動作を模擬的に再現するための情報をさらに生成する。
【0113】
生成部13は、機械の動作を模擬的に再現するための情報を、シミュレータ400へ送信する。
【0114】
(学習支援装置30の動作)
図11を参照して、本実施形態4に係る学習支援装置30の動作について説明する。図10は、学習支援装置30の動作を示すフローチャートである。
【0115】
図11に示すように、観測部11は、作業者の触感を観測する(S301)。例えば、観測部11は、センサ100(図10)から、作業者の触感を観測することによって得られたセンサデータを受信する。観測部11は、受信したセンサデータを、生成部13へ出力する。
【0116】
取得部12は、作業者の視界を撮影して得られた画像を取得する(S302)。例えば、取得部12は、視界撮影装置200(図10)から、作業者の視界を撮影することによって得られた画像データを取得する。取得部12は、受信した画像データを、生成部13へ出力する。
【0117】
検出部34は、操縦者が操作する機械の動作を検出する(S303)。検出部34は、検出した機械の動作を示す情報を、生成部13へ出力する。
【0118】
生成部13は、観測部11から作業者の触感を観測することによって得られたセンサデータを受信する。また、生成部13は、取得部12から、作業者の視界を撮影することによって得られた画像データを受信する。加えて、生成部13は、検出部34から、機械の動作を示す情報を受信する。
【0119】
そして、生成部13は、作業者の視界、および作業者の触感に加えて、機械の動作をさらに模擬的に再現するための情報を生成する(S304)。
【0120】
以上で、本実施形態4に係る学習支援装置30の動作は終了する。
【0121】
(本実施形態の効果)
本実施形態の構成によれば、観測部11は、機械の操縦者の触感を観測する。取得部12は、操縦者の視界を撮影して得られた画像を取得する。生成部13は、操縦者の視界、および操縦者の触感を、模擬的に再現するための情報を生成する。
【0122】
このようにして、操縦者から収集されたデータを用いて、操縦者の視界と触感とが、模擬的に再現される。学習者は、模擬的に再現された操縦者の視界と触感とから、操縦者の触感を体感することができる。これにより、学習者が機械の操作を効果的に習得することができる。
【0123】
さらに、本実施形態の構成によれば、検出部34は、操縦者が運転および操作する機械の動作を検出する。生成部13は、操縦者の視界および操縦者の感覚に加えて、機械の動作を模擬的に再現するための情報をさらに生成する。
【0124】
学習者は、模擬的に再現された操縦者の視界と触感とから、操縦者の触感を体感することができる。さらに、学習者は、操縦者の視界、および操縦者の触感に加えて、機械の動作を体験することができる。これにより、学習者が機械の操作をより効果的に習得することができる。
【0125】
(ハードウェア構成)
前記実施形態1~4で説明した学習支援装置10,20,30の各構成要素は、機能単位のブロックを示している。これらの構成要素の一部又は全部は、例えば図12に示すような情報処理装置により実現される。図12は、情報処理装置のハードウェア構成の一例を示すブロック図である。
【0126】
図12に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていてもよい。
【0127】
CPU111は、記憶装置113に格納された、本実施形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置である。また、本実施形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであってもよい。
【0128】
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリなどの半導体記憶装置があげられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
【0129】
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
【0130】
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)などの汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)などの磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体があげられる。
【0131】
〔付記〕
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
【0132】
(付記1)
作業者の触感を観測する観測手段と、
前記作業者の視界を撮影して得られた画像を取得する取得手段と、
前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成する生成手段と
を備えた学習支援装置。
【0133】
(付記2)
前記取得手段は、前記作業者が操縦する機械から、前記作業者の触感を示す情報を取得する
ことを特徴とする付記1に記載の学習支援装置。
【0134】
(付記3)
前記取得手段は、前記作業者に装着された触覚センサから、前記作業者の触感を示す情報を取得する
ことを特徴とする付記1に記載の学習支援装置。
【0135】
(付記4)
前記生成手段は、推定された前記作業者の操作と、予め登録された模範的な作業者の操作とを比較して、両者の操作が相違する場合、警報を出力する
ことを特徴とする付記1に記載の学習支援装置。
【0136】
(付記5)
前記生成手段は、
前記作業者の熟練度を示す情報を取得し、
前記両者の操作のパターンの類似度が、前記作業者の熟練度に応じた閾値を下回る場合、前記警報を出力する
ことを特徴とする付記4に記載の学習支援装置。
【0137】
(付記6)
前記取得手段は、前記作業者の動きを撮影して得られた映像をさらに取得し、
前記作業者の動きを撮影して得られた映像を分析することにより、前記作業者の操作を推定する推定手段をさらに備え、
前記生成手段は、推定された前記作業者の操作を模擬的に再現するための情報をさらに生成する
ことを特徴とする付記1から5のいずれか1項に記載の学習支援装置。
【0138】
(付記7)
前記作業者が操縦する機械の動作を検出する検出手段をさらに備え、
前記生成手段は、前記作業者の視界および前記作業者の感覚に加えて、前記機械の動作を模擬的に再現するための情報をさらに生成する
ことを特徴とする付記1から5のいずれか1項に記載の学習支援装置。
【0139】
(付記8)
作業者の触感を観測するためのセンサと、
前記作業者の視界を撮影する視界撮影装置と、
学習支援装置と、を備え、
前記学習支援装置は、
前記センサを用いて、前記作業者の触感を観測し、
前記視界撮影装置から、前記作業者の視界を撮影して得られた画像を取得し、
前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成する
学習支援システム。
【0140】
(付記9)
コンピュータが、
作業者の触感を観測し、
前記作業者の視界を撮影して得られた画像を取得し、
前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成する
学習支援方法。
【0141】
(付記10)
作業者の触感を観測することと、
前記作業者の視界を撮影して得られた画像を取得することと、
前記作業者の視界、および前記作業者の触感を、模擬的に再現するための情報を生成することと
をコンピュータに実行させるためのプログラム。
【0142】
(付記11)
前記作業者の動きを撮影する動き撮影装置をさらに備え、
前記学習支援装置は、
前記動き撮影装置が撮影した画像を分析することにより、前記作業者の操作を推定し、
推定された前記作業者の操作を示す情報を出力する
ことを特徴とする付記8に記載の学習支援システム。
【0143】
(付記12)
前記学習支援装置が生成した、前記作業者の視界を模擬的に再現するための情報を用いて、前記作業者の視界を模擬的に再現する視界再現装置と、
前記学習支援装置が生成した、前記作業者の触感を模擬的に再現するための情報を用いて、前記作業者の触感を模擬的に再現する触感再現装置とをさらに備えた
ことを特徴とする付記8に記載の学習支援システム。
【0144】
(付記13)
前記学習支援装置は、前記作業者の視界および前記作業者の感覚に加えて、前記作業者の操作を模擬的に再現するための情報をさらに生成し、
前記学習支援装置が生成した、前記作業者の操作を模擬的に再現するための情報を用いて、前記作業者の操作を模擬的に再現する操作再現装置をさらに備えた
ことを特徴とする付記12に記載の学習支援システム。
【0145】
(付記14)
前記学習支援装置は、前記作業者の視界および前記作業者の感覚に加えて、前記機械の動作を模擬的に再現するための情報をさらに生成し、
前記学習支援装置が生成した、前記機械の動作を模擬的に再現するための情報を用いて、前記機械の動作を模擬的に再現する動作再現装置をさらに備えた
ことを特徴とする付記12に記載の学習支援システム。
【0146】
以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。上記実施形態(及び実施例)の構成や詳細には、本願発明のスコープ内で、当業者が理解し得る様々な変更をすることができる。
【産業上の利用可能性】
【0147】
本発明は、例えば、学習者が作業者の作業法を学習するために利用することができる。
【符号の説明】
【0148】
1 学習支援システム
1A 学習支援システム
2 学習支援システム
2A 学習支援システム
3 学習支援システム
10 学習支援装置
11 観測部
12 取得部
13 生成部
20 学習支援装置
24 推定部
30 学習支援装置
34 検出部
100 センサ
200 視界撮影装置
300 動き撮影装置
400 シミュレータ
410 視界再現装置
420 触感再現装置
430 操作再現装置
440 動作再現装置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12