(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023178548
(43)【公開日】2023-12-18
(54)【発明の名称】作業支援装置、作業支援方法および作業支援プログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20231211BHJP
G06F 3/04845 20220101ALI20231211BHJP
G06T 19/00 20110101ALI20231211BHJP
【FI】
G06F3/01 510
G06F3/01 570
G06F3/04845
G06T19/00 600
【審査請求】未請求
【請求項の数】18
【出願形態】OL
(21)【出願番号】P 2022091292
(22)【出願日】2022-06-06
(71)【出願人】
【識別番号】000005234
【氏名又は名称】富士電機株式会社
(74)【代理人】
【識別番号】110000877
【氏名又は名称】弁理士法人RYUKA国際特許事務所
(72)【発明者】
【氏名】城戸 武志
【テーマコード(参考)】
5B050
5E555
【Fターム(参考)】
5B050AA03
5B050BA06
5B050BA09
5B050BA12
5B050BA13
5B050CA07
5B050DA01
5B050EA07
5B050EA19
5B050EA26
5B050FA02
5E555AA02
5E555AA63
5E555AA64
5E555AA76
5E555BA38
5E555BB38
5E555BC08
5E555BC17
5E555BE17
5E555CA42
5E555CA44
5E555CB33
5E555CB66
5E555CC23
5E555DA08
5E555DB20
5E555DC09
5E555DC21
5E555DC25
5E555DD06
5E555EA05
5E555EA07
5E555EA09
5E555FA00
(57)【要約】
【課題】作業支援装置においては、作業支援のための仮想オブジェクトを操作しやすいことが好ましい。
【解決手段】リアルタイムの現実画像であって3次元空間の現実画像に仮想オブジェクトを重畳表示する作業支援装置であって、現実画像における、操作者の身体の一部の位置および大きさを検知する検知部と、仮想オブジェクトを、検知部により検知された大きさに応じた大きさに調整する調整部と、仮想オブジェクトを現実画像に重畳表示する表示部と、を備え、表示部は、検知部により検知された位置に調整部により調整された大きさで仮想オブジェクトを重畳表示する、作業支援装置を提供する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
リアルタイムの現実画像であって3次元空間の現実画像に仮想オブジェクトを重畳表示する作業支援装置であって、
前記現実画像における、操作者の身体の一部の位置および大きさを検知する検知部と、
前記仮想オブジェクトを、前記検知部により検知された前記大きさに応じた大きさに調整する調整部と、
前記仮想オブジェクトを前記現実画像に重畳表示する表示部と、
を備え、
前記表示部は、前記検知部により検知された前記位置に、前記調整部により調整された前記大きさで、前記仮想オブジェクトを重畳表示する、
作業支援装置。
【請求項2】
前記検知部は、前記操作者の身体の一部の向きをさらに検知し、
前記調整部は、前記仮想オブジェクトを、前記検知部により検知された前記向きに応じた向きにさらに調整し、
前記表示部は、前記調整部により調整された前記向きに、前記仮想オブジェクトを重畳表示する、
請求項1に記載の作業支援装置。
【請求項3】
前記検知部は、前記操作者の手の位置および大きさを検知し、
前記調整部は、前記仮想オブジェクトを、前記操作者の手の前記大きさに応じた大きさに調整し、
前記表示部は、前記検知部により検知された前記操作者の手の前記位置に、前記調整部により調整された前記大きさで、前記仮想オブジェクトを重畳表示する、
請求項1または2に記載の作業支援装置。
【請求項4】
前記検知部は、前記操作者の手における掌または甲を検知し、
前記検知部により、前記掌が検知された場合、前記表示部は一の前記仮想オブジェクトを重畳表示し、前記甲が検知された場合、前記表示部は他の前記仮想オブジェクトを重畳表示する、
請求項3に記載の作業支援装置。
【請求項5】
前記検知部は、前記操作者の身体の状態を示すジェスチャをさらに検知し、
前記調整部は、前記検知部により検知された前記ジェスチャにさらに基づいて、前記仮想オブジェクトの前記大きさをさらに調整する、
請求項3に記載の作業支援装置。
【請求項6】
前記検知部は、前記操作者の一方の手の位置および大きさを検知し、前記操作者の他方の手の状態を示す前記ジェスチャを検知する、請求項5に記載の作業支援装置。
【請求項7】
前記表示部は、前記操作者が前記操作者の手の前記位置を視認する方向において、前記位置から前記操作者側に予め定められた距離、離隔した位置に、前記仮想オブジェクトを表示する、請求項3に記載の作業支援装置。
【請求項8】
前記検知部は、前記操作者の手の凹凸情報をさらに検知し、
前記調整部は、前記検知部により検知された前記凹凸情報に基づいて、前記操作者が前記操作者の手の前記位置を視認する方向における、前記仮想オブジェクトを表示する位置を調整し、
前記表示部は、前記調整部により調整された、前記方向における前記位置に、前記仮想オブジェクトを重畳表示する、
請求項3に記載の作業支援装置。
【請求項9】
前記検知部は、前記操作者の手における掌または甲を検知し、
前記検知部により、前記掌が検知された場合、前記調整部は、前記仮想オブジェクトを表示する位置を、前記方向における第1の前記位置に調整し、前記甲が検知された場合、前記調整部は、前記仮想オブジェクトを表示する位置を、第1の前記位置とは異なる第2の前記位置に調整する、
請求項8に記載の作業支援装置。
【請求項10】
前記検知部は、前記操作者の身体の状態を示すジェスチャをさらに検知し、
前記調整部は、前記検知部により検知された前記ジェスチャにさらに基づいて、前記方向における、前記仮想オブジェクトを表示する位置をさらに調整する、
請求項8に記載の作業支援装置。
【請求項11】
前記検知部は、前記操作者の一方の手の位置および大きさを検知し、前記操作者の他方の手の状態を示す前記ジェスチャを検知する、請求項10に記載の作業支援装置。
【請求項12】
前記仮想オブジェクトには、前記操作者により操作されるボタンが表示され、
前記検知部は、前記操作者の手における指の位置をさらに検知し、
前記調整部は、前記検知部により検知された前記操作者の手における指の前記位置に基づいて、前記ボタンの位置を調整し、
前記表示部は、前記調整部により前記ボタンの前記位置が調整された前記仮想オブジェクトを、重畳表示する、
請求項3に記載の作業支援装置。
【請求項13】
前記調整部は、前記検知部により検知された前記操作者の手における指の前記位置に、前記ボタンの位置を調整する、請求項12に記載の作業支援装置。
【請求項14】
前記検知部は、前記操作者の手における指の動作に伴う、前記操作者の手における指の位置の変化を取得し、
前記調整部は、前記検知部により取得された、前記操作者の手における指の位置の前記変化に応じて、前記ボタンの位置を調整する、
請求項12に記載の作業支援装置。
【請求項15】
前記検知部は、前記操作者の手の指における関節の位置をさらに検知し、
前記調整部は、前記検知部により検知された前記操作者の手の指における前記関節の位置に基づいて、前記ボタンの位置を調整する、
請求項12に記載の作業支援装置。
【請求項16】
前記検知部は、前記操作者の手首の位置をさらに検知し、
前記調整部は、前記仮想オブジェクトの基準位置を、前記検知部により検知された前記操作者の手首の前記位置に調整する、
請求項3に記載の作業支援装置。
【請求項17】
リアルタイムの現実画像であって3次元空間の現実画像に仮想オブジェクトを重畳表示する作業支援方法であって、
検知部が、前記現実画像における、操作者の身体の一部の位置および大きさを検知する検知ステップと、
調整部が、前記仮想オブジェクトを、前記検知ステップにおいて検知された前記大きさに応じた大きさに調整する調整ステップと、
表示部が、前記仮想オブジェクトを前記現実画像に重畳表示する表示ステップと、
を備え、
前記表示ステップは、前記表示部が、前記検知ステップにおいて検知された前記位置に、前記調整ステップにおいて調整された前記大きさで、前記仮想オブジェクトを重畳表示するステップである、
作業支援方法。
【請求項18】
コンピュータを、請求項1または2に記載の作業支援装置として機能させるための作業支援プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、作業支援装置、作業支援方法および作業支援プログラムに関する。
【背景技術】
【0002】
特許文献1には、「・・・映像表示装置において、処理負荷をあまりかけずに、操作しやすく、ユーザの意思に応じて操作領域が定まるようにする。」と記載されている(要約書)。
特許文献2には、「操作性が良好で、操作手法が分かり易いアイコン操作装置を提供する。」と記載されている(要約書)。
特許文献3には、「指示装置による操作入力を最小限に低減しあるいは完全に省略する。」と記載されている(要約書)。
[先行技術文献]
[特許文献]
[特許文献1] 特開2011-81506号公報
[特許文献2] 特開2014-67388号公報
[特許文献3] 特開2005-40613号公報
【発明の概要】
【発明が解決しようとする課題】
【0003】
作業支援装置においては、作業支援のための仮想オブジェクトを操作しやすいことが好ましい。
【課題を解決するための手段】
【0004】
本発明の第1の態様においては、作業支援装置を提供する。作業支援装置は、リアルタイムの現実画像であって3次元空間の現実画像に仮想オブジェクトを重畳表示する。作業支援装置は、現実画像における、操作者の身体の一部の位置および大きさを検知する検知部と、仮想オブジェクトを、検知部により検知された大きさに応じた大きさに調整する調整部と、仮想オブジェクトを現実画像に重畳表示する表示部とを備える。表示部は、検知部により検知された位置に、調整部により調整された大きさで、仮想オブジェクトを重畳表示する。
【0005】
検知部は、操作者の身体の一部の向きをさらに検知してよい。調整部は、仮想オブジェクトを、検知部により検知された向きに応じた向きにさらに調整してよい。表示部は、調整部により調整された向きに、仮想オブジェクトを重畳表示してよい。
【0006】
検知部は、操作者の手の位置および大きさを検知してよい。調整部は、仮想オブジェクトを、操作者の手の大きさに応じた大きさに調整してよい。表示部は、検知部により検知された操作者の手の位置に、調整部により調整された大きさで、仮想オブジェクトを重畳表示してよい。
【0007】
検知部は、操作者の手における掌または甲を検知してよい。検知部により、掌が検知された場合、表示部は一の仮想オブジェクトを重畳表示し、甲が検知された場合、表示部は他の仮想オブジェクトを重畳表示してよい。
【0008】
検知部は、操作者の身体の状態を示すジェスチャをさらに検知してよい。調整部は、検知部により検知されたジェスチャにさらに基づいて、仮想オブジェクトの大きさをさらに調整してよい。
【0009】
検知部は、操作者の一方の手の位置および大きさを検知し、操作者の他方の手の状態を示すジェスチャを検知してよい。
【0010】
表示部は、操作者が操作者の手の位置を視認する方向において、位置から操作者側に予め定められた距離、離隔した位置に、仮想オブジェクトを表示してよい。
【0011】
検知部は、操作者の手の凹凸情報をさらに検知してよい。調整部は、検知部により検知された凹凸情報に基づいて、操作者が操作者の手の位置を視認する方向における、仮想オブジェクトを表示する位置を調整してよい。表示部は、調整部により調整された、方向における位置に、仮想オブジェクトを重畳表示してよい。
【0012】
検知部は、操作者の手における掌または甲を検知してよい。検知部により、掌が検知された場合、調整部は、仮想オブジェクトを表示する位置を、方向における第1の位置に調整してよく、甲が検知された場合、調整部は、仮想オブジェクトを表示する位置を、第1の位置とは異なる第2の位置に調整してよい。
【0013】
検知部は、操作者の身体の状態を示すジェスチャをさらに検知してよい。調整部は、検知部により検知されたジェスチャにさらに基づいて、方向における、仮想オブジェクトを表示する位置をさらに調整してよい。
【0014】
検知部は、操作者の一方の手の位置および大きさを検知し、操作者の他方の手の状態を示すジェスチャを検知してよい。
【0015】
仮想オブジェクトには、操作者により操作されるボタンが表示されてよい。検知部は、操作者の手の指の位置をさらに検知してよい。調整部は、検知部により検知された操作者の手の指の位置に基づいて、ボタンの位置を調整してよい。表示部は、調整部によりボタンの位置が調整された仮想オブジェクトを、重畳表示してよい。
【0016】
調整部は、検知部により検知された操作者の手の指の位置に、ボタンの位置を調整してよい。
【0017】
検知部は、操作者の手の指の動作に伴う、操作者の手の指の位置の変化を取得してよい。調整部は、検知部により取得された、操作者の手の指の位置の変化に応じて、ボタンの位置を調整してよい。
【0018】
検知部は、操作者の手の指における関節の位置をさらに検知してよい。調整部は、検知部により検知された操作者の手の指における関節の位置に基づいて、ボタンの位置を調整してよい。
【0019】
検知部は、操作者の手首の位置をさらに検知してよい。調整部は、仮想オブジェクトの基準位置を、検知部により検知された操作者の手首の位置に調整してよい。
【0020】
本発明の第2の態様においては、作業支援方法を提供する。作業支援方法は、リアルタイムの現実画像であって3次元空間の現実画像に仮想オブジェクトを重畳表示する。作業支援方法は、検知部が、現実画像における、操作者の身体の一部の位置および大きさを検知する検知ステップと、調整部が、仮想オブジェクトを、検知ステップにおいて検知された大きさに応じた大きさに調整する調整ステップと、表示部が、仮想オブジェクトを現実画像に重畳表示する表示ステップとを備える。表示ステップは、表示部が、検知ステップにおいて検知された位置に、調整ステップにおいて調整された大きさで、仮想オブジェクトを重畳表示するステップである。
【0021】
本発明の第3の態様においては、作業支援プログラムを提供する。作業支援プログラムは、コンピュータを作業支援装置として機能させる。
【0022】
なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
【図面の簡単な説明】
【0023】
【
図1】本発明の一つの実施形態に係る作業環境200の一例を示す図である。
【
図2】作業支援装置100(
図1参照)が表示する現実画像10の一例を示す図である。
【
図3】本発明の一つの実施形態に係る作業支援装置100の一例を示すブロック図である。
【
図4】比較例の作業支援装置300により重畳表示される仮想オブジェクト112を示す図である。
【
図5】現実画像10における操作者90の手94の一例を示す図である。
【
図6】仮想オブジェクト12の一例を示す図である。
【
図7】
図1における操作者90を拡大した図である。
【
図8】
図7における位置Pqおよび位置Puを拡大した図である。
【
図9】位置Pqと位置Puとの配置を示す他の例を示す図である。
【
図10】操作者90の身体92(
図1参照)の動作に伴う、仮想オブジェクト12の表示の一例を示す図である。
【
図11】本発明の一つの実施形態に係る作業支援方法の一例を示すフローチャートである。
【
図12】本発明の一つの実施形態に係る作業支援装置100が全体的または部分的に具現化されてよいコンピュータ2200の一例を示す図である。
【発明を実施するための形態】
【0024】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0025】
図1は、本発明の一つの実施形態に係る作業環境200の一例を示す図である。作業環境200は、例えば工場等における部屋である。本例において、作業環境200には設備110が配置されている。本例においては、操作者90が作業環境200において設備110を操作している。
【0026】
作業支援装置100は、設備110に対する操作者90の操作を支援する装置である。本例において、作業支援装置100は操作者90に装着されるヘッドマウントディスプレイ(HMD)方式のウェアラブル端末である。作業支援装置100が当該ウェアラブル端末である場合、当該ヘッドマウントディスプレイ(HMD)には現実画像10(後述)が表示される。現実画像10(後述)は、リアルタイムの画像であり、且つ、3次元空間の画像である。操作者90は、現実画像10(後述)を視認しながら設備110を操作する。
【0027】
マーカ120および作業支援情報130は、現実画像10(後述)に表示される。マーカ120および作業支援情報130は、現実画像10(後述)における設備110の位置に表示されてよい。作業支援情報130は、現実画像10(後述)におけるマーカ120の位置を基準とする、予め定められた位置に表示されてよい。作業支援情報130は、設備110に対する操作者90の操作を支援する情報である。作業支援情報130は、例えば設備110に対する操作の順番等の情報である。操作者90の身体92および手94については、後述する。
【0028】
図2は、作業支援装置100(
図1参照)が表示する現実画像10の一例を示す図である。現実画像10には、仮想オブジェクト12が重畳表示される。本例の仮想オブジェクト12は、操作者90(
図1参照)が操作するUI(User Interface)である。
【0029】
現実画像10は、操作者90(
図1参照)が実際に視認している画像であってよい。現実画像10が当該画像である場合、当該画像に仮想オブジェクト12が重畳表示されてよい。現実画像10は、撮像部60(後述)により撮像された撮像画像であってもよい。現実画像10が当該撮像画像である場合、現実画像10は、当該撮像画像に仮想オブジェクト12が重畳表示された合成画像であってよい。
【0030】
本例において、仮想オブジェクト12は、スマートフォンの形状を模した形状で表示されている。本例において、仮想オブジェクト12は、操作者90(
図1参照)の一方の手94-1の掌98(後述)の上方に表示されている。仮想オブジェクト12には、ボタン14が表示されてよい。本例において、ボタン14は、操作者90の他方の手94-2の指96で操作されている。手94とは、操作者90の身体92における、手首95よりも指96側を指す。
【0031】
図3は、本発明の一つの実施形態に係る作業支援装置100の一例を示すブロック図である。作業支援装置100は、検知部62、調整部64および表示部66を備える。作業支援装置100は、撮像部60、制御部63および記憶部68を備えてよい。
【0032】
作業支援装置100は、コンピュータにより実現されてよい。制御部63は、当該コンピュータのCPUであってよい。制御部63、検知部62および調整部64が、一つの当該CPUであってもよい。作業支援装置100がコンピュータにより実現される場合、当該コンピュータには、当該コンピュータを作業支援装置100として機能させるための処理プログラムがインストールされていてよく、後述する作業支援方法を実行させるため処理プログラムがインストールされていてもよい。
【0033】
検知部62は、現実画像10(
図2参照)における、操作者90の身体92(
図1参照)の一部の位置および大きさを検知する。検知部62は、現実画像10における、操作者90の手94の位置および大きさを検知してよい。検知部62は、操作者90の身体92の動作を検知してよい。検知部62には、身体92の動作を検知する加速度センサが含まれてよい。
【0034】
調整部64は、検知部62により検知された身体92の一部の大きさに応じた大きさに、仮想オブジェクト12の大きさを調整する。調整部64は、検知部62により検知された手94の大きさに応じた大きさに、仮想オブジェクト12の大きさを調整してよい。
【0035】
表示部66は、検知部62により検知された身体92の一部の位置に、調整部64により調整された大きさで仮想オブジェクト12を重畳表示する。これにより、操作者90は仮想オブジェクト12を操作しやすくなる。操作者90は、仮想オブジェクト12を操作する場合に、身体92の一部を誤って設備110に衝突させにくくなる。
【0036】
表示部66は、検知部62により検知された手94の位置に、調整部64により調整された大きさで仮想オブジェクト12を重畳表示してよい。これにより、
図2の例では、操作者90はスマートフォンを操作する感覚で仮想オブジェクト12を操作できる。
図2の例では、操作者90が仮想オブジェクト12を操作する場合、指96が手94-1の掌98(後述)に当たり得る。このため、操作者90の腕等が疲労しにくい。
【0037】
撮像部60は、現実画像10(
図2参照)を撮像してよい。現実画像10が、操作者90(
図1)が実際に視認している画像ではない場合、撮像部60は現実画像10を撮像してよく、表示部66は撮像部60により撮像された現実画像10を表示してよい。撮像部60は、CCD等の撮像素子を有するカメラであってよい。現実画像10が、操作者90(
図1)が実際に視認している画像である場合、撮像部60は現実画像10を撮像しなくてよい。
【0038】
記憶部68は、作業支援情報130(
図1参照)およびジェスチャ情報(後述)を記憶してよい。記憶部68については、後述する。
【0039】
表示部66は、操作者90(
図1参照)に対して、仮想オブジェクト12を含む3次元空間の現実画像10(
図2参照)を提供する。表示部66は、液晶表示装置、有機EL表示装置、ホログラム表示装置、または、その他の表示装置であってよい。制御部63は、現実画像10を表示するように表示部66を制御する。制御部63は、表示部66に表示させる現実画像10のデータを出力してよい。
【0040】
作業支援装置100の各ブロックは、ヘッドマウントディスプレイ(HMD)等の単一の筐体に収容されてよく、複数の筐体に分散されて収容されてもよい。作業支援装置100の各ブロックが複数の筐体に分散されて収容される場合、各ブロックは無線により通信してよい。
【0041】
図4は、比較例の作業支援装置300により重畳表示される仮想オブジェクト112を示す図である。作業支援装置300においては、仮想オブジェクト112は、現実画像10におけるマーカ120の位置を基準とする、設備110の予め定められた位置に表示される。作業支援装置300は、操作者90の身体92の一部の位置に仮想オブジェクト112を表示しない。作業支援装置300は、操作者90の身体92の一部の大きさに応じた大きさで、仮想オブジェクト112を表示しない。このため、操作者90は、仮想オブジェクト112を操作する場合に身体92の一部を誤って設備110に衝突させてしまい得る。操作者90は、作業環境200における空間に表示されている仮想オブジェクト112を操作するので、操作者90の腕等が疲労しやすい。
【0042】
図5は、現実画像10における操作者90の手94の一例を示す図である。撮像部60(
図3参照)は、操作者90の身体92の一部を撮像してよい。本例においては、撮像部60は操作者90の手94を撮像する。表示部66(
図3参照)は、撮像部60により撮像された身体92の一部を、現実画像10に表示してよい。
【0043】
検知部62(
図3参照)は、操作者90の手94における掌98または甲99を検知してよい。検知部62は、撮像部60により撮像された手94の画像に基づいて、当該手94における掌98および甲99のいずれが、操作者90が視認し得る側に向いているかを判定してよい。検知部62は、掌98および甲99のいずれが、操作者90が視認し得る側に向いているかを判定することにより、掌98または甲99を検知してよい。本例においては、検知部62は、掌98が操作者90が視認し得る側に向いていると判定する。
【0044】
現実画像10における手94の手首95の位置を位置Psとし、親指96-1の先端位置を位置Pa4とし、人差し指96-2の先端位置を位置Pb4とし、中指96-3の先端位置を位置Pc4とし、薬指96-4の先端位置を位置Pd4とし、小指96-5の先端位置を位置Pe4とする。手94における位置Psと位置Pa4との間の複数の位置を位置Pa1~位置Pa3とし、位置Psと位置Pb4との間の複数の位置を位置Pb1~位置Pb3とし、位置Psと位置Pc4との間の複数の位置を位置Pc1~位置Pc3とし、位置Psと位置Pd4との間の複数の位置を位置Pd1~位置Pd3とし、位置Psと位置Pe4との間の複数の位置を位置Pe1~位置Pe3とする。
【0045】
位置Pa1~位置Pa3、位置Pb1~位置Pb3、位置Pc1~位置Pc3、位置Pd1~位置Pd3および位置Pe1~位置Pe3は、関節91の位置であってよい。本例においては、位置Pa1~位置Pa3は親指96-1における関節91の位置であり、位置Pb1~位置Pb3は人差し指96-2における関節91の位置であり、位置Pc1~位置Pc3は中指96-3における関節91の位置であり、位置Pd1~位置Pd3は薬指96-4における関節91の位置であり、位置Pe1~位置Pe3は小指96-5における関節91の位置である。
【0046】
検知部62(
図3参照)は、操作者90の身体92の一部における複数の位置を検知してよい。検知部62は、操作者90の手94における複数の位置を検知してよい。検知部62は、操作者90の手94における指96の位置を検知してよい。指96の位置とは、位置Pa4、位置Pb4、位置Pc4、位置Pd4および位置Pe4の少なくとも一つを指してよく、位置Pa1~位置Pa3、位置Pb1~位置Pb3、位置Pc1~位置Pc3、位置Pd1~位置Pd3および位置Pe1~位置Pe3の少なくとも一つを指してもよい。
【0047】
調整部64(
図3参照)は、検知部62(
図3参照)により検知された指96の位置に基づいて、ボタン14(
図2参照)の位置を調整してよい。調整部64は、他方の手94-2の指96(
図2参照)でボタン14を操作する場合に、他方の手94-2の指96が一方の手94-1の指96に当たる位置に、ボタン14の位置を調整してよい。調整部64は、指96の当該位置にボタン14の位置を調整してよい。表示部66(
図3参照)は、調整部64によりボタン14の位置が調整された仮想オブジェクト12を、現実画像10に重畳表示してよい。これにより、操作者90が仮想オブジェクト12を操作する場合、他方の手94-2の指96が一方の手94-1の指96に当たり得る。このため、操作者90の腕等が疲労しにくい。
【0048】
検知部62(
図3参照)は、操作者90の手94の指96における関節91の位置をさらに検知してよい。本例においては、検知部62は、位置Pa1~位置Pa3、位置Pb1~位置Pb3、位置Pc1~位置Pc3、位置Pd1~位置Pd3および位置Pe1~位置Pe3の少なくとも一つを検知する。調整部64(
図3参照)は、検知部62により検知された関節91の位置に基づいて、ボタン14(
図2参照)の位置を調整してよい。調整部64は、関節91の位置にボタン14の位置を調整してよく、指96における関節91以外の位置にボタン14の位置を調整してもよい。関節91以外の当該位置とは、例えば
図5における位置Pb2と位置Pb3との間である。
【0049】
検知部62(
図3参照)は、手94における第1方向dr1の距離dwと、第2方向dr2の距離dhとに基づいて、手94の大きさを検知してよい。第2方向dr2は、第1方向dr1に交差する方向である。本例において、第1方向dr1は位置Psから位置Pc4への方向であり、第2方向dr2は位置Pe1から位置Pa4への方向である。本例において、距離dwは位置Psと位置Pc4との間の距離であり、距離dhは位置Pe1と位置Pa4との間の距離である。
【0050】
検知部62(
図3参照)は、手94における複数の位置に基づいて、手94の大きさを検知してよい。本例においては、検知部62は位置Ps、位置Pa4、位置Pc4および位置Pe1に基づいて手94の大きさを検知する。本例において、検知部62は位置Psと位置Pc4とに基づいて距離dwを取得し、位置Pe1と位置Pa4とに基づいて距離dhを取得する。
【0051】
図6は、仮想オブジェクト12の一例を示す図である。仮想オブジェクト12における第1方向dv1の幅を幅Wとし、第2方向dv2の高さを高さhとする。第2方向dv2は、第1方向dv1に交差する方向である。本例においては、第2方向dv2は第1方向dr1に直交する方向である。
【0052】
幅Wおよび高さhは、予め定められていてよい。幅Wおよび高さhは、人間の手94の標準的な大きさに基づいて定められていてよい。
【0053】
仮想オブジェクト12には、基準位置Pvが予め定められていてよい。検知部62(
図3参照)は、操作者90の手首95の位置Ps(
図5参照)を検知してよい。調整部64(
図3参照)は、仮想オブジェクト12の基準位置Pvを位置Psに調整してよい。
【0054】
調整部64(
図3参照)は、距離dwおよび距離dh(
図5参照)に基づいて、仮想オブジェクト12の大きさを調整してよい。調整部64は、距離dwおよび距離dhに基づいて、仮想オブジェクト12の幅Wおよび高さhを調整してよい。調整部64は、距離dwと幅Wとの比R1(=dw/W)、および、距離dhと高さhとの比R2(=dh/h)を算出してよい。調整部64は、R1とR2のうち小さい方の比に対応する大きさに、仮想オブジェクト12の大きさを調整してよい。
【0055】
表示部66(
図3参照)は、検知部62(
図3参照)により検知された手94の位置に、調整部64(
図3参照)により調整された大きさで、仮想オブジェクト12を重畳表示してよい。本例においては、調整部64(
図3参照)が基準位置Pvを位置Psに調整することにより、表示部66は手94の位置に仮想オブジェクト12を重畳表示する。
【0056】
本例においては、表示部66は、R1とR2のうち小さい方の比に対応する大きさに調整された仮想オブジェクト12を、手94の位置に表示する。これにより、現実画像10における手94の範囲内に、仮想オブジェクト12が表示されやすくなる。
図2は、表示部66が仮想オブジェクト12をこのように重畳表示した場合の一例である。
【0057】
表示部66(
図3参照)が、
図2に示されるように仮想オブジェクト12を重畳表示することにより、操作者90は、一方の手94-1にスマートフォンを持ち他方の手94-2(
図2参照)で当該スマートフォンを操作する感覚で、仮想オブジェクト12を操作できる。操作者90が仮想オブジェクト12を操作する場合に、他方の手94-2の指96(
図2参照)が一方の手94-1の掌98に当たりやすくなる。このため、操作者90の腕等が疲労しにくくなる。
【0058】
検知部62(
図3参照)は、操作者90の身体92の一部の向きをさらに検知してよい。本例においては、検知部62は操作者90の手94-1(
図5参照)の向きを検知する。手94-1の当該向きは、第1方向dr1(
図5参照)であってよい。
【0059】
調整部64(
図3参照)は、仮想オブジェクト12を、検知部62(
図3参照)により検知された向きに応じた向きに調整してよい。本例においては、調整部64は仮想オブジェクト12(
図5参照)を第1方向dr1(
図5参照)に応じた向きに調整する。仮想オブジェクト12を第1方向dr1に応じた向きに調整するとは、仮想オブジェクト12の第1方向dv1を、手94-1の第1方向dr1に一致させることを指してよい。表示部66(
図3参照)は、調整部64により調整された向きに、仮想オブジェクト12を重畳表示してよい。これにより、現実画像10における手94の範囲内に、仮想オブジェクト12が表示されやすくなる。
【0060】
検知部62(
図3参照)により掌98(
図5参照)が検知された場合、表示部66(
図3参照)は、一の仮想オブジェクト12を重畳表示してよい。検知部62により甲99が検知された場合、表示部66(
図3参照)は、他の仮想オブジェクト12を重畳表示してよい。即ち、表示部66は、検知部62により掌98が検知された場合と甲99が検知された場合とで、異なる仮想オブジェクト12を重畳表示してよい。検知部62により甲99が検知された場合とは、検知部62により、甲99が操作者90が視認し得る側に向いていると判定された場合を指す。
【0061】
検知部62(
図3参照)により、一方の手94-1の掌98が検知された場合、表示部66(
図3参照)は、当該一方の手94-1の指96で操作するためのボタン14(
図2参照)が表示された仮想オブジェクト12を重畳表示してよい。当該ボタン14は、例えば当該仮想オブジェクト12の外縁に表示される。これにより、操作者90は、例えば一方の手94-1でスマートフォンを持ちつつ、当該一方の手94-1の指96で当該スマートフォンの電源ボタンを操作する感覚で、仮想オブジェクト12を操作できる。
【0062】
検知部62(
図3参照)により、一方の手94-1の甲99が検知された場合、表示部66(
図3参照)は、当該甲99に仮想オブジェクト12を重畳表示してよい。これにより、操作者90は、設備110(
図1参照)の操作のための物体を当該一方の手94-1で持ちつつ、当該一方の手94-1の甲99に表示された仮想オブジェクト12を、他方の手94-2の指96で操作できる。このため、当該仮想オブジェクト12の外縁には、ボタン14が表示されなくてよい。
【0063】
一の仮想オブジェクト12は一の種類の仮想オブジェクト12であってよく、他の仮想オブジェクト12は他の種類の仮想オブジェクト12であってよい。本例においては、一の種類の仮想オブジェクト12とは、一方の手94-1の掌98に表示された仮想オブジェクト12を、当該一方の手94-1の指96で操作するのに適した種類の仮想オブジェクト12を指す。本例においては、他の種類の仮想オブジェクト12とは、一方の手94-1の掌98に表示された仮想オブジェクト12を、他方の手94-2の指96で操作するのに適した種類の仮想オブジェクト12を指す。
【0064】
検知部62(
図3参照)は、操作者90の手94における指96の動作に伴う、当該指96の位置の変化を取得してよい。調整部64(
図3参照)は、検知部62により取得された、当該指96の位置の変化に応じて、ボタン14(
図2参照)の位置を調整してよい。表示部66(
図3参照)は、調整部64によりボタン14の位置が調整された仮想オブジェクト12を、現実画像10に重畳表示してよい。
【0065】
指96の動作に伴い、当該指96が操作しやすいボタン14(
図2参照)の位置は変化し得る。特に、検知部62(
図3参照)により一方の手94-1の掌98が検知された場合において、当該一方の手94-1の指96で操作するためのボタン14が表示された仮想オブジェクト12を、表示部66(
図3参照)が表示する場合、指96の動作に伴い、当該指96が操作しやすい位置にボタン14の位置が変化すると、操作者90は、当該指を動作させながらボタン14を操作し得る。
【0066】
検知部62(
図3参照)は、操作者90の手94における指96の動作に伴う、当該指96の位置の変化を連続的に取得してよい。調整部64(
図3参照)は、当該指96の位置の連続的な変化に応じて、ボタン14(
図2参照)の位置を連続的に調整してよい。表示部66(
図3参照)は、ボタン14の位置が連続的に調整された仮想オブジェクト12を、連続的に表示してよい。調整部64がボタン14の位置を連続的に調整するとは、検知部62により指96の位置の変化が取得された時点から、調整部64がボタン14の位置を調整する時点までの時間が、1秒未満であることを指してよく、0.5秒未満であることを指してもよく、0.2秒未満であることを指してもよい。
【0067】
図7は、
図1における操作者90を拡大した図である。操作者90が手94の位置を視認する方向を、方向dpとする。方向dpにおける、操作者90の位置を位置Pqとする。位置Pqは、操作者90の頭部の位置であってよく、操作者90の眼の位置であってもよい。操作者90がヘッドマウントディスプレイ(HMD)を装着している場合、位置Pqは当該HMDの位置であってもよい。方向dpにおける、手94の位置を位置Puとする。本例においては、位置Puは方向dpにおける掌98の位置である。
【0068】
方向dpにおいて、位置Puから操作者90側に予め定められた距離df、離隔した位置を、位置Ptとする。表示部66(
図3参照)は、仮想オブジェクト12(
図2参照)を位置Ptに表示してよい。これにより、操作者90は仮想オブジェクト12を確実に操作できる。仮想オブジェクト12が、位置Puから操作者90側とは反対側に離隔して表示された場合、操作者90は、仮想オブジェクト12を操作することが困難になり得る。
【0069】
図8は、
図7における位置Pqおよび位置Puを拡大した図である。
図8は、位置Pqと位置Puとの配置を示す一例である。本例においては、操作者90が掌98を視認している。
【0070】
手94の位置Puには、手94における複数の位置が含まれてよい。本例においては、位置Puには第1位置Pu1および第2位置Pu2が含まれる。本例において、第1位置Pu1は位置Puのうち位置Pqから最も離隔した位置であり、第2位置Pu2は位置Puのうち位置Pqに最も近接した位置である。本例において、第1位置Pu1は掌98の底部であり、第2位置Pu2は手首95の位置である。第2位置Pu2は、親指96-1~小指96-5のいずれかの先端である場合もあり得る。
【0071】
検知部62(
図3参照)は、操作者90から、手94における複数の位置のそれぞれまでの距離を取得してよい。本例においては、検知部62は、操作者90のヘッドマウントディスプレイ(HMD)の位置Pqから、位置Pu1までの距離および位置Pu2までの距離をそれぞれ取得する。位置Pqから位置Pu1までの距離を第1距離d1とし、位置Pqから位置Pu2までの距離を第2距離d2とする。本例において、第1距離d1は操作者90から手94までの最大距離であり、第2距離d2は操作者90から手94までの最小距離である。
【0072】
検知部62(
図3参照)は、操作者90の手94の凹凸情報を検知してよい。当該凹凸情報を、凹凸情報Iuとする。検知部62は、操作者90から、手94における複数の位置のそれぞれまでの距離に基づいて、凹凸情報Iuを検知してよい。本例においては、検知部62は、第1距離d1と第2距離d2とに基づいて凹凸情報Iuを検知する。
【0073】
検知部62(
図3参照)は、第1方向dr1の距離dw(
図5参照)および第2方向dr2の距離dh(
図5参照)の少なくとも一方を取得してよい。上述したとおり、
図5の例では、第1方向dr1は位置Ps(手首95の位置)から位置Pc4(中指96-3の先端位置)への方向であり、第2方向dr2は位置Pe1(小指96-5の関節91の位置)から位置Pa4(親指96-1の先端位置)への方向である。上述したとおり、
図5の例では、距離dwは位置Psと位置Pc4との間の距離であり、距離dhは位置Pe1と位置Pa4との間の距離である。
【0074】
検知部62(
図3参照)は、第1距離d1と第2距離d2との差分と、距離dwおよび距離dhの少なくとも一方とに基づいて、凹凸情報Iuを検知してもよい。凹凸情報Iuは、距離dwに対する当該差分の割合であってよく、距離hに対する当該差分の割合であってもよい。
【0075】
調整部64(
図3参照)は、凹凸情報Iuに基づいて、方向dp(
図7参照)における、仮想オブジェクト12を表示する位置を調整してよい。当該位置を、位置Pt'とする。位置Pt'は、位置Pu2と位置Pqとの間の位置であってよい。位置Pt'は、方向dpにおけるボタン14(
図2参照)の位置であってよい。
【0076】
表示部66(
図3参照)は、調整部64により調整された位置Pt'に仮想オブジェクト12を表示してよい。
図2の例では、表示部66は、仮想オブジェクト12における三つのボタン14で形成される面を、位置Pt'に表示してよい。本例においては、仮想オブジェクト12が凹凸情報Iuに基づく位置Pt'に表示されるので、凹凸情報Iuに基づかない場合よりも、操作者90は快適に仮想オブジェクト12を操作できる。
【0077】
図9は、位置Pqと位置Puとの配置を示す他の例を示す図である。本例においては、操作者90が甲99を視認している。
【0078】
本例においては、位置Puには第3位置Pu3および第4位置Pu4が含まれる。本例において、第3位置Pu3は位置Puのうち位置Pqから最も離隔した位置であり、第4位置Pu4は位置Puのうち位置Pqに最も近接した位置である。本例において、第3位置Pu3は甲99の底部であり、第4位置Pu4は中指96-3の関節91(
図5参照)の位置Pc1(
図5参照)である。第4位置Pu4は、位置Pb1、位置Pd1および位置Pe1のいずれかでもあり得る。
【0079】
本例においては、検知部62(
図3参照)は、操作者90のヘッドマウントディスプレイ(HMD)の位置Pqから、位置Pu3までの距離および位置Pu4までの距離をそれぞれ取得する。位置Pqから位置Pu3までの距離を第3距離d3とし、位置Pqから位置Pu4までの距離を第4距離d4とする。本例において、第3距離d3は操作者90から手94までの最大距離であり、第4距離d4は操作者90から手94までの最小距離である。
【0080】
本例においては、検知部62(
図3参照)は、第3距離d3と第4距離d4とに基づいて凹凸情報を検知する。当該凹凸情報を、凹凸情報Iu'とする。検知部62は、第3距離d3と第4距離d4との差分と、距離dwおよび距離dhの少なくとも一方とに基づいて、凹凸情報Iu'を検知してもよい。凹凸情報Iu'は、距離dwに対する当該差分の割合であってよく、距離hに対する当該差分の割合であってもよい。
【0081】
調整部64(
図3参照)は、凹凸情報Iu'に基づいて、方向dp(
図7参照)における、仮想オブジェクト12を表示する位置を調整してよい。当該位置を、位置Pt''とする。位置Pt''は、位置Pu4と位置Pqとの間の位置であってよい。位置Pt''は、方向dpにおけるボタン14(
図2参照)の位置であってよい。
【0082】
表示部66(
図3参照)は、調整部64により調整された位置Pt''に仮想オブジェクト12を表示してよい。
図2の例では、表示部66は、仮想オブジェクト12における三つのボタン14で形成される面を、位置Pt''に表示してよい。
【0083】
検知部62(
図3参照)は、操作者90の手94における掌98または甲99を検知してよい。本例においては、検知部62は、撮像部60(
図3参照)により撮像された手94の画像に基づいて、当該手94における掌98および甲99のいずれが、操作者90が視認し得る側に向いているかを判定する。
【0084】
検知部62(
図3参照)により掌98が検知された場合、調整部64(
図3参照)は仮想オブジェクト12を表示する位置を第1の位置に調整し、甲99が検知された場合、調整部64は仮想オブジェクト12を表示する位置を第2の位置に調整してよい。
図8および
図9の例では、当該第1の位置は位置Pt'であり、当該第2の位置は位置Pt''である。当該第1の位置は、当該第2の位置と異なっていてよい。凹凸情報Iuと凹凸情報Iu'とは異なり得るので、位置Pt'と位置Pt''とは異なり得る。位置Pt'と位置Pt''とが異なるとは、第2距離d2(
図8参照)と第4距離d4とが等しい場合に、方向dpにおける位置Pu2と位置Pt'との距離と、方向dpにおける位置Pu4と位置Pt''との距離とが異なることを指してよい。
【0085】
検知部62(
図3参照)により掌98が検知された場合、表示部66(
図3参照)は位置Pt'に仮想オブジェクト12を表示してよく、甲99が検知された場合、表示部66は位置Pt''に仮想オブジェクト12を表示してよい。本例においては、掌98が検知された場合と甲99が検知された場合とで、操作者90が最も快適に操作できる位置に仮想オブジェクト12が表示されやすくなる。
【0086】
図10は、操作者90の身体92(
図1参照)の動作に伴う、仮想オブジェクト12の表示の一例を示す図である。本例においては、仮想オブジェクト12は、手94の動作に伴い表示される。検知部62は、操作者90の身体92の状態を示すジェスチャを検知してよい。本例においては、検知部62は操作者90の手94の状態を示すジェスチャを検知する。
図10の例において、検知部62は破線矢印で指された当該ジェスチャを検知する。
【0087】
記憶部68(
図3参照)には、ジェスチャ情報と、表示部66(
図3参照)による表示態様とが記憶されていてよい。記憶部68には、複数のジェスチャ情報と、複数の当該表示態様とが対応付けて記憶されていてよい。ジェスチャ情報とは、手94を開く、指96を指し示す、等の情報である。表示部66による表示態様とは、表示部66が仮想オブジェクト12を表示することを指してよく、作業支援情報130を表示することを指してもよい。記憶部68には、仮想オブジェクト12の複数の表示態様が記憶されていてよい。
【0088】
仮想オブジェクト12の複数の表示態様のそれぞれごとに、ボタン14の位置および数が異なっていてよく、ボタン14に対応する、作業支援装置100への操作の内容が異なっていてもよい。本例においては、手94を開くジェスチャ(ハンドジェスチャ)は、表示部66が仮想オブジェクト12を表示する動作と対応付けられ、指96を指すジェスチャ(フィンガージェスチャ)は、表示部66がボタン14の位置、数および作業支援装置100への操作内容の少なくとも一つを変化させる動作と対応付けられている。
【0089】
表示部66は、検知部62により検知された、身体92の状態を示すジェスチャに基づいて、仮想オブジェクト12を表示してよく、作業支援情報130を表示してもよい。制御部63(
図3参照)は、身体92の状態を示すジェスチャに対応するジェスチャ情報を、記憶部68から読み出してよい。制御部63は、当該ジェスチャ情報に対応する表示態様を、記憶部68から読み出してよい。表示部66は、記憶部68から読み出された当該表示態様で、仮想オブジェクト12および作業支援情報130の少なくとも一方を表示してよい。
図10の例において、表示部66は実線矢印で指された仮想オブジェクト12を表示する。
【0090】
調整部64は、検知部62により検知されたジェスチャに基づいて、仮想オブジェクト12の大きさを調整してもよい。仮想オブジェクト12の大きさを調整するためのジェスチャは、予め定められていてよい。当該ジェスチャに対応するジェスチャ情報は、記憶部68(
図3参照)に記憶されていてよい。操作者90が操作し易い、仮想オブジェクト12の大きさは、操作者90ごとに異なり得る。本例においては、操作者90は、仮想オブジェクト12の大きさを操作者90が操作し易い大きさに調整できる。
【0091】
検知部62は、操作者90の一方の手94-1(
図2参照)の位置および大きさを検知し、他方の手94-2(
図2参照)の状態を示すジェスチャを検知してよい。
図2の例では、検知部62は操作者90の左手の位置および大きさを検知し、右手の状態を示すジェスチャを検知する。
図2の例では、左手は仮想オブジェクト12を把持していることを想定した状態であるので、操作者90は左手を動作させにくい。
図2の例では、操作者90は左手よりも右手を動作させやすい。
【0092】
図2の例では、検知部62は右手の状態を示すジェスチャを検知する。
図2の例では、調整部64は、右手の状態のジェスチャに基づいて仮想オブジェクト12の大きさを調整する。一方の手94-1に表示された仮想オブジェクト12が大き過ぎる、または、小さすぎる場合、操作者90は、他方の手94-2で仮想オブジェクト12の大きさを微調整できる。
【0093】
図9の例において、指96を指すジェスチャ(フィンガージェスチャ)は、表示部66が、方向dp(
図7~
図9参照)における仮想オブジェクト12の位置を変化させる動作と対応付けられていてもよい。一のジェスチャが、仮想オブジェクト12を操作者90側(位置Pq(
図7~
図9参照)側)に近付ける動作と対応付けられていてよく、他のジェスチャが、仮想オブジェクト12を手94側(位置Pu(
図7~
図9参照)側)に近付ける動作と対応付けられていてよい。調整部64は、検知部62により検知されたジェスチャに基づいて、方向dpにおける、仮想オブジェクト12を表示する位置を調整してよい。
【0094】
操作者90が操作し易い、仮想オブジェクト12の方向dp(
図7~
図9参照)における位置は、操作者90ごとに異なり得る。本例においては、操作者90は、仮想オブジェクト12の方向dpにおける位置を、操作者90が操作し易い位置に調整できる。調整部64は、一方の手94-1(
図2参照)の状態を示すジェスチャに基づいて、方向dpにおける、仮想オブジェクト12を表示する位置を調整してもよい。
【0095】
図11は、本発明の一つの実施形態に係る作業支援方法の一例を示すフローチャートである。作業支援方法は、リアルタイムの現実画像10(
図2参照)に仮想オブジェクト12を重畳表示する。作業支援方法は、3次元空間の現実画像10に仮想オブジェクト12を重畳表示する。作業支援方法を、作業支援装置100(
図3参照)を例に説明する。
図11においては、仮想オブジェクト12は仮想Ob12と表示されている。
【0096】
作業支援方法は、検知ステップS100、調整ステップS110および表示ステップS112を備える。作業支援方法は、起動ステップS90、読込ステップS92、判定ステップS104、判定ステップS124をさらに備えてよい。
【0097】
起動ステップS90は、制御部63(
図3参照)が撮像部60(
図3参照)を起動するステップである。読込ステップS92は、制御部63(
図3参照)が、記憶部68(
図3参照)に記憶されたジェスチャ情報を読込むステップである。
【0098】
検知ステップS100は、検知部62(
図3参照)が、現実画像10における、操作者90の身体92の一部の位置および大きさを検知するステップである。検知ステップS100の後、作業支援方法は検知ステップS104に進む。
【0099】
判定ステップS104は、検知部62(
図3参照)がジェスチャを検知したかを判定するステップである。判定ステップS104は、制御部63(
図3参照)が、当該ジェスチャ情報に対応する表示態様を記憶部68から読み出すステップを含んでよい。判定ステップS104においてジェスチャを検知したと判定された場合、検知部62は、当該ジェスチャ情報に対応する表示態様を検知してよい。判定ステップS104においてジェスチャを検知しないと判定された場合、作業支援方法は検知ステップS100に戻る。
【0100】
判定ステップS104において、仮想オブジェクト12を表示させるジェスチャが検知された場合、作業支援方法は調整ステップS110に進む。判定ステップS104において、ボタン14(
図2参照)を操作するジェスチャが検知された場合、作業支援方法は判定ステップS106に進む。
図10の例では、仮想オブジェクト12を表示させるジェスチャはハンドジェスチャであり、ボタン14を操作するジェスチャはフィンガージェスチャである。
【0101】
調整ステップS110は、調整部64(
図3参照)が、仮想オブジェクト12を、検知ステップS100において検知された大きさに応じた大きさに調整するステップである。表示ステップS112は、表示部66(
図3参照)が仮想オブジェクト12を現実画像10(
図2参照)に重畳表示するステップである。表示ステップS112は、表示部66が、検知ステップS100において検知された位置に、調整ステップS110において調整された大きさで、仮想オブジェクト12を重畳表示するステップである。表示ステップS112の後、作業支援方法は判定ステップS124に進む。
【0102】
判定ステップS124は、検知部62(
図3参照)が、作業を続けるジェスチャを検知したか、または、作業を終了するジェスチャを検知したかを判定するステップである。判定ステップS124において作業を続けるジェスチャを検知したと判定された場合、作業支援方法は検知ステップS100に戻る。判定ステップS124において作業を終了するジェスチャを検知したと判定された場合、作業支援方法は、作業支援装置100の動作を終了させる。
【0103】
判定ステップS106は、検知部62(
図3参照)が、指96がボタン14に衝突したか(
図10参照)を判定するステップである。指96がボタン14に衝突したかは、二つ以上のオブジェクトの交差の検出に係る既存のプログラム処理により、判定されてよい。判定ステップS104において指96がボタン14に衝突したと判定された場合、検知部62は、当該ボタン14に対応する表示態様を検知してよい。判定ステップS104において指96がボタン14に衝突しないと判定された場合、作業支援方法は判定ステップS124に移る。
【0104】
判定ステップS106において、仮想オブジェクト12の更新に対応するボタン14に衝突したと判定された場合、作業支援方法は表示ステップS108に移る。判定ステップS106において、作業支援情報130の表示に対応するボタン14に衝突したと判定された場合、作業支援方法は取得ステップS114に移る。
【0105】
表示ステップS108は、表示部66が、仮想オブジェクト12を更新するかまたはボタン14を更新するステップである。表示ステップS108の後、作業支援方法は調整ステップS110に移る。
【0106】
取得ステップS114は、検知部62(
図3参照)がマーカ120(
図1参照)の座標を取得するステップである。検知部62は、撮像部60(
図3参照)によりマーカ120の画像に基づいて、マーカ120の座標を取得してよい。
【0107】
調整ステップS116は、調整部64(
図3参照)が、取得ステップS114において取得されたマーカ120の座標に基づいて、作業支援情報130の表示位置を調整するステップである。読込ステップS118は、制御部63(
図3参照)が、記憶部68(
図3参照)に記憶された作業支援情報130を読込むステップである。表示ステップS120は、表示部66(
図3参照)が、読込ステップS118において読み込まれた作業支援情報130を、調整ステップS116において調整された位置に重畳表示するステップである。
【0108】
図12は、本発明の一つの実施形態に係る作業支援装置100が全体的または部分的に具現化されてよいコンピュータ2200の一例を示す図である。コンピュータ2200にインストールされたプログラムは、コンピュータ2200に、本発明の実施形態に係る作業支援装置100に関連付けられる操作、または、作業支援装置100の一または複数のセクションとして機能させることができ、または当該操作または当該一または複数のセクションを実行させることができ、またはコンピュータ2200に、本発明の作業支援方法に係る各段階(
図10参照)を実行させることができる。当該プログラムは、コンピュータ2200に本明細書に記載されたフローチャート(
図11)およびブロック図(
図3)におけるブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU2212によって実行されてよい。
【0109】
本発明の一つの実施形態に係るコンピュータ2200は、CPU2212、RAM2214、グラフィックコントローラ2216およびディスプレイデバイス2218を含む。CPU2212、RAM2214、グラフィックコントローラ2216およびディスプレイデバイス2218は、ホストコントローラ2210によって相互に接続されている。コンピュータ2200は、通信インターフェース2222、ハードディスクドライブ2224、DVD-ROMドライブ2226およびICカードドライブ等の入出力ユニットをさらに含む。通信インターフェース2222、ハードディスクドライブ2224、DVD-ROMドライブ2226およびICカードドライブ等は、入出力コントローラ2220を介してホストコントローラ2210に接続されている。コンピュータは、ROM2230およびキーボード2242等のレガシの入出力ユニットをさらに含む。ROM2230およびキーボード2242等は、I/Oチップ2240を介して入出力コントローラ2220に接続されている。
【0110】
CPU2212は、ROM2230およびRAM2214内に格納されたプログラムに従い動作することにより、各ユニットを制御する。グラフィックコントローラ2216は、RAM2214内に提供されるフレームバッファ等またはRAM2214の中に、CPU2212によって生成されたイメージデータを取得することにより、イメージデータがディスプレイデバイス2218上に表示されるようにする。
【0111】
通信インターフェース2222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2224は、コンピュータ2200内のCPU2212によって使用されるプログラムおよびデータを格納する。DVD-ROMドライブ2226は、プログラムまたはデータをDVD-ROM2201から読み取り、読み取ったプログラムまたはデータを、RAM2214を介してハードディスクドライブ2224に提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取るか、または、プログラムおよびデータをICカードに書き込む。
【0112】
ROM2230は、アクティブ化時にコンピュータ2200によって実行されるブートプログラム等、または、コンピュータ2200のハードウェアに依存するプログラムを格納する。I/Oチップ2240は、様々な入出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ2220に接続してよい。
【0113】
プログラムが、DVD-ROM2201またはICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2224、RAM2214、またはROM2230にインストールされ、CPU2212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ2200の使用に従い、情報の操作または処理を実現することによって構成されてよい。
【0114】
例えば、通信がコンピュータ2200および外部デバイス間で実行される場合、CPU2212は、RAM2214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インターフェース2222に対し、通信処理を命令してよい。通信インターフェース2222は、CPU2212の制御下、RAM2214、ハードディスクドライブ2224、DVD-ROM2201またはICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。
【0115】
CPU2212は、ハードディスクドライブ2224、DVD-ROMドライブ2226(DVD-ROM2201)、ICカード等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2214に読み取られるようにしてよい。CPU2212は、RAM2214上のデータに対し、様々なタイプの処理を実行してよい。CPU2212は、次に、処理されたデータを外部記録媒体にライトバックしてよい。
【0116】
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理されてよい。CPU2212は、RAM2214から読み取られたデータに対し、本開示に記載された、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索または置換等を含む、様々なタイプの処理を実行してよい。CPU2212は、結果をRAM2214に対しライトバックしてよい。
【0117】
CPU2212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、第2の属性値を読み取ることにより、予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
【0118】
上述したプログラムまたはソフトウェアモジュールは、コンピュータ2200上またはコンピュータ2200のコンピュータ可読媒体に格納されてよい。専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能である。プログラムは、当該記録媒体によりコンピュータ2200に提供されてよい。
【0119】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0120】
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
【符号の説明】
【0121】
10・・・現実画像、12・・・仮想オブジェクト、14・・・ボタン、60・・・撮像部、62・・・検知部、63・・・制御部、64・・・調整部、66・・・表示部、68・・・記憶部、90・・・操作者、91・・・関節、92・・・身体、94・・・手、95・・・手首、96・・・指、98・・・掌、99・・・甲、100・・・作業支援装置、110・・・設備、112・・・仮想オブジェクト、120・・・マーカ、130・・・作業支援情報、200・・・作業環境、300・・・作業支援装置、2200・・・コンピュータ、2201・・・DVD-ROM、2210・・・ホストコントローラ、2212・・・CPU、2214・・・RAM、2216・・・グラフィックコントローラ、2218・・・ディスプレイデバイス、2220・・・入出力コントローラ、2222・・・通信インターフェース、2224・・・ハードディスクドライブ、2226・・・DVD-ROMドライブ、2230・・・ROM、2240・・・I/Oチップ、2242・・・キーボード