(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024130959
(43)【公開日】2024-09-30
(54)【発明の名称】情報処理システムおよびプログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20240920BHJP
G06F 3/0481 20220101ALI20240920BHJP
G06F 3/14 20060101ALI20240920BHJP
H04N 1/00 20060101ALI20240920BHJP
【FI】
G06F3/01 510
G06F3/0481
G06F3/14 330A
H04N1/00 350
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2023040940
(22)【出願日】2023-03-15
(71)【出願人】
【識別番号】000005496
【氏名又は名称】富士フイルムビジネスイノベーション株式会社
(74)【代理人】
【識別番号】100104880
【弁理士】
【氏名又は名称】古部 次郎
(74)【代理人】
【識別番号】100125346
【弁理士】
【氏名又は名称】尾形 文雄
(72)【発明者】
【氏名】清水 智行
【テーマコード(参考)】
5B069
5C062
5E555
【Fターム(参考)】
5B069AA01
5B069DB00
5B069DD05
5B069DD15
5B069JA06
5B069JA08
5C062AA05
5C062AA13
5C062AB17
5C062AB20
5C062AB22
5C062AB23
5C062AC05
5C062AC55
5C062AC58
5E555AA64
5E555BA01
5E555BA05
5E555BA38
5E555BB01
5E555BB05
5E555BB38
5E555BC17
5E555BC18
5E555BD01
5E555BD07
5E555BE17
5E555CA12
5E555CA42
5E555CA44
5E555CB12
5E555CB19
5E555CB21
5E555CB55
5E555CC01
5E555DA08
5E555DA09
5E555DB41
5E555DB51
5E555DB56
5E555DC09
5E555DC13
5E555DC61
5E555DD01
5E555DD04
5E555DD06
5E555DD08
5E555EA02
5E555EA11
5E555EA14
5E555EA22
5E555FA00
(57)【要約】
【課題】第1ユーザと第2ユーザとの視点を考慮しない場合に比して、第1ユーザから第2ユーザへ情報を伝達しやすくする。
【解決手段】情報処理システムは、1または複数のプロセッサを備え、1または複数のプロセッサは、第1ユーザにより入力される付随情報を取得し、第1ユーザが付随情報を入力する対象物の一部に対応する目印画像を取得し、第2ユーザの端末装置に目印画像を表示させ、目印画像と対象物の一部との関係により、付随情報を表示させることを特徴とする。
【選択図】
図1
【特許請求の範囲】
【請求項1】
1または複数のプロセッサを備え、
前記1または複数のプロセッサは、
第1ユーザにより入力される付随情報を取得し、
前記第1ユーザが前記付随情報を入力する対象物の一部に対応する目印画像を取得し、
第2ユーザの端末装置に前記目印画像を表示させ、
前記目印画像と前記対象物の一部との関係により、前記付随情報を表示させる
ことを特徴とする情報処理システム。
【請求項2】
前記1または複数のプロセッサは、前記目印画像と前記対象物の一部とが、前記第1ユーザと前記第2ユーザとの視点が略一致していると判断できる関係にある場合に、前記付随情報を表示させる
ことを特徴とする請求項1に記載の情報処理システム。
【請求項3】
前記1または複数のプロセッサは、前記目印画像と前記対象物の一部とが合致した場合に前記付随情報を表示させる
ことを特徴とする請求項2に記載の情報処理システム。
【請求項4】
前記1または複数のプロセッサは、前記目印画像として複数の候補を前記第1ユーザの端末装置に表示させ、当該第1ユーザの選択を受け付ける
ことを特徴とする請求項1に記載の情報処理システム。
【請求項5】
前記1または複数のプロセッサは、前記目印画像に対する付加情報を前記第1ユーザから受け付ける
ことを特徴とする請求項4に記載の情報処理システム。
【請求項6】
前記1または複数のプロセッサは、前記目印画像を取得する際に、前記第1ユーザの端末装置画面上に表示される当該目印画像の位置を取得する
ことを特徴とする請求項1に記載の情報処理システム。
【請求項7】
前記1または複数のプロセッサは、前記目印画像を取得する際に、前記第1ユーザの端末装置画面の解像度を取得する
ことを特徴とする請求項6に記載の情報処理システム。
【請求項8】
前記1または複数のプロセッサは、前記第1ユーザの端末装置が発光機能を有する場合、前記目印画像を取得する際に発光状態を取得する
ことを特徴とする請求項1に記載の情報処理システム。
【請求項9】
前記1または複数のプロセッサは、前記第2ユーザによる撮像画面上に前記対象物の前記目印画像に対応する前記一部が視認できない場合、当該一部が視認できる状態までの案内情報を表示させる
ことを特徴とする請求項1に記載の情報処理システム。
【請求項10】
前記1または複数のプロセッサは、前記第2ユーザによる確認情報の入力を受け付ける
ことを特徴とする請求項1に記載の情報処理システム。
【請求項11】
前記1または複数のプロセッサは、前記第1ユーザが入力した前記付随情報の一覧を前記第2ユーザの端末装置に表示させ、当該第2ユーザから前記確認情報の入力を受け付けたか否かに応じて当該付随情報の表示方法を変更する
ことを特徴とする請求項10に記載の情報処理システム。
【請求項12】
1または複数のプロセッサに実現させるプログラムであって、
第1ユーザの端末装置から入力される付随情報を取得する機能と、
前記第1ユーザが付随情報を入力する対象物の一部に対応する目印画像を取得する機能と、
第2ユーザの端末装置に前記目印画像を表示させる機能と、
前記目印画像と前記対象物の一部との関係により、前記付随情報を表示させる機能と、
を実現させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理システムおよびプログラムに関する。
【背景技術】
【0002】
特許文献1には、保守点検作業の状態を正確に把握するために、保守点検作業を終了したときにその終了後の状態を情報発信機の撮影機能を利用して撮影し、その撮影画像を監視センタに送信する、とする保守点検管理システムが記載されている。
特許文献2には、作業に関わる人々の役割に応じた作業指示やチェックシートによる確認作業をリアルタイムに行うために、作業に関わるそれぞれの役割に応じて品質を確保する各種チェックシートの確認状況や作業根拠写真をリアルタイムに登録・収集し、関係者へのワークフローと共に情報共有する、とする遠隔品質管理システムが記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2007-137658号公報
【特許文献2】特開2014-157609号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
第1ユーザによる作業内容を第2ユーザに引き継ぐ場合に、連絡事項の引継ぎが行われることがある。その際、第2ユーザに上手く伝達することができないことが問題となる。例えば、第1ユーザによる連絡事項を第2ユーザが確認しようとする際に第1ユーザと第2ユーザとの視点が異なる場合には、その情報が上手く伝達されない状況が起こり得る。
本発明の目的は、第1ユーザと第2ユーザとの視点を考慮しない場合に比して、第1ユーザから第2ユーザへ情報を伝達しやすくすることにある。
【課題を解決するための手段】
【0005】
請求項1に記載の発明は、1または複数のプロセッサを備え、前記1または複数のプロセッサは、第1ユーザにより入力される付随情報を取得し、前記第1ユーザが前記付随情報を入力する対象物の一部に対応する目印画像を取得し、第2ユーザの端末装置に前記目印画像を表示させ、前記目印画像と前記対象物の一部との関係により、前記付随情報を表示させることを特徴とする情報処理システムである。
請求項2に記載の発明は、前記1または複数のプロセッサは、前記目印画像と前記対象物の一部とが、前記第1ユーザと前記第2ユーザとの視点が略一致していると判断できる関係にある場合に、前記付随情報を表示させることを特徴とする請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記1または複数のプロセッサは、前記目印画像と前記対象物の一部とが合致した場合に前記付随情報を表示させることを特徴とする請求項2に記載の情報処理システムである。
請求項4に記載の発明は、前記1または複数のプロセッサは、前記目印画像として複数の候補を前記第1ユーザの端末装置に表示させ、当該第1ユーザの選択を受け付けることを特徴とする請求項1に記載の情報処理システムである。
請求項5に記載の発明は、前記1または複数のプロセッサは、前記目印画像に対する付加情報を前記第1ユーザから受け付けることを特徴とする請求項4に記載の情報処理システムである。
請求項6に記載の発明は、前記1または複数のプロセッサは、前記目印画像を取得する際に、前記第1ユーザの端末装置画面上に表示される当該目印画像の位置を取得することを特徴とする請求項1に記載の情報処理システムである。
請求項7に記載の発明は、前記1または複数のプロセッサは、前記目印画像を取得する際に、前記第1ユーザの端末装置画面の解像度を取得することを特徴とする請求項6に記載の情報処理システムである。
請求項8に記載の発明は、前記1または複数のプロセッサは、前記第1ユーザの端末装置が発光機能を有する場合、前記目印画像を取得する際に発光状態を取得することを特徴とする請求項1に記載の情報処理システムである。
請求項9に記載の発明は、前記1または複数のプロセッサは、前記第2ユーザによる撮像画面上に前記対象物の前記目印画像に対応する前記一部が視認できない場合、当該一部が視認できる状態までの案内情報を表示させることを特徴とする請求項1に記載の情報処理システムである。
請求項10に記載の発明は、前記1または複数のプロセッサは、前記第2ユーザによる確認情報の入力を受け付けることを特徴とする請求項1に記載の情報処理システムである。
請求項11に記載の発明は、前記1または複数のプロセッサは、前記第1ユーザが入力した前記付随情報の一覧を前記第2ユーザの端末装置に表示させ、当該第2ユーザから前記確認情報の入力を受け付けたか否かに応じて当該付随情報の表示方法を変更することを特徴とする請求項10に記載の情報処理システムである。
請求項12に記載の発明は、1または複数のプロセッサに実現させるプログラムであって、第1ユーザの端末装置から入力される付随情報を取得する機能と、前記第1ユーザが付随情報を入力する対象物の一部に対応する目印画像を取得する機能と、第2ユーザの端末装置に前記目印画像を表示させる機能と、前記目印画像と前記対象物の一部との関係により、前記付随情報を表示させる機能と、を実現させるためのプログラムである。
【発明の効果】
【0006】
請求項1,12の発明によれば、第1ユーザと第2ユーザとの視点を考慮しない場合に比して、第1ユーザから第2ユーザへ情報を伝達しやすくすることができる。
請求項2の発明によれば、第1ユーザと第2ユーザとの視点が一致していると判断できる関係にある場合に、第2ユーザが付随情報を確認することができる。
請求項3の発明によれば、目印画像と対象物の一部とが合致した場合に第2ユーザが付随情報を確認することができる。
請求項4の発明によれば、第1ユーザが視点を合わせるための目印画像を選択することができる。
請求項5の発明によれば、第2ユーザが目印画像に対応する対象物の一部の情報を認識することができる。
請求項6の発明によれば、第2ユーザの端末に目印画像を表示させる位置を第1ユーザの視点に合わせることができる。
請求項7の発明によれば、第1ユーザと第2ユーザとが用いる端末の解像度が異なる場合に、端末に対する相対位置を合わせて目印画像を表示させることができる。
請求項8の発明によれば、明るさによる見え方の違いを考慮することができる。
請求項9の発明によれば、第1ユーザが付随情報を入力した対象物を第2ユーザが確認することができる。
請求項10の発明によれば、第2ユーザによる対応内容を確認することができる。
請求項11の発明によれば、第2ユーザによる確認がされていないものを判別することができる。
【図面の簡単な説明】
【0007】
【
図1】本実施の形態に係る情報処理システムの構成例を示す図である。
【
図2】第1ユーザ端末、第2ユーザ端末および管理サーバとして用いられるコンピュータのハードウェア構成例を示す図である。
【
図3】実施の形態に係る管理サーバの機能構成例を示す図である。
【
図4】付随情報管理記憶部に格納される情報の例を示す図であり、(a)は第1ユーザが入力した付随情報に関する情報をリスト化した図であり、(b)は第2ユーザが入力した確認情報に関する情報をリスト化した図である。
【
図5】管理サーバが第1ユーザにより入力された付随情報を第1ユーザ端末から取得する際の処理の流れの例を示すフローチャートである。
【
図6】管理サーバが第1ユーザにより入力された目印情報を第1ユーザ端末から取得する際の処理の流れの例を示すフローチャートである。
【
図7】ARマニュアル表示部が物体/部品の一覧を第1ユーザ端末に表示させる際の表示例を示す図である。
【
図8】第1ユーザが付随情報を入力する対象物の一部に対応する目印画像を取得する際に第1ユーザ端末に表示される表示画面の例を示す図であり、(a)は第1ユーザから視点の記録を受け付ける際の表示画面例を示す図であり、(b)は第1ユーザから目印画像の選択を受け付ける際の表示画面例を示す図である。
【
図9】管理サーバが第1ユーザにより入力された付随情報を第2ユーザ端末に表示させ、第2ユーザによる確認を受け付ける際の処理の流れの例を示すフローチャートである。
【
図10】付随情報が入力された対象物が視認できない場合に、第2ユーザ端末上に表示される画像の例を示す図である。
【
図11】視点ガイド部が第2ユーザ端末に表示させる位置合わせ用の矩形/輪郭画像の表示例を示す図である。
【発明を実施するための形態】
【0008】
以下、添付図面を参照して、本発明の実施形態について詳細に説明する。
<情報処理システムの構成>
図1は、本実施の形態に係る情報処理システムの構成例を示す図である。
情報処理システム1は、第1ユーザ端末10と、第2ユーザ端末20と、管理サーバ30とを備える。第1ユーザ端末10と第2ユーザ端末20と管理サーバ30とは、ネットワーク40を介して接続されている。
【0009】
第1ユーザ端末10は、連絡事項を記録するために第1ユーザが使用する端末である。第1ユーザとは例えば作業における前任者であり、第1ユーザは後任者である第2ユーザに作業内容を伝達するために情報処理システム1を利用する。第1ユーザ端末10は、例えばカメラ機能を有しており、第1ユーザは第1ユーザ端末10を通して作業を行う対象物を視認する。第1ユーザは、例えば第1ユーザ端末10に表示されるARマニュアルに従い、対象物のメンテナンスを実施する。第1ユーザは、メンテナンスにおいて実施した作業記録等、第2ユーザに伝達すべき付随情報を作業対象箇所と紐付けて第1ユーザ端末10に入力する。第1ユーザは、ARマニュアルにより表示される作業ごとに付随情報を入力する。
【0010】
第1ユーザ端末10は、第1ユーザにより入力される付随情報を取得する。付随情報とは、例えば第1ユーザが行った作業内容の記録である。また、第1ユーザ端末10は、第1ユーザが付随情報を入力する対象物の一部に対応する目印画像を取得する。目印画像とは第2ユーザが第1ユーザと視点を合わせるためのガイドであり、第1ユーザ端末10は作業対象物の実体の一部と対応させて目印画像を取得する。
なお、第1ユーザは実際の作業者に限定されず、例えば遠方の支援者が付随情報を入力しても良い。
【0011】
第2ユーザ端末20は、第1ユーザからの連絡事項を確認するために第2ユーザが使用する端末である。第2ユーザ端末20は、例えばカメラ機能を有しており、第2ユーザは第2ユーザ端末20を通して作業を行う対象物を視認する。第2ユーザ端末20は、第1ユーザ端末10が取得した目印画像を端末画面上に表示し、目印画像と対象物の一部との関係により、第1ユーザにより入力された付随情報を表示する。
【0012】
第2ユーザ端末20は、例えば目印画像と対象物の一部とが、第1ユーザと第2ユーザとの視点が略一致していると判断できる関係にある場合に付随情報を表示する。第1ユーザと第2ユーザとの視点が略一致していると判断できる関係にある場合とは、例えば目印画像と対象物の一部とが第2ユーザ端末20の画面上で合致した場合である。また、目印画像と対象物の一部とが完全に合致していなくても、付随情報を表示する構成としても良い。例えば目印画像の内側に対象物の一部がすべて含まれ、視点が一致しているとみなせる場合には付随情報を表示する構成としても良い。
また第2ユーザ端末20は、第2ユーザが付随情報を確認したことを示す確認情報の入力を受け付ける構成としても良い。
【0013】
第1ユーザ端末10および第2ユーザ端末20は、例えば、コンピュータ、タブレット型情報端末、その他の情報処理装置により実現される。また、第1ユーザ端末10および第2ユーザ端末20は、HMD(Head Mounted Display)のようなグラス型の端末であっても良い。また、第1ユーザ端末10と第2ユーザ端末20とは同一の端末であっても良い。第1ユーザ端末10と第2ユーザ端末20とが同一の場合、第2ユーザは第1ユーザが使用した第1ユーザ端末10を第2ユーザ端末20として使用する。
【0014】
管理サーバ30は、第1ユーザおよび第2ユーザが実施する作業のマニュアルを記憶し、必要に応じて第1ユーザ端末10および第2ユーザ端末20に表示させる。また管理サーバ30は、第1ユーザにより入力された付随情報および目印画像に関する情報を第1ユーザ端末10から取得する。そして管理サーバ30は、第2ユーザ端末20に目印情報を表示させ、目印画像と対象物の一部との関係により、第1ユーザにより入力された付随情報を表示させる。
管理サーバ30は、例えば、コンピュータにより実現される。管理サーバ30は、単一のコンピュータにより構成しても良いし、複数のコンピュータによる分散処理により実現しても良い。
【0015】
ネットワーク40は、第1ユーザ端末10と第2ユーザ端末20と管理サーバ30との間の通信を担う情報通信ネットワークである。ネットワーク40は、データの送受信が可能であれば、その種類は特に限定されず、例えばインターネット、LAN(Local Area Network)、WAN(Wide Area Network)等として良い。データ通信に用いられる通信回線は、有線であっても無線であっても良い。また、複数のネットワークや通信回線を介して各装置を接続する構成としても良い。
【0016】
<コンピュータのハードウェア構成>
図2は、第1ユーザ端末10、第2ユーザ端末20および管理サーバ30として用いられるコンピュータのハードウェア構成例を示す図である。コンピュータ50は、プロセッサ51と、ROM(Read Only Memory)52と、RAM(Random Access Memory)53とを備える。プロセッサ51は、例えばCPU(Central Processing Unit)であり、RAM53を作業エリアに使用し、ROM52から読み出したプログラムを実行する。また、コンピュータ50は、ネットワークに接続するための通信インターフェイス54と、ディスプレイに表示出力を行うための表示機構55とを備える。また、コンピュータ50は、コンピュータ50の操作者による入力操作が行われる入力デバイス56を備える。なお、
図2に示すコンピュータ50の構成は例にすぎず、本実施形態で用いられるコンピュータは
図2の構成例に限定されるものではない。
なお、本実施の形態にて実行される各種処理は、1または複数のプロセッサによって実行される。
【0017】
<管理サーバの機能構成>
次に、管理サーバ30の機能構成について説明する。
図3は、本実施の形態に係る管理サーバ30の機能構成例を示す図である。
図3に示すように、管理サーバ30は、物体/部品認識部31と、ARマニュアル表示部32と、付随情報表示部33と、視点ガイド部34と、ARマニュアル管理部35と、ARマニュアル管理記憶部36と、付随情報管理部37と、付随情報管理記憶部38とを備える。
【0018】
物体/部品認識部31は、第1ユーザが付随情報を入力する対象物を撮影した画像もしくは動画を取得し、付随情報を入力する対象を認識する。また物体/部品認識部31は、付随情報を表示する位置を特定する。
ARマニュアル表示部32は、第1ユーザおよび第2ユーザが実施する作業のマニュアルに関する情報をARマニュアル管理部35から取得する。またARマニュアル表示部32は、取得したマニュアルを第1ユーザ端末10および第2ユーザ端末20に表示させる。
【0019】
付随情報表示部33は、第1ユーザにより入力された付随情報を付随情報管理部37から取得する。また付随情報表示部33は、取得した付随情報を物体/部品認識部31が特定した表示位置に表示させる。
視点ガイド部34は、第1ユーザが付随情報を入力する対象物の一部に対応する目印画像に関する情報を第1ユーザ端末10から取得する。視点ガイド部34は、取得した目印画像に関する情報を付随情報管理部37に送信する。付随情報管理部37は取得した目印画像に関する情報を付随情報管理記憶部38に格納する。また視点ガイド部34は、目印画像を第2ユーザ端末20に表示させる。
【0020】
ARマニュアル管理部35は、第1ユーザおよび第2ユーザが実施する作業のマニュアルをARマニュアル管理記憶部36に格納する。またARマニュアル管理部35は、必要な情報をARマニュアル管理記憶部36から取得し、ARマニュアル表示部32に送信する。
ARマニュアル管理記憶部36は第1ユーザおよび第2ユーザが実施する作業のマニュアルに関する情報を格納する。作業のマニュアルに関する情報とは、作業の手順、手順ごとに表示するARコンテンツ、ARコンテンツの表示位置等である。
【0021】
付随情報管理部37は、第1ユーザが入力した付随情報を第1ユーザ端末10から取得し、付随情報管理記憶部38に格納する。また付随情報管理部37は、必要に応じて付随情報を付随情報管理記憶部38から取得し、付随情報表示部33に送信する。
また付随情報管理部37は、第2ユーザが入力した確認情報を第2ユーザ端末20から取得し、付随情報管理記憶部38に格納する。
付随情報管理記憶部38は、第1ユーザが入力した付随情報および第2ユーザが入力した確認情報を格納する。付随情報管理記憶部38に格納される情報について、
図4を用いて説明する。
図4は、付随情報管理記憶部38に格納される情報の例を示す図であり、(a)は第1ユーザが入力した付随情報に関する情報をリスト化した図であり、(b)は第2ユーザが入力した確認情報に関する情報をリスト化した図である。
【0022】
図4(a)は第1ユーザが入力した付随情報に関する情報をリスト化した図である。付随情報管理記憶部38は、付随情報ID101と、記録日時102と、記録対象の物体/部品103と、特定指定箇所の座標104と、タイトル105と、メッセージ106と、作業端末の座標107と、作業端末の向き108と、作業端末のライト状態109と、位置合わせ用矩形/輪郭画像110とを紐付けて格納する。
記録日時102は第1ユーザが付随情報を入力した日時の情報である。
記録対象の物体/部品103は、第1ユーザが付随情報を入力する対象の名称である。
【0023】
特定指定箇所の座標104は、第1ユーザが付随情報を入力する対象が、表示されるARマニュアルにおいて認識される物体もしくは部品でなかった場合に取得される。第1ユーザが付随情報を入力する対象が表示されるARマニュアルにおいて認識される物体もしくは部品でない場合、例えば第1ユーザは第1ユーザ端末10の画面上で付随情報を入力する対象をタッチ操作により選択する。付随情報管理部37は、タッチ操作により選択された対象の3次元座標上における位置を、特定指定箇所の座標104として取得し、付随情報管理記憶部38に格納する。
【0024】
タイトル105およびメッセージ106は、第1ユーザが入力した付随情報の内容である。作業端末の座標107、作業端末の向き108および作業端末のライト状態109は、第1ユーザが付随情報を入力する際の第1ユーザ端末10の状態に関する情報である。
位置合わせ用矩形/輪郭画像110は、第1ユーザと第2ユーザとの視点を合わせるための目印画像である。付随情報管理記憶部38は、位置合わせ用矩形/輪郭画像110として、位置合わせ用矩形/輪郭画像に対応する作業対象物の実体の一部の名称、画像データの形式、ディスプレイ上での相対座標、ディスプレイ解像度等を格納する。
【0025】
図4(b)は第2ユーザが入力した確認情報に関する情報をリスト化した図である。付随情報管理記憶部38は、確認情報ID111と、対象の付随情報ID112と、記録日時113と、対応内容114とを紐付けて格納する。
例えば確認情報ID「1」には対象の付随情報ID「A」に紐付けられた付随情報に対する第2ユーザによる確認情報が紐付けられる。付随情報管理記憶部38は、確認情報ID「1」に紐付けて記録日時113「yyyy/mm/ddHH:MM:SS」と対応内容114「黄色のトナーカートリッジを交換しました。」を格納する。
【0026】
<付随情報の取得>
次に、管理サーバ30が第1ユーザにより入力された付随情報および目印情報を第1ユーザ端末10から取得する際の処理の流れについて
図5及び
図6を用いて説明する。
図5は、管理サーバ30が第1ユーザにより入力された付随情報を第1ユーザ端末10から取得する際の処理の流れの例を示すフローチャートであり、
図6は、管理サーバ30が第1ユーザにより入力された目印情報を第1ユーザ端末10から取得する際の処理の流れの例を示すフローチャートである。
【0027】
図5において、まず、ARマニュアル表示部32は、物体/部品の一覧を第1ユーザ端末10に表示させる(ステップS201)。ステップS201において、ARマニュアル表示部32は、第1ユーザが実施する作業に係るARマニュアルを表示させるとともに、ARマニュアルにおいて認識される物体もしくは部品の一覧を第1ユーザ端末10に表示させる。
【0028】
ステップS201において、ARマニュアル表示部32が物体/部品の一覧を第1ユーザ端末10に表示させる際の表示例について
図7を用いて説明する。
図7は、ARマニュアル表示部32が物体/部品の一覧を第1ユーザ端末10に表示させる際の表示例を示す図である。
ARマニュアル表示部32は、第1ユーザが実施する作業に係る作業手順301を第1ユーザ端末10に表示させる。
図7に示す例においては、トナー交換作業における、「トナー残量確認」の作業工程が第1ユーザにより実施される。ARマニュアル表示部32は、作業手順301のうち、「トナー残量確認」の作業工程において認識される物体/部品の一覧302を第1ユーザ端末10に表示させる。
図7に示す例においては、物体/部品の一覧302のうちから、トナーカートリッジ(イエロー)が選択され、選択されたトナーカートリッジ(イエロー)の実体の位置が円303により示されている。
【0029】
次に、付随情報管理部37は、一覧表示された物体/部品の中から、記録対象の物体/部品が選択されたか否かを判定する(ステップS202)。一覧表示された物体/部品の中から、記録対象の物体/部品が選択された場合(ステップS202でYES)、付随情報管理部37は、選択された物体/部品の情報を取得する(ステップS203)。次に、物体/部品認識部31は、選択された物体/部品の、さらに特定箇所が指定されたか否かを判定する(ステップS204)。さらに特定箇所が指定されるとは、例えば「原稿ガラス」を選択し、さらにそのうちの傷がついた箇所を選択する場合である。第1ユーザは、一覧の中から「原稿ガラス」を選択し、さらにそのうちの傷がついた箇所を例えば指等でポイントすることにより特定の箇所を指定することができる。
【0030】
選択された物体/部品の、さらに特定箇所が指定された場合(ステップS204でYES)、付随情報管理部37は、指定された箇所に重畳表示するARコンテンツを生成し(ステップS205)、ステップS204の処理に戻る。ステップS205において、付随情報管理部37は、例えば指定する箇所を囲うように表示することで指定箇所を示す円形のARコンテンツ(
図8の円312参照)を生成する。
ステップS204において、選択された物体/部品の、さらに特定箇所が指定されなかった場合(ステップS204でNO)、ステップS208の処理に進む。
【0031】
ステップS202において、一覧表示された物体/部品の中から、記録対象の物体/部品が選択されなかった場合(ステップS202でNO)、ARマニュアル表示部32は、ARコンテンツを表示する3次元座標を特定するための操作指示を第1ユーザ端末10に表示させる(ステップS206)。ステップS206において、ARマニュアル表示部32は、例えば複数の角度から対象位置をマーキングすることで3次元座標を特定する操作指示を第1ユーザ端末10に表示させる。
このことにより、ARコンテンツを配置する際の対象の奥行き座標の指定を容易にすることができる。
【0032】
次に、付随情報管理部37は、特定した3次元座標に重畳表示するARコンテンツを生成する(ステップS206)。次に、付随情報管理部37は、付随情報のタイトル、メッセージ等の入力を受け付ける(ステップS208)。ステップS208において、ARマニュアル表示部32が、第1ユーザが入力すべき項目を表示する構成としても良い。例えば、「トナー残量確認」の作業を実施する場合、ARマニュアル表示部32は、「トナー残量」を入力する旨のメッセージを第1ユーザ端末10に表示させる。
【0033】
次に、ARマニュアル表示部32は、[立ち位置/見え方を記録]ボタンを第1ユーザ端末10に表示させる(ステップS209)。次に、視点ガイド部34は、[立ち位置/見え方を記録]ボタンが押下されたか否かを判定する(ステップS210)。[立ち位置/見え方を記録]ボタンが押下されていない場合(ステップS210でNO)、ステップS209の処理に戻る。
一方、[立ち位置/見え方を記録]ボタンが押下された場合(ステップS210でYES)、付随情報管理部37は、現在の第1ユーザ端末10の位置座標、向き、ライト点灯状況を取得する(ステップS211)。ステップS211において、第1ユーザ端末10の位置座標は、公知の自己位置推定技術により算出される。第1ユーザ端末10の向きは、例えば加速度センサと地磁気センサの情報等により算出される。また、第1ユーザ端末10が発光機能を有する場合、付随情報管理部37は発光状態を取得する。
【0034】
次に、視点ガイド部34は、撮影画像から矩形、輪郭を検出し、その一覧を第1ユーザ端末10に表示させる(ステップS212)。次に、視点ガイド部34は、矩形、輪郭が選択されたか否かを判定する(ステップS213)。矩形、輪郭が選択された場合(ステップS213でYES)、視点ガイド部34は、選択された矩形、輪郭の名前の入力を受け付ける(ステップS214)。ステップS214において、視点ガイド部34は、選択された矩形、輪郭に対する付加情報として名前の入力を受け付ける。一方、矩形、輪郭が選択されなかった場合(ステップS213でNO)、ステップS215の処理に進む。
【0035】
次に、視点ガイド部34は、矩形、輪郭の選択が終了されたか否かを判定する(ステップS215)。矩形、輪郭の選択が終了された場合(ステップS215でYES)、付随情報管理部37は、付随情報および関連する情報を付随情報管理記憶部38に格納する(ステップS216)。
一方で矩形、輪郭の選択が終了されなかった場合(ステップS215でNO)、ステップS212の処理に戻る。
なお、
図6に示す例において、視点ガイド部34は、目印画像として矩形、輪郭を利用しているが、これに限定されない。視点ガイド部34は、目印画像として例えば予め定められた大きさ以上の対象物の一部を利用することができる構成としても良い。
【0036】
図6のステップS209乃至ステップS214において、第1ユーザ端末10に表示される表示画面について、
図8を用いて説明する。
図8は第1ユーザが付随情報を入力する対象物の一部に対応する目印画像を取得する際に第1ユーザ端末10に表示される表示画面の例を示す図であり、(a)は第1ユーザから視点の記録を受け付ける際の表示画面例を示す図であり、(b)は第1ユーザから目印画像の選択を受け付ける際の表示画面例を示す図である。
【0037】
図8(a)に示す例において、第1ユーザ端末10は、第1ユーザが付随情報を入力する対象物である印刷装置311を撮影し、画面に表示する。第1ユーザは
図5のステップS204において付加情報を表示する箇所を選択し、選択された箇所にARコンテンツである円312が表示される。また付加情報を表示する箇所に表示する内容として第1ユーザが
図6のステップS208において入力した付随情報「原稿ガラスに傷あり」のメッセージ313が表示される。
なお、円312およびメッセージ313等の付随情報に関するARコンテンツは、第1ユーザ端末10に表示されない構成としても良い。この場合、付随情報に関するARコンテンツは、第2ユーザ端末20にのみ表示される。
【0038】
ステップS209において、ARマニュアル表示部32は、[立ち位置/見え方を記録]ボタン314を第1ユーザ端末10に表示させる。第1ユーザが[立ち位置/見え方を記録]ボタン314を押下すると、第1ユーザ端末10の表示画面が
図8(b)に示す画面に切り替わる。
図6のステップS212において、視点ガイド部34は、撮影画像から矩形、輪郭315、316および317を検出し、その一覧を第1ユーザ端末10に表示させる。第1ユーザは複数の候補のうち一つを選択しても良く、また複数選択しても良い。
【0039】
<付随情報の確認>
次に、管理サーバ30が第1ユーザにより入力された付随情報を第2ユーザ端末20に表示させ、第2ユーザによる確認を受け付ける際の処理の流れについて
図9を用いて説明する。
図9は、管理サーバ30が第1ユーザにより入力された付随情報を第2ユーザ端末20に表示させ、第2ユーザによる確認を受け付ける際の処理の流れの例を示すフローチャートである。
【0040】
図9において、まず、物体/部品認識部31は、付随情報が入力された対象物が視認できるか否かを判定する(ステップS401)。付随情報が入力された対象物が視認できない場合(ステップS401でNO)、ARマニュアル表示部32は、該当作業までのガイドを第2ユーザ端末20に表示させる(ステップS402)。ステップS402において、ARマニュアル表示部32は、第1ユーザが付随情報を入力した作業手順までのARマニュアルを第2ユーザ端末20に表示させ、ステップS401の処理に戻る。
【0041】
ステップS402におけるガイドの表示例について、
図10を用いて説明する。
図10は、付随情報が入力された対象物が視認できない場合に、第2ユーザ端末20上に表示される画像の例を示す図である。付随情報が入力された対象物を視認できない場合、付随情報表示部33は、例えば第2ユーザ端末20上に破線状の円501を表示し、視認できない箇所に付随情報が入力された対象物があることを示す。円501の表示形式は破線状に限られず、
図8の円312と区別できる形式であれば良い。
また、付随情報表示部33は、円501の示す対象に対して入力された付随情報502を表示させても良い。
図10に示す例においては、「原稿ガラスに傷あり」の付随情報502を表示させている。
図10に示すように、複数の付随情報が入力されている場合、付随情報が入力された全ての箇所に対応して付随情報が表示される。
【0042】
対象物を視認するために、第2ユーザは「前任者が記録した作業までARガイドを開始する。」ボタン503を押下する。ボタン503が押下されると、ARマニュアル表示部32は、第1ユーザが付随情報を入力した該当作業までのガイド情報を第2ユーザ端末20に表示させる。ARマニュアル表示部32は、例えば、第1ユーザが付随情報を入力した際に使用していたARマニュアルを第2ユーザ端末20に表示させる。第2ユーザは、ガイドに従い操作を行うことで、第1ユーザが付随情報を入力した対象物を視認することができる。
【0043】
ステップS401において付随情報が入力された対象物が視認できる場合(ステップS401でYES)、視点ガイド部34は、位置合わせ用の矩形/輪郭画像を第2ユーザ端末20に表示させる(ステップS403)。
ステップS403において、視点ガイド部34が第2ユーザ端末20に表示させる位置合わせ用の矩形/輪郭画像の表示例について、
図11を用いて説明する。
図11は、視点ガイド部34が第2ユーザ端末20に表示させる位置合わせ用の矩形/輪郭画像の表示例を示す図である。視点ガイド部34は、位置合わせ用の矩形/輪郭画像601を第2ユーザ端末20に表示させる。その際に、視点ガイド部34は、第1ユーザ端末から目印画像を取得した際の画面上の位置に合わせて第2ユーザ端末20に表示させる。
【0044】
例えば、第1ユーザ端末10と第2ユーザ端末20との表示画面の解像度が同じである場合、視点ガイド部34は、第1ユーザ端末から目印画像を取得した際の画面上の座標と同じ座標に位置合わせ用の矩形/輪郭画像601を第2ユーザ端末20に表示させる。第1ユーザ端末10と第2ユーザ端末20との表示画面の解像度が異なる場合、視点ガイド部34は、第1ユーザ端末10から目印画像を取得した際の画面上の座標とディスプレイ解像度とから画面上の相対位置を算出し、第2ユーザ端末20における同じ相対位置に位置合わせ用の矩形/輪郭画像601を表示させる。
【0045】
次に、物体/部品認識部31は、「位置合わせ用の矩形/輪郭画像」と、撮像上から検出される矩形/輪郭が一致するか否かを判定する(ステップS404)。「位置合わせ用の矩形/輪郭画像」と、撮像上から検出される矩形/輪郭が一致しない場合(ステップS404でNO)、ステップS403の処理に戻る。
一方、「位置合わせ用の矩形/輪郭画像」と、撮像上から検出される矩形/輪郭が一致する場合(ステップS404でYES)、物体/部品認識部31は、付随情報入力時の第1ユーザ端末10の座標、向きと、現在の第2ユーザ端末20の座標、向きとの差が大きいか否かを判定する(ステップS405)。付随情報入力時の第1ユーザ端末10の座標、向きと、現在の第2ユーザ端末20の座標、向きとの差が大きいと判定された場合(ステップS405でYES)、ARマニュアル表示部32は、座標、向きの値の差分を基にしたガイドを第2ユーザ端末20に表示させ(ステップS406)、ステップS405の処理に戻る。
ステップS406において、ARマニュアル表示部32は、例えば、「奥に進んでください」、「端末を右に傾けてください」等のメッセージを第2ユーザ端末20に表示させる。
【0046】
ステップS405において付随情報入力時の第1ユーザ端末10の座標、向きと、現在の第2ユーザ端末20の座標、向きとの差が小さいと判定された場合(ステップS405でNO)、付随情報表示部33は、付随情報の詳細を第2ユーザ端末20に表示させる(ステップS407)。
次に、付随情報管理部37は、確認結果の入力を受け付ける(ステップS408)。例えば、付随情報表示部33は、付随情報の詳細とともに、第2ユーザからの確認結果の入力を受け付けるテキストフィールドを第2ユーザ端末20に表示させる。第2ユーザは対応内容をテキストフィールドに入力する。付随情報管理部37は、第2ユーザが入力した対応内容を取得し、付随情報管理記憶部38に格納する。
【0047】
また、ステップS402において、第1ユーザが入力した付随情報の一覧を第2ユーザ端末20に表示させる際に、第2ユーザから対応内容の入力を受け付けたか否かに応じて付随情報の表示方法を変更する構成としても良い。例えば、付随情報表示部33は、第2ユーザから対応内容の入力を受け付けた付随情報を表示する際には、確認済みであることを示すチェックマークを付して表示する。また、第2ユーザから対応内容の入力を受け付けた付随情報については表示しない構成としても良い。
また、作業者により入力された付随情報と、遠方の支援者により入力された付随情報とを区別して表示しても良い。
【0048】
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上記の実施の形態に記載の範囲には限定されない。上記の実施の形態を2つ以上組み合わせたものや、上記の実施の形態に種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
【0049】
(付記)
(((1)))
1または複数のプロセッサを備え、
前記1または複数のプロセッサは、
第1ユーザにより入力される付随情報を取得し、
前記第1ユーザが前記付随情報を入力する対象物の一部に対応する目印画像を取得し、
第2ユーザの端末装置に前記目印画像を表示させ、
前記目印画像と前記対象物の一部との関係により、前記付随情報を表示させる
ことを特徴とする情報処理システム。
(((2)))
前記1または複数のプロセッサは、前記目印画像と前記対象物の一部とが、前記第1ユーザと前記第2ユーザとの視点が略一致していると判断できる関係にある場合に、前記付随情報を表示させる
ことを特徴とする(((1)))に記載の情報処理システム。
(((3)))
前記1または複数のプロセッサは、前記目印画像と前記対象物の一部とが合致した場合に前記付随情報を表示させる
ことを特徴とする(((2)))に記載の情報処理システム。
(((4)))
前記1または複数のプロセッサは、前記目印画像として複数の候補を前記第1ユーザの端末装置に表示させ、当該第1ユーザの選択を受け付ける
ことを特徴とする(((1)))に記載の情報処理システム。
(((5)))
前記1または複数のプロセッサは、前記目印画像に対する付加情報を前記第1ユーザから受け付ける
ことを特徴とする(((4)))に記載の情報処理システム。
(((6)))
前記1または複数のプロセッサは、前記目印画像を取得する際に、前記第1ユーザの端末装置画面上に表示される当該目印画像の位置を取得する
ことを特徴とする(((1)))に記載の情報処理システム。
(((7)))
前記1または複数のプロセッサは、前記目印画像を取得する際に、前記第1ユーザの端末装置画面の解像度を取得する
ことを特徴とする(((6)))に記載の情報処理システム。
(((8)))
前記1または複数のプロセッサは、前記第1ユーザの端末装置が発光機能を有する場合、前記目印画像を取得する際に発光状態を取得する
ことを特徴とする(((1)))に記載の情報処理システム。
(((9)))
前記1または複数のプロセッサは、前記第2ユーザによる撮像画面上に前記対象物の前記目印画像に対応する前記一部が視認できない場合、当該一部が視認できる状態までの案内情報を表示させる
ことを特徴とする(((1)))に記載の情報処理システム。
(((10)))
前記1または複数のプロセッサは、前記第2ユーザによる確認情報の入力を受け付ける
ことを特徴とする(((1)))に記載の情報処理システム。
(((11)))
前記1または複数のプロセッサは、前記第1ユーザが入力した前記付随情報の一覧を前記第2ユーザの端末装置に表示させ、当該第2ユーザから前記確認情報の入力を受け付けたか否かに応じて当該付随情報の表示方法を変更する
ことを特徴とする(((10)))に記載の情報処理システム。
(((12)))
1または複数のプロセッサに実現させるプログラムであって、
第1ユーザの端末装置から入力される付随情報を取得する機能と、
前記第1ユーザが付随情報を入力する対象物の一部に対応する目印画像を取得する機能と、
第2ユーザの端末装置に前記目印画像を表示させる機能と、
前記目印画像と前記対象物の一部との関係により、前記付随情報を表示させる機能と、
を実現させるためのプログラム。
【0050】
(((1))),(((12)))の発明によれば、第1ユーザと第2ユーザとの視点を考慮しない場合に比して、第1ユーザから第2ユーザへ情報を伝達しやすくすることができる。
(((2)))の発明によれば、第1ユーザと第2ユーザとの視点が一致していると判断できる関係にある場合に、第2ユーザが付随情報を確認することができる。
(((3)))の発明によれば、目印画像と対象物の一部とが合致した場合に第2ユーザが付随情報を確認することができる。
(((4)))の発明によれば、第1ユーザが視点を合わせるための目印画像を選択することができる。
(((5)))の発明によれば、第2ユーザが目印画像に対応する対象物の一部の情報を認識することができる。
(((6)))の発明によれば、第2ユーザの端末に目印画像を表示させる位置を第1ユーザの視点に合わせることができる。
(((7)))の発明によれば、第1ユーザと第2ユーザとが用いる端末の解像度が異なる場合に、端末に対する相対位置を合わせて目印画像を表示させることができる。
(((8)))の発明によれば、明るさによる見え方の違いを考慮することができる。
(((9)))の発明によれば、第1ユーザが付随情報を入力した対象物を第2ユーザが確認することができる。
(((10)))の発明によれば、第2ユーザによる対応内容を確認することができる。
(((11)))の発明によれば、第2ユーザによる確認がされていないものを判別することができる。
【符号の説明】
【0051】
1…情報処理システム、10…第1ユーザ端末、20…第2ユーザ端末、30…管理サーバ、31…物品/部品認識部、32…ARマニュアル表示部、33…付随情報表示部、34…視点ガイド部、35…ARマニュアル管理部、36…ARマニュアル管理記憶部、37…付随情報管理部、38…付随情報管理記憶部、50…コンピュータ