(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024126158
(43)【公開日】2024-09-20
(54)【発明の名称】情報処理装置、情報処理方法、及びプログラム
(51)【国際特許分類】
G06F 3/0481 20220101AFI20240912BHJP
G06Q 10/087 20230101ALI20240912BHJP
G06F 3/01 20060101ALI20240912BHJP
G06T 7/70 20170101ALI20240912BHJP
G06T 19/00 20110101ALI20240912BHJP
【FI】
G06F3/0481
G06Q10/087
G06F3/01 510
G06T7/70 Z
G06T19/00 600
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023034368
(22)【出願日】2023-03-07
(71)【出願人】
【識別番号】000232254
【氏名又は名称】日本電気通信システム株式会社
(74)【代理人】
【識別番号】100103894
【弁理士】
【氏名又は名称】家入 健
(72)【発明者】
【氏名】安達 ゆり
(72)【発明者】
【氏名】高岡 真則
(72)【発明者】
【氏名】上野 悟己
(72)【発明者】
【氏名】青木 教之
(72)【発明者】
【氏名】河野 研二
(72)【発明者】
【氏名】長谷川 貴宏
(72)【発明者】
【氏名】塩崎 達也
【テーマコード(参考)】
5B050
5E555
5L010
5L049
5L096
【Fターム(参考)】
5B050AA03
5B050BA04
5B050BA06
5B050BA07
5B050BA13
5B050BA18
5B050BA20
5B050CA00
5B050DA01
5B050EA05
5B050EA07
5B050EA19
5B050FA02
5E555AA64
5E555BA02
5E555BA05
5E555BA06
5E555BA38
5E555BB02
5E555BB05
5E555BB06
5E555BB38
5E555BC08
5E555BE17
5E555CA42
5E555CA44
5E555CB48
5E555CB72
5E555CC22
5E555DA08
5E555DA09
5E555DB39
5E555DB41
5E555DB53
5E555DC09
5E555DC13
5E555DC61
5E555DC63
5E555DD07
5E555EA07
5E555EA12
5E555EA14
5E555EA22
5E555FA00
5L010AA16
5L049AA16
5L096AA06
5L096AA09
5L096CA05
5L096DA02
5L096FA69
5L096GA51
(57)【要約】
【課題】物品を適切に管理できるようにすること。
【解決手段】マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得する取得部と、前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定する測定部と、ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる制御部と、を有する情報処理装置が提供される。
【選択図】
図4
【特許請求の範囲】
【請求項1】
マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得する取得部と、
前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定する測定部と、
ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる制御部と、
を有する情報処理装置。
【請求項2】
前記制御部は、前記ユーザへ表示する表示画面において前記物品が閾値以上の割合が他の物体の陰である場合は前記マーカに基づく前記物品の内容を示す情報を第1態様で前記物品に対応付けて表示させ、前記ユーザへ表示する表示画面において前記物品が閾値以上の割合が他の物体の陰でない場合は前記マーカに基づく前記物品の内容を示す情報を第2態様で前記物品に対応付けて表示させる、
請求項1に記載の情報処理装置。
【請求項3】
前記制御部は、前記ユーザへ表示する表示画面において前記物品が閾値以上の割合が他の物体の陰である場合は、前記物品の領域を示す情報を前記表示画面に重畳させて表示させる、
請求項1または2に記載の情報処理装置。
【請求項4】
前記測定部は、
前記マーカが今回の画像から検出できない場合、以前に検出した前記物品の位置及び前記物品の3次元上の存在範囲に基づいて、現在の前記物品の位置及び前記物品の3次元上の存在範囲を推定する、
請求項1に記載の情報処理装置。
【請求項5】
前記マーカは、ArUcoマーカ、2次元コード、バーコード、及びカメレオンコードの少なくとも一つを含む、
請求項1に記載の情報処理装置。
【請求項6】
前記3次元センサは、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ToFカメラ(Time of Flight Camera)、及びステレオカメラの少なくとも一つを有する、
請求項1に記載の情報処理装置。
【請求項7】
前記制御部は、ユーザ端末に表示される現実世界の画像中の前記物品に対応付けて、前記物品に関する情報を表示させる、
請求項1または2に記載の情報処理装置。
【請求項8】
前記制御部は、ユーザ端末に表示される仮想空間中の前記物品に対応付けて、前記物品に関する情報を表示させる、
請求項1または2に記載の情報処理装置。
【請求項9】
マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得し、
前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定し、
ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる、
情報処理方法。
【請求項10】
マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得し、
前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定し、
ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる、
処理をコンピュータに実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
【背景技術】
【0002】
特許文献1には、仮設資機材に付帯された個体識別情報をスマートフォンで撮影し、管理サーバにて個体識別情報に基づいて仮設資機材ごとに数を集計する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1記載の技術では、例えば、物品を適切に管理できない場合があるという問題がある。
【0005】
本開示の目的は、上述した課題を鑑み、物品を適切に管理できる技術を提供することにある。
【課題を解決するための手段】
【0006】
本開示に係る第1の態様では、マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得する取得部と、前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定する測定部と、ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる制御部と、を有する情報処理装置が提供される。
【0007】
また、本開示に係る第2の態様では、マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得し、前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定し、ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる、情報処理方法が提供される。
【0008】
また、本開示に係る第3の態様では、マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得し、前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定し、ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる、処理をコンピュータに実行させるプログラムが提供される。
【発明の効果】
【0009】
一側面によれば、物品を適切に管理できる。
【図面の簡単な説明】
【0010】
【
図1】実施形態に係る情報処理装置の構成の一例を示す図である。
【
図2】実施形態に係る情報処理システムの構成例を示す図である。
【
図3】実施形態に係る情報処理装置のハードウェア構成例を示す図である。
【
図4】実施形態に係る情報処理装置の物品を管理する処理の一例を示すフローチャートである。
【
図5】実施形態に係る物品DB(データベース)に記憶される情報の一例を示す図である。
【
図6】実施形態に係る情報処理装置の物品の情報をユーザへ表示する処理の一例を示すフローチャートである。
【
図7】実施形態に係るユーザ端末の表示画面の一例を示す図である。
【発明を実施するための形態】
【0011】
本開示の原理は、いくつかの例示的な実施形態を参照して説明される。これらの実施形態は、例示のみを目的として記載されており、本開示の範囲に関する制限を示唆することなく、当業者が本開示を理解および実施するのを助けることを理解されたい。本明細書で説明される開示は、以下で説明されるもの以外の様々な方法で実装される。
以下の説明および特許請求の範囲において、他に定義されない限り、本明細書で使用されるすべての技術用語および科学用語は、本開示が属する技術分野の当業者によって一般に理解されるのと同じ意味を有する。
以下、図面を参照して、本開示の実施形態を説明する。
【0012】
(実施の形態1)
<構成>
図1を参照し、実施形態に係る情報処理装置10の構成について説明する。
図1は、実施形態に係る情報処理装置10の構成の一例を示す図である。情報処理装置10は、取得部11、測定部12、及び制御部13を有する。これら各部は、情報処理装置10にインストールされた1以上のプログラムと、情報処理装置10のプロセッサ101、及びメモリ102等のハードウェアとの協働により実現されてもよい。
【0013】
取得部11は、1以上のそれぞれ異なる各マーカがそれぞれ付与された各物品が撮影された画像と、3次元センサにより各物品が測定された3次元データを取得する。
【0014】
測定部12は、取得部11により取得された画像に基づいて1以上の各物品の位置を測定し、取得部11により取得された3次元データに基づいて各物品の3次元上の存在範囲を測定する。制御部13は、ユーザの位置及びユーザの向きに応じた3次元上の範囲に存在する各物品に関する情報を各物品に対応付けてユーザへ表示させる。
【0015】
(実施の形態2)
次に、
図2を参照し、実施形態に係る情報処理システム1の構成について説明する。
<システム構成>
図2は、実施形態に係る情報処理システム1の構成例を示す図である。
図2の例では、情報処理システム1は、情報処理装置10を有する。また、情報処理システム1は、センサ端末20A、及びセンサ端末20B(以下で、区別する必要が無い場合は、単に、「センサ端末20」とも称する。)を有する。また、情報処理システム1は、ユーザ端末30A、及びユーザ端末30B(以下で、区別する必要が無い場合は、単に、「ユーザ端末30」とも称する。)を有する。また、情報処理システム1は、物品40A~C等(以下で、区別する必要が無い場合は、単に、「物品40」とも称する。)、物品40A~C等のそれぞれに付与されたマーカ401A~C等(以下で、区別する必要が無い場合は、単に、「マーカ401」とも称する。)を有する。また、情報処理システム1は、基準点マーカ50A、及び基準点マーカ50B以下で、区別する必要が無い場合は、単に、「基準点マーカ50」とも称する。)を有する。
【0016】
図2の例では、情報処理装置10、センサ端末20、及びユーザ端末30は、ネットワークNにより通信できるように接続されている。なお、情報処理装置10、センサ端末20、ユーザ端末30、物品40、及び基準点マーカ50等の数は
図2の例に限定されない。
【0017】
ネットワークNの例には、例えば、インターネット、移動通信システム、無線LAN(Local Area Network)、LAN、及びバス等が含まれる。移動通信システムの例には、例えば、第5世代移動通信システム(5G)、第6世代移動通信システム(6G、Beyond 5G)、第4世代移動通信システム(4G)、第3世代移動通信システム(3G)等が含まれる。
【0018】
情報処理装置10は、例えば、サーバ、クラウド、またはパーソナルコンピュータ等の装置である。情報処理装置10は、例えば、センサ端末20等を用いて各物品40の情報を管理し、各物品40の情報をユーザ端末30へ通知する。
【0019】
センサ端末20は、画像を撮影するカメラ(例えば、デジタルカメラ、RGBカメラ)を有する。また、センサ端末20は、3次元センサを有する。センサ端末20の3次元センサは、例えば、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ToFカメラ(Time of Flight Camera)、またはステレオカメラ等でもよい。3次元センサにより測定された3次元データは、例えば、3次元座標を持った点の集合である点群データでもよい。
【0020】
なお、センサ端末20のカメラと3次元センサとは同一の筐体内に設けられてもよいし、別体でもよい。センサ端末20は、例えば、天井等に固定されて設置されてもよい。また、センサ端末20は、例えば、物品40を移動させる移動体(例えば、自動搬送ロボット、フォークリフト)等に搭載されてもよい。
【0021】
ユーザ端末30は、例えば、ユーザが所持している、ヘッドマウントディスプレイ(スマートグラス)、パーソナルコンピュータ、スマートフォン、タブレット、等の端末でもよい。ユーザ端末30は、例えば、情報処理装置10から受信した情報に基づく表示画面を表示させる。
【0022】
物品40は、例えば、情報処理装置10が位置等を管理する対象とする物品である。物品40は、例えば、工場または倉庫内等に存在する、資材、仕掛品、完成品、廃棄物等でもよい。また、物品40は、例えば、動物、人物、ロボット等でもよい。
【0023】
マーカ401は、例えば、ArUcoマーカ、2次元コード(例えば、QRコード(登録商標))、バーコード、及びカメレオンコード等の少なくとも一つを含んでもよい。なお、ArUcoマーカは、カメラの姿勢推定に使用できるバイナリの正方形のマーカ等でもよい。各物品40には、例えば、紙等に印刷されたマーカ401が予め貼り付けられていてもよい。
【0024】
基準点マーカ50は、例えば、壁面、または柱等に貼付されたマーカである。基準点マーカ50は、例えば、ArUcoマーカ、または2次元コード等でもよい。
【0025】
<ハードウェア構成>
図3は、実施形態に係る情報処理装置10のハードウェア構成例を示す図である。
図3の例では、情報処理装置10(コンピュータ100)は、プロセッサ101、メモリ102、通信インターフェイス103を含む。これら各部は、バス等により接続されてもよい。メモリ102は、プログラム104の少なくとも一部を格納する。通信インターフェイス103は、他のネットワーク要素との通信に必要なインターフェイスを含む。
【0026】
プログラム104が、プロセッサ101及びメモリ102等の協働により実行されると、コンピュータ100により本開示の実施形態の少なくとも一部の処理が行われる。メモリ102は、ローカル技術ネットワークに適した任意のタイプのものであってもよい。メモリ102は、非限定的な例として、非一時的なコンピュータ可読記憶媒体でもよい。また、メモリ102は、半導体ベースのメモリデバイス、磁気メモリデバイスおよびシステム、光学メモリデバイスおよびシステム、固定メモリおよびリムーバブルメモリなどの任意の適切なデータストレージ技術を使用して実装されてもよい。コンピュータ100には1つのメモリ102のみが示されているが、コンピュータ100にはいくつかの物理的に異なるメモリモジュールが存在してもよい。プロセッサ101は、任意のタイプのものであってよい。プロセッサ101は、汎用コンピュータ、専用コンピュータ、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、および非限定的な例としてマルチコアプロセッサアーキテクチャに基づくプロセッサの1つ以上を含んでよい。コンピュータ100は、メインプロセッサを同期させるクロックに時間的に従属する特定用途向け集積回路チップなどの複数のプロセッサを有してもよい。
【0027】
本開示の実施形態は、ハードウェアまたは専用回路、ソフトウェア、ロジックまたはそれらの任意の組み合わせで実装され得る。いくつかの態様はハードウェアで実装されてもよく、一方、他の態様はコントローラ、マイクロプロセッサまたは他のコンピューティングデバイスによって実行され得るファームウェアまたはソフトウェアで実装されてもよい。
【0028】
本開示はまた、非一時的なコンピュータ可読記憶媒体に有形に記憶された少なくとも1つのコンピュータプログラム製品を提供する。コンピュータプログラム製品は、プログラムモジュールに含まれる命令などのコンピュータ実行可能命令を含み、対象の実プロセッサまたは仮想プロセッサ上のデバイスで実行され、本開示のプロセスまたは方法を実行する。プログラムモジュールには、特定のタスクを実行したり、特定の抽象データ型を実装したりするルーチン、プログラム、ライブラリ、オブジェクト、クラス、コンポーネント、データ構造などが含まれる。プログラムモジュールの機能は、様々な実施形態で望まれるようにプログラムモジュール間で結合または分割されてもよい。プログラムモジュールのマシン実行可能命令は、ローカルまたは分散デバイス内で実行できる。分散デバイスでは、プログラムモジュールはローカルとリモートの両方のストレージメディアに配置できる。
【0029】
本開示の方法を実行するためのプログラムコードは、1つ以上のプログラミング言語の任意の組み合わせで書かれてもよい。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、またはその他のプログラム可能なデータ処理装置のプロセッサまたはコントローラに提供される。プログラムコードがプロセッサまたはコントローラによって実行されると、フローチャートおよび/または実装するブロック図内の機能/動作が実行される。プログラムコードは、完全にマシン上で実行され、一部はマシン上で、スタンドアロンソフトウェアパッケージとして、一部はマシン上で、一部はリモートマシン上で、または完全にリモートマシンまたはサーバ上で実行される。
【0030】
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体を含む。非一時的なコンピュータ可読媒体の例には、磁気記録媒体、光磁気記録媒体、光ディスク媒体、半導体メモリ等が含まれる。磁気記録媒体には、例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ等が含まれる。光磁気記録媒体には、例えば、光磁気ディスク等が含まれる。光ディスク媒体には、例えば、ブルーレイディスク、CD(Compact Disc)-ROM(Read Only Memory)、CD-R(Recordable)、CD-RW(ReWritable)等が含まれる。半導体メモリには、例えば、ソリッドステートドライブ、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory)等が含まれる。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
【0031】
<処理>
<<物品40を管理する処理>>
次に、
図4及び
図5を参照し、実施形態に係る情報処理装置10の物品40を管理する処理の一例について説明する。
図4は、実施形態に係る情報処理装置10の物品40を管理する処理の一例を示すフローチャートである。
図5は、実施形態に係る物品DB(データベース)501に記憶される情報の一例を示す図である。なお、
図4の処理は、例えば、定期的(例えば、1秒毎)等のタイミングで実行されてもよい。
【0032】
ステップS101において、取得部11は、各マーカ401が付与(例えば、貼付)された各物品40が撮影された画像と、3次元センサにより測定された3次元データ(点群データ)と、をセンサ端末20から取得する。
【0033】
続いて、測定部12は、取得部11により取得された画像に基づいて、各物品40の位置を各マーカ401で測定する(ステップS102)。これにより、物品40が施設のどの位置にあるかを判別できる。また、物品40が何段目に積まれているか等も判別できる。
【0034】
ここで、測定部12は、まず、センサ端末20のカメラの位置及び姿勢を取得してもよい。この場合、測定部12は、例えば、基準点マーカ50の画像に基づいて、センサ端末20のカメラの位置及び姿勢を測定してもよい。なお、この場合、基準点マーカ50の位置及び姿勢の情報は、オペレータ(管理者)等により情報処理装置10へ予め設定されていてもよい。
【0035】
また、測定部12は、例えば、センサ端末20の姿勢センサ及び位置センサ(例えば、GPS(Global Positioning System)センサ)により測定された、センサ端末20のカメラの位置及び姿勢をセンサ端末20から取得してもよい。また、測定部12は、例えば、オペレータ(管理者)等により情報処理装置10へ予め設定されている、固定設置式のセンサ端末20のカメラの位置及び姿勢を取得してもよい。
【0036】
そして、測定部12は、例えば、推定したセンサ端末20のカメラの位置及び姿勢と、物品40に貼付されたマーカ401の画像とに基づいて、当該物品40の位置(物品40に貼付されたマーカ401の位置)を算出してもよい。
【0037】
続いて、測定部12は、取得部11により取得された3次元データに基づいて、各物品40の3次元上の存在範囲を測定する(ステップS103)。これにより、例えば、マーカ401による測位だけでは物品40の大きさや形状を判別できないが、3次元センサにより測定された3次元データを組み合わせることで、物品40の位置をより適切に把握できる。
【0038】
ここで、測定部12は、まず、センサ端末20の3次元センサの位置及び姿勢を取得してもよい。この場合、測定部12は、ステップS102の処理で説明したように、センサ端末20のカメラの位置及び姿勢を取得してもよい。そして、測定部12は、センサ端末20のカメラと3次元センサとの相対的な3次元位置及び姿勢の情報に基づいて、センサ端末20の3次元センサの位置及び姿勢を算出してもよい。なお、センサ端末20のカメラと3次元センサとの相対的な3次元位置及び姿勢の情報は、例えば、オペレータ等により情報処理装置10へ予め設定されていてもよい。
【0039】
そして、測定部12は、例えば、物体の点群データに基づいて、AI(Artificial Intelligence)等を用いて、物品40の3次元空間での領域を検出(推論、推定)してもよい。そして、測定部12は、例えば、センサ端末20の3次元センサの位置及び姿勢と、検出した物品40の3次元空間での領域とに基づいて、物品40の3次元上の存在範囲を算出してもよい。
【0040】
続いて、制御部13は、各物品40の位置、各物品40の3次元上の存在範囲、各物品40の内容を物品DB501に記録する(ステップS104)。なお、物品DB501は、情報処理装置10の内部の記憶装置に記録されてもよいし、情報処理装置10の外部の記憶装置に記録されてもよい。
【0041】
図5の例では、物品DB501には、物品IDに対応付けて、物品40の位置、物品40の3次元上の存在範囲、物品40の内容、物品40に対してユーザ(作業員)が行った操作の履歴、及び物品40に対してユーザが行うべき操作が記録されている。物品IDは、物品40の識別情報である。物品IDは、例えば、物品40に貼付されたマーカ401から読み取られてもよい。物品40の位置は、例えば、物品40に貼付されたマーカ401の緯度及び経度でもよい。
【0042】
物品40の3次元上の存在範囲を示す情報は、例えば、物品40の表面上の各点の3次元上の位置を示す点群データでもよい。また、物品40の3次元上の存在範囲を示す情報には、例えば、物品40の概略形状を表す特定の3次元モデルと、当該3次元モデルの3次元上の向きを示す情報が含まれてもよい。物品40の内容には、例えば、物品40の品名、型番等が含まれてもよい。物品40の内容を示す情報は、例えば、物品40に貼付されたマーカ401に基づいて取得されてもよい。この場合、物品40の内容を示す情報は、物品40に貼付されたマーカ401に埋め込まれていてもよいし、物品40に貼付されたマーカ401に埋め込まれている物品IDに基づいて取得されてもよい。
【0043】
物品40に対してユーザが行った操作の履歴には、例えば、各操作の名称、操作が行われた日時、及び操作を行ったユーザの氏名の組み合わせのデータ(レコード)が含まれてもよい。物品40に対してユーザが行うべき操作には、例えば、物品40に対してユーザが行うべき操作の名称、操作が行われるべき日時、及び操作を行うべきユーザの氏名の組み合わせのデータ(レコード)が含まれてもよい。なお、各操作には、例えば、設置、検査、出荷、及び廃棄等が含まれてもよい。物品40に対してユーザが行った操作の履歴、及び物品40に対してユーザが行うべき操作は、例えば、ユーザ端末30でのユーザの操作、または情報処理装置10のオペレータにより設定されてもよい。
【0044】
(物品40をトラッキング(追跡する例))
測定部12は、物品40に貼付されたマーカ401が今回の画像から検出(認識)できない場合、以前に検出した物品40の位置及び物品40の3次元上の存在範囲に基づいて、現在の物品40の位置及び物品40の3次元上の存在範囲を推定してもよい。
【0045】
この場合、測定部12は、例えば、現在の3次元データから検出された特定の物品40の3次元空間での領域と、物品DB501に記録されている各物品40の3次元上の存在範囲との比較に基づいて、当該特定の物品40の物品IDを特定してもよい。そして、測定部12は、例えば、現在の3次元データから検出された特定の物品40の3次元空間での領域に基づいて、物品DB501に記録されている当該特定の物品40の位置及び3次元上の存在範囲を更新してもよい。これにより、例えば、マーカ401が他の物品等により覆われた(マーカ401が他の物体の陰に隠れた)状態で特定の物品40が移動された場合でも、当該特定の物品40の位置を把握できる。
【0046】
<<物品40の情報をユーザへ表示する処理>>
次に、
図6及び
図7を参照し、実施形態に係る情報処理装置10の物品40の情報をユーザへ表示する処理の一例について説明する。
図6は、実施形態に係る情報処理装置10の物品40の情報をユーザへ表示する処理の一例を示すフローチャートである。
図7は、実施形態に係るユーザ端末30の表示画面の一例を示す図である。なお、
図6の処理は、例えば、ユーザ端末30がユーザから特定の操作を受け付けた場合に、定期的等のタイミングで実行されてもよい。
【0047】
ステップS201において、取得部11は、ユーザの位置を示す情報、及び前記ユーザの向きを示す情報をユーザ端末30から取得する。
【0048】
(AR(Augmented Reality)またはMR(Mixed Reality)を用いる場合)
ARまたはMRを用いて物品40に関する情報をユーザへ表示する場合、取得部11は、例えば、ユーザ端末30のカメラの位置を、ユーザの位置として取得してもよい。また、取得部11は、例えば、ユーザ端末30のカメラの姿勢を、ユーザの向きとして取得してもよい。
【0049】
この場合、ユーザ端末30は、まず、ユーザ端末30のカメラの位置及び姿勢を取得してもよい。この場合、ユーザ端末30は、例えば、壁面、または柱等に貼付された基準点マーカ50の画像に基づいて、ユーザ端末30のカメラの位置及び姿勢を測定してもよい。なお、この場合、ユーザ端末30は、基準点マーカ50の位置及び姿勢の情報を情報処理装置10から取得しておいてもよい。
【0050】
また、ユーザ端末30は、例えば、ユーザ端末30の姿勢センサ及び位置センサ(例えば、GPSセンサ)により、ユーザ端末30のカメラの位置及び姿勢を測定してもよい。
【0051】
(メタバースまたはVR(Virtual Reality)を用いる場合)
メタバースまたはVRを用いて物品40に関する情報をユーザへ表示する場合、取得部11は、例えば、メタバース上の仮想カメラの位置を、ユーザの位置として取得してもよい。また、取得部11は、例えば、メタバース上の仮想カメラの姿勢を、ユーザの向きとして取得してもよい。
【0052】
続いて、制御部13は、ユーザの位置及びユーザの向きに応じた3次元上の範囲に存在する物品40に関する情報をユーザへ表示させる情報をユーザ端末30へ送信する(ステップS202)。これにより、例えば、AR、MR、メタバース、またはVR等を用いて、ユーザへ物品40の情報を提供できる。
【0053】
図7の例では、ユーザ端末30の表示画面701において、物品40A、物品40B等の画像が表示されている。また、制御部13は、物品40Aに対応付けて、物品40Aに関する情報の表示オブジェクト721を表示させている。また、制御部13は、物品40Bに対応付けて、物品40Bに関する情報の表示オブジェクト722を表示させている。なお、物品40に関する情報は、物品DB501から取得されてもよい。
【0054】
制御部13は、ユーザ端末30において、表示オブジェクト721または表示オブジェクト722に対する操作がユーザにより行われた場合、当該操作に応答して、物品DB501に記録されている情報を更新してもよい。これにより、例えば、物品DB501に記録されている、物品40に対してユーザ(作業員)が行った操作の履歴等の情報をユーザが更新できる。
【0055】
制御部13は、ユーザへ表示する表示画面において、特定の物品40が閾値以上の割合が他の物体の陰(他の物体に遮られて見えない状態)である場合、マーカ401に基づく当該特定の物品40の内容を示す情報を第1態様で当該特定の物品40に対応付けて表示させてもよい。一方、制御部13は、ユーザへ表示する表示画面において特定の物品40が閾値以上の割合が他の物体の陰ではない場合、マーカ401に基づく当該特定の物品40の内容を示す情報を第2態様で当該特定の物品40に対応付けて表示させてもよい。これにより、例えば、物品40が比較的容易に見つかる状態であるか、他の物品40の陰等に隠れている状態であるのかを把握できる。
【0056】
この場合、制御部13は、例えば、物品DB501に記録されている各物品40の3次元上の存在範囲と、ユーザの位置及び向きとに基づいて、特定の物品40が閾値以上の割合が他の物品40等の陰となっているか否かを判定してもよい。そして、制御部13は、
図7のような各態様で、表示オブジェクトを表示させてもよい。
図7の例では、表示画面701において、表に露出している物品40Aに関する情報の表示オブジェクト721は、枠線が実線で表示されている。一方、陰に隠れている物品40Bに関する情報の表示オブジェクト722は、枠線が破線で表示されている。
【0057】
また、制御部13は、ユーザへ表示する表示画面において、特定の物品40が閾値以上の割合が他の物体の陰(他の物体に遮られて見えない状態)である場合、当該特定の物品40の領域を示す情報を表示画面に重畳させて表示させてもよい。これにより、例えば、特定の物品40が他の物品40の陰等に隠れている状態の場合に、特定の物品40を操作するために移動させるべき他の物品40等をユーザへ容易に把握させることができる。
【0058】
この場合、制御部13は、
図7に示すように当該特定の物品40の領域を示す情報を表示画面に重畳させて表示させてもよい。
図7の例では、表示画面701において、一部が物品40Aの陰に位置する物品40Bの領域を示す情報オブジェクト731を画像の最前面に重畳させて表示させている。
図7の例では、制御部13は、物品40Bの概略形状を表す3次元モデルの輪郭の破線を、情報オブジェクト731として表示させている。なお、
図7に示すように、制御部13は、情報オブジェクト731の表示態様と、物品40Bに関する情報の表示オブジェクト722の表示態様とを同一としてもよい。これにより、例えば、ユーザがより直観的に陰等に隠れている物品40に関する情報であることを把握できる。なお、
図7の例では、情報オブジェクト731と、物品40Bに関する情報の表示オブジェクト722とは、枠線が破線という同一の表示態様となっている。
【0059】
(ユーザ端末30での情報の操作について)
ユーザ端末30は、ユーザが情報に操作を加えたい範囲を指定する操作に応答して、当該範囲内の物品40に関する情報を情報処理装置10から取得して特定の表示領域に表示してもよい。当該範囲を指定する操作は、例えば、表示画面上での当該範囲をタップ等する操作、リストから選択する操作、または、表示画面上での当該範囲を指で囲う操作等でもよい。
【0060】
<その他>
広大な工場や倉庫等の敷地では、資材、仕掛品、完成品、廃棄物等について、どこに何があるか管理するのが困難な場合がある。例えば、ユーザがハンディーターミナルを手に持ち、物品に付与されているバーコード等をスキャンすることで、在庫の把握や製品ごとの作業指示、必要な部品の在庫の有無などを確認する場合について検討する。この場合、物品が積み上げられている等の場合には、ユーザはハンディーターミナルを物品にかざしてバーコード等をスキャンすることが困難な場合がある。また、スキャンを忘れる等の人為的なミスも比較的起こりやすい。一方、本開示によれば、物品を適切に管理できる。
【0061】
<変形例>
情報処理装置10は、一つの筐体に含まれる装置でもよいが、本開示の情報処理装置10はこれに限定されない。情報処理装置10の各部は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、情報処理装置10と、センサ端末20及びユーザ端末30の少なくとも一方とを同一の筐体内に収容し、一体の情報処理装置として構成してもよい。また、情報処理装置10の各機能部の少なくとも一部の処理を、センサ端末20及びユーザ端末30の少なくとも一方が実行するようにしてもよい。これらのような情報処理装置10についても、本開示の「情報処理装置」の一例に含まれる。
【0062】
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
【0063】
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得する取得部と、
前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定する測定部と、
ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる制御部と、
を有する情報処理装置。
(付記2)
前記制御部は、前記ユーザへ表示する表示画面において前記物品が閾値以上の割合が他の物体の陰である場合は前記マーカに基づく前記物品の内容を示す情報を第1態様で前記物品に対応付けて表示させ、前記ユーザへ表示する表示画面において前記物品が閾値以上の割合が他の物体の陰でない場合は前記マーカに基づく前記物品の内容を示す情報を第2態様で前記物品に対応付けて表示させる、
付記1に記載の情報処理装置。
(付記3)
前記制御部は、前記ユーザへ表示する表示画面において前記物品が閾値以上の割合が他の物体の陰である場合は、前記物品の領域を示す情報を前記表示画面に重畳させて表示させる、
付記1または2に記載の情報処理装置。
(付記4)
前記測定部は、
前記マーカが今回の画像から検出できない場合、以前に検出した前記物品の位置及び前記物品の3次元上の存在範囲に基づいて、現在の前記物品の位置及び前記物品の3次元上の存在範囲を推定する、
付記1に記載の情報処理装置。
(付記5)
前記マーカは、ArUcoマーカ、2次元コード、バーコード、及びカメレオンコードの少なくとも一つを含む、
付記1に記載の情報処理装置。
(付記6)
前記3次元センサは、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ToFカメラ(Time of Flight Camera)、及びステレオカメラの少なくとも一つを有する、
付記1に記載の情報処理装置。
(付記7)
前記制御部は、ユーザ端末に表示される現実世界の画像中の前記物品に対応付けて、前記物品に関する情報を表示させる、
付記1または2に記載の情報処理装置。
(付記8)
前記制御部は、ユーザ端末に表示される仮想空間中の前記物品に対応付けて、前記物品に関する情報を表示させる、
付記1または2に記載の情報処理装置。
(付記9)
マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得し、
前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定し、
ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる、
情報処理方法。
(付記10)
マーカが付与された物品が撮影された画像と、3次元センサにより前記物品が測定された3次元データを取得し、
前記画像に基づいて前記物品の位置を測定し、前記3次元データに基づいて前記物品の3次元上の存在範囲を測定し、
ユーザの位置及び向きに応じた3次元上の範囲に存在する前記物品に関する情報を前記物品に対応付けてユーザへ表示させる、
処理をコンピュータに実行させるプログラム。
【符号の説明】
【0064】
1 情報処理システム
10 情報処理装置
11 取得部
12 測定部
13 制御部
20 センサ端末
30 ユーザ端末
40 物品
401 マーカ
50 基準点マーカ