(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023175413
(43)【公開日】2023-12-12
(54)【発明の名称】情報処理システムおよび情報処理方法
(51)【国際特許分類】
G06T 7/20 20170101AFI20231205BHJP
G06Q 50/10 20120101ALI20231205BHJP
【FI】
G06T7/20 300
G06Q50/10
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2022087843
(22)【出願日】2022-05-30
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和2年度、国立研究開発法人科学技術振興機構、戦略的創造研究推進事業「人の知覚を用いた参加型IoTセンサ調整基盤の創出」委託研究、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】504143441
【氏名又は名称】国立大学法人 奈良先端科学技術大学院大学
(74)【代理人】
【識別番号】110000338
【氏名又は名称】弁理士法人 HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】立花 巧樹
(72)【発明者】
【氏名】中岡 黎
(72)【発明者】
【氏名】宮地 篤士
(72)【発明者】
【氏名】冨田 周作
(72)【発明者】
【氏名】松田 裕貴
(72)【発明者】
【氏名】諏訪 博彦
【テーマコード(参考)】
5L049
5L096
【Fターム(参考)】
5L049CC11
5L096CA02
5L096DA02
5L096HA09
5L096HA11
5L096KA04
(57)【要約】
【課題】拾得物の種類をより高精度に特定する。
【解決手段】情報処理システム(1)において、フラグ管理部(11)は、ユーザ(U)が携帯可能な清掃器具(80)に取り付けられたカメラ(90)が撮像した映像を解析し、(i)ユーザ(U)が清掃器具(80)を用いて清掃対象としての拾得物(ST)の拾得を開始したことを表す拾得開始フラグと、(ii)ユーザ(U)が清掃器具(80)を用いて拾得物(ST)の拾得を完了したことを表す拾得完了フラグと、を発生させる。フレーム抽出部(12)は、映像に含まれている複数のフレームの内、(i)拾得開始フラグの発生時点におけるフレームから、(ii)拾得完了フラグの発生時点におけるフレームまでの、任意の1つのフレームを注目フレームとして抽出する。拾得物特定部(21)は、注目フレームを解析し、当該注目フレームに映っている拾得物(ST)の種類を特定する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
ユーザが携帯可能な清掃器具に取り付けられたカメラが撮像した映像を解析することにより、(i)上記ユーザが上記清掃器具を用いて清掃対象としての拾得物の拾得を開始したことを表す拾得開始フラグと、(ii)上記ユーザが上記清掃器具を用いて上記拾得物の拾得を完了したことを表す拾得完了フラグと、を発生させるフラグ管理部と、
上記映像に含まれている複数のフレームの内、(i)上記拾得開始フラグの発生時点におけるフレームから、(ii)上記拾得完了フラグの発生時点におけるフレームまでの、任意の1つのフレームを注目フレームとして抽出するフレーム抽出部と、
上記注目フレームを解析することにより、上記注目フレームに映っている上記拾得物の種類を特定する拾得物特定部と、を備えている、情報処理システム。
【請求項2】
上記ユーザが上記清掃器具を用いて上記拾得物を拾得する動作は、(i)第1動作と、(ii)上記第1動作に後続する第2動作と、に区分可能であり、
N1およびN2はそれぞれ、任意に設定可能な自然数であり、
上記フラグ管理部は、
上記映像内において上記第1動作をN1回連続して検出した場合に、上記拾得開始フラグを発生させ、
上記拾得開始フラグを発生させた後に、上記映像内において上記第2動作をN2回連続して検出した場合に、上記拾得完了フラグを発生させる、請求項1に記載の情報処理システム。
【請求項3】
N1およびN2はいずれも、2以上に設定されている、請求項2に記載の情報処理システム。
【請求項4】
N1とN2とは異なっている、請求項3に記載の情報処理システム。
【請求項5】
N1およびN2はいずれも、1に設定されている、請求項2に記載の情報処理システム。
【請求項6】
上記拾得完了フラグの発生時点における上記ユーザの位置を示す位置情報を取得する位置情報取得部と、
上記拾得完了フラグの発生時点を示す時間情報を取得する時間情報取得部と、をさらに備えており、
上記情報処理システムは、上記拾得物特定部が特定した上記拾得物の種類を示す拾得物情報を、上記位置情報および上記時間情報と対応付けて記憶装置に格納する、請求項1または2に記載の情報処理システム。
【請求項7】
上記記憶装置に格納された上記位置情報に対応する上記拾得物情報がプロットされたマップを描画するマップ描画部をさらに備えている、請求項6に記載の情報処理システム。
【請求項8】
上記マップ描画部は、上記記憶装置に格納された上記位置情報に対応する上記時間情報を、上記マップとともに表示装置に表示させる、請求項7に記載の情報処理システム。
【請求項9】
上記フラグ管理部と上記フレーム抽出部と上記位置情報取得部と上記時間情報取得部とを有する第1情報処理装置を備えており、
上記第1情報処理装置は、上記ユーザが携帯可能な端末装置である、請求項6に記載の情報処理システム。
【請求項10】
上記第1情報処理装置は、上記清掃器具に取り付けられている、請求項9に記載の情報処理システム。
【請求項11】
上記拾得物特定部を有する第2情報処理装置を備えており、
上記第2情報処理装置は、上記第1情報処理装置よりも高い計算リソースを有している、請求項9に記載の情報処理システム。
【請求項12】
ユーザが携帯可能な清掃器具に取り付けられたカメラが撮像した映像を解析することにより、(i)上記ユーザが上記清掃器具を用いて清掃対象としての拾得物の拾得を開始したことを表す拾得開始フラグと、(ii)上記ユーザが上記清掃器具を用いて上記拾得物の拾得を完了したことを表す拾得完了フラグと、を発生させるフラグ管理ステップと、
上記映像に含まれている複数のフレームの内、(i)上記拾得開始フラグの発生時点におけるフレームから、(ii)上記拾得完了フラグの発生時点におけるフレームまでの、任意の1つのフレームを注目フレームとして抽出するフレーム抽出ステップと、
上記注目フレームを解析することにより、上記注目フレームに映っている上記拾得物の種類を特定する拾得物特定ステップと、を含んでいる、情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の一態様は、携帯可能な清掃器具を用いてユーザが拾得した清掃対象としての拾得物(ごみ)の種類を特定する情報処理システムに関する。
【背景技術】
【0002】
上述の情報処理システムに関して、例えば、本願の発明者らによる下記の先行技術が知られている。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】立花巧樹,中岡黎,宮地篤士,冨田周作,松田裕貴,中村優吾,諏訪博彦:“カメラ装着型トングを用いたポイ捨てごみの種別認識手法の提案と評価”,第28回社会情報システム学シンポジウム(ISS28),pp.1-6,2022年1月
【非特許文献2】立花巧樹,中岡黎,宮地篤士,冨田周作,松田裕貴,中村優吾,諏訪博彦:“センサ装着型トングを用いたポイ捨てごみの種別・位置情報収集システムの提案”,第29回マルチメディア通信と分散処理ワークショップ論文集,pp.199-202,2021年10月
【発明の概要】
【発明が解決しようとする課題】
【0004】
拾得物の種類をより高精度に特定することが、望まれている。
【課題を解決するための手段】
【0005】
上記の課題を解決するために、本発明の一態様に係る情報処理システムは、ユーザが携帯可能な清掃器具に取り付けられたカメラが撮像した映像を解析することにより、(i)上記ユーザが上記清掃器具を用いて清掃対象としての拾得物の拾得を開始したことを表す拾得開始フラグと、(ii)上記ユーザが上記清掃器具を用いて上記拾得物の拾得を完了したことを表す拾得完了フラグと、を発生させるフラグ管理部と、上記映像に含まれている複数のフレームの内、(i)上記拾得開始フラグの発生時点におけるフレームから、(ii)上記拾得完了フラグの発生時点におけるフレームまでの、任意の1つのフレームを注目フレームとして抽出するフレーム抽出部と、上記注目フレームを解析することにより、上記注目フレームに映っている上記拾得物の種類を特定する拾得物特定部と、を備えている。
【0006】
また、本発明の一態様に係る情報処理方法は、ユーザが携帯可能な清掃器具に取り付けられたカメラが撮像した映像を解析することにより、(i)上記ユーザが上記清掃器具を用いて清掃対象としての拾得物の拾得を開始したことを表す拾得開始フラグと、(ii)上記ユーザが上記清掃器具を用いて上記拾得物の拾得を完了したことを表す拾得完了フラグと、を発生させるフラグ管理ステップと、上記映像に含まれている複数のフレームの内、(i)上記拾得開始フラグの発生時点におけるフレームから、(ii)上記拾得完了フラグの発生時点におけるフレームまでの、任意の1つのフレームを注目フレームとして抽出するフレーム抽出ステップと、上記注目フレームを解析することにより、上記注目フレームに映っている上記拾得物の種類を特定する拾得物特定ステップと、を含んでいる。
【図面の簡単な説明】
【0007】
【
図1】実施形態1の情報処理システムの構成を例示するブロック図である。
【
図2】
図1の情報処理システムと清掃器具とカメラとの関係を概略的に示す図である。
【
図3】
図1の情報処理システムにおける処理の流れを例示する図である。
【
図4】フレーム抽出部によって抽出された注目フレームの様々な例を示す図である。
【
図5】マップ描画部が表示装置に表示させる表示画面の一例を示す図である。
【
図6】実施形態2の情報処理システムの構成を例示するブロック図である。
【
図7】
図6の情報処理システムにおける処理の流れを例示する図である。
【発明を実施するための形態】
【0008】
〔実施形態1〕
実施形態1の情報処理システム1について、以下に説明する。説明の便宜上、実施形態1にて説明したコンポーネント(構成要素)と同じ機能を有する各コンポーネントについては、以降の各実施形態では同じ符号を付記し、その説明を繰り返さない。簡潔化のため、公知の技術事項についても説明を適宜省略する。
【0009】
本明細書において述べる各コンポーネントについての説明は、特に矛盾のない限り、いずれも単なる一例である。それゆえ、例えば、特に矛盾のない限り、各コンポーネントの位置関係は、各図の例に限定されない。また、各コンポーネントの図示は、必ずしもスケール通りではない。各コンポーネントの接続態様も、各図の例に限定されない。したがって、例えば、有線接続として例示されている接続は、無線接続に置き換えられてよい。逆も然りである。
【0010】
(情報処理システム1の構成)
図1は、情報処理システム1の構成を例示するブロック図である。情報処理システム1は、第1情報処理装置10と第2情報処理装置20とを有していてよい。第1情報処理装置10と第2情報処理装置20とは、互いに通信可能に接続されていればよい。
【0011】
図1に示す通り、第1情報処理装置10は、フラグ管理部11とフレーム抽出部12と位置情報取得部13と時間情報取得部14とを有していてよい。第2情報処理装置20は、拾得物特定部21とマップ描画部22と記憶部29を有していてよい。記憶部29は、本発明の一態様に係る記憶装置の一例である。ただし、本発明の一態様に係る記憶装置は、情報処理システム1の外部の装置であってもよい。記憶装置は、情報処理システム1と通信可能に接続されていればよい。
【0012】
第1情報処理装置10は、ユーザUが携帯可能な清掃器具80に取り付けられたカメラ90と通信可能に接続されていてよい。これにより、第1情報処理装置10は、カメラ90が撮像した映像(例:映像ストリーム)を取得できる。カメラ90は、映像を撮像可能な任意の撮像装置であってよい。
【0013】
図2は、情報処理システム1と清掃器具80とカメラ90との関係を概略的に示す図である。実施形態1では、清掃器具80がトングであり、かつ、第1情報処理装置10がスマートフォンである場合を例示する。当該スマートフォンは、ユーザUが携帯可能な端末装置の一例である。
【0014】
したがって、例えば
図2に示す通り、ユーザUは、(i)片方の手に清掃器具80を、(ii)もう片方の手に第1情報処理装置10を、それぞれ把持できる。別の例として、ユーザUは、例えば自身の衣服のポケット内に第1情報処理装置10を収納することにより、第1情報処理装置10を携帯してもよい。
【0015】
図2の例では、第1情報処理装置10とカメラ90とは有線接続されている。その一方、第1情報処理装置10と第2情報処理装置20とは、通信ネットワークを介して無線接続されている。実施形態1では、第2情報処理装置20がサーバ装置(例:クラウドサーバ)である場合を例示する。当該サーバ装置は、第1情報処理装置10(例:スマートフォン)よりも高い計算リソースを有する装置の一例である。
【0016】
ユーザUは、清掃器具80を用いて、清掃対象としての拾得物STを拾得する。
図2では、拾得物STの一例としてタバコが図示されている。本発明の一態様では、例えば、以下に述べる拾得動作が行われる時間範囲の全体に亘り、拾得物STがカメラ90の画角内に含まれるように、カメラ90が清掃器具80に取り付けられていればよい。そこで、
図2の例では、トングの先端部がカメラ90の画角内に常に含まれるように、カメラ90が当該トングに取り付けられている。
【0017】
本明細書では、ユーザUが清掃器具80を用いて拾得物STを拾得する一連の動作を、総称的に拾得動作と称する。実施形態1では、拾得動作が、(i)第1動作と、(ii)当該第1動作に後続する第2動作と、に区分可能である場合を例示する。第1動作は、第2動作の予備動作であると理解されてよい。第1動作および第2動作はそれぞれ、前段動作および後段動作と称されてもよい。
【0018】
一例として、ユーザUが屋外での清掃活動を行う場合には、「トングを用いて拾得物STを掴む」→「(続いて、掴んだ拾得物STをゴミ袋の内部に投入するために)拾得物STをリリースする(手放す)」という一連の動作がなされる。そこで、実施形態1では、(i)第1動作が「清掃器具80を用いて拾得物STを掴む動作」であり、かつ、(ii)第2動作が「清掃器具80を用いて拾得物STをリリースする動作」である場合を例示する。
【0019】
実施形態1の例では、第1情報処理装置10(例:フラグ管理部11)は、カメラ90が撮像した映像(より具体的には、当該映像を構成する各フレーム)を解析することにより、当該映像内における第1動作および第2動作をそれぞれ検出できるように構成されている。したがって、例えば、フラグ管理部11は、第1動作および第2動作をそれぞれ検出できるように構築された学習済モデル(動作検出モデル)を含んでいてよい。
【0020】
そして、実施形態1の例では、第2情報処理装置20(例:拾得物特定部21)は、画像(例:後述する注目フレーム)を解析することにより、当該画像に映っている拾得物STの種類(カテゴリ)を特定(識別)できるように構成されている。したがって、例えば、拾得物特定部21は、拾得物STの種類を特定できるように構築された学習済モデル(拾得物特定モデル)を含んでいてよい。
【0021】
動作検出モデルおよび拾得物特定モデルはそれぞれ、任意の機械学習アルゴリズムを用いて構築されてよい。一例として、動作検出モデルおよび拾得物特定モデルの少なくとも一方は、非深層学習モデル(比較的シンプルなモデル)として構築されてよい。例えば、非深層学習モデルは、画像を解析することによって予め抽出された特徴量(画像特徴量)を、入力として受け付けてよい。
【0022】
非深層学習モデルを構築するためのアルゴリズムは、例えば、DT(Decision Tree,決定木)系のアルゴリズムであってよい。DT系のアルゴリズムの例としては、LightGBM(Light Gradient Boosting Machine)、XGBoost(eXtreme Gradient Boosting)、およびRF(Random Forest,ランダムフォレスト)を挙げることができる。非深層学習モデルを構築するためのアルゴリズムの別の例としては、SVM(Support Vector Machine,サポートベクターマシン)またはNN(Neural Network,ニューラルネットワーク)を挙げることができる。
【0023】
別の例として、動作検出モデルおよび拾得物特定モデルの少なくとも一方は、深層学習モデル(より複雑なモデル)として構築されてもよい。深層学習モデルは、任意の深層学習アルゴリズムによって構築されてよい。深層学習アルゴリズムの例としては、DNN(Deep NN)、CNN(Convolutional NN)、およびAE(Auto-Encoder)を挙げることができる。深層学習モデルによれば、非深層学習モデルに比べて高精度な予測(推論)を行うことができる。深層学習モデルは、画像データ自体を入力として受け付けることもできる。
【0024】
なお、当業者であれば明らかである通り、機械学習アルゴリズムに依らずに各モデルを構築することも可能である。したがって、例えば、公知のルールベースアルゴリズムに基づき、第1動作および第2動作が検出されてもよいし、拾得物STの種類が特定されてもよい。ただし、各モデルの予測精度向上の観点からは、機械学習アルゴリズムによって各モデルを構築することが好ましい。
【0025】
(情報処理システム1における処理の流れの一例)
図3は、情報処理システム1における処理の流れを例示する。
図3の例において、S1~S9は第1情報処理装置10における処理であり、S10~S12は第2情報処理装置20における処理である。
【0026】
S1において、第1情報処理装置10は、カメラ90から映像を取得する。S2において、フラグ管理部11は、映像を解析し、当該映像内において第1動作を検出したか否かを判定する。フラグ管理部11が第1動作を検出した場合(S2においてYES)、S3に進む。他方、フラグ管理部11が第1動作を検出しなかった場合(S2においてNO)、S2に戻る。このように、フラグ管理部11が第1動作を検出するまで、S2が繰り返される。
【0027】
S3では、フラグ管理部11は、S2において第1動作が検出されたことを契機として、第1動作が完了したことを表すフラグ(第1動作完了フラグ)を発生させる。実施形態1における第1動作完了フラグは、ユーザUが清掃器具80を用いて拾得物STの拾得を開始したことを表すフラグ(拾得開始フラグ)の一例である。フラグ管理部11は、第1動作完了フラグの発生時点を、第1時点として特定する。第1時点は、拾得開始フラグの発生時点と言い換えることができる。
【0028】
続いて、S4において、フラグ管理部11は、映像を解析し、当該映像内において第2動作を検出したか否かを判定する。フラグ管理部11が第2動作を検出した場合(S4においてYES)、S5に進む。他方、フラグ管理部11が第2動作を検出しなかった場合(S4においてNO)、S4に戻る。このように、フラグ管理部11が第2動作を検出するまで、S4が繰り返される。
【0029】
S5では、フラグ管理部11は、S4において第2動作が検出されたことを契機として、第2動作が完了したことを表すフラグ(第2動作完了フラグ)を発生させる。実施形態1における第2動作完了フラグは、ユーザUが清掃器具80を用いて拾得物STの拾得を完了したことを表すフラグ(拾得完了フラグ)の一例である。フラグ管理部11は、第2動作完了フラグの発生時点を、第2時点として特定する。第2時点は、拾得完了フラグの発生時点と言い換えることができる。
【0030】
続いて、S6において、フレーム抽出部12は、映像に含まれている複数のフレームの内、(i)第1時点における当該映像のフレーム(便宜上、初期フレームと称する)から、(ii)第2時点における当該映像のフレーム(便宜上、終端フレームと称する)までの、任意の1つのフレームを注目フレームとして抽出する。
【0031】
例えば、フレーム抽出部12は、終端フレームを注目フレームとして抽出してよい。別の例として、フレーム抽出部12は、初期フレームを注目フレームとして抽出してよい。さらに別の例として、フレーム抽出部12は、第1時点と第2時点との中間時点におけるフレーム(便宜上、中間フレームと称する)を、注目フレームとして抽出してもよい。
【0032】
そして、S7において、位置情報取得部13は、第2時点におけるユーザUの位置(より具体的には、地理的位置)を示す位置情報を取得する。一例として、位置情報取得部13は、第1情報処理装置10が有する不図示の測位デバイスから当該位置情報を取得してよい。当該測位デバイスは、例えばGPS(Global Positioning System)デバイスであってよい。
【0033】
別の例として、清掃器具80に測位デバイスが取り付けられていてもよい。この場合、位置情報取得部13は、清掃器具80に取り付けられた測位デバイスから位置情報を取得してよい。
【0034】
時間情報取得部14は、第2時点を示す時間情報を取得する。例えば、時間情報取得部14は、フラグ管理部11から当該時間情報を取得してよい。なお、当業者であれば明らかである通り、本発明の一態様では、S6に先立ちS7が実行されてもよい。
【0035】
続いて、S8において、第1情報処理装置10は、第2情報処理装置20に各データ(例:注目フレーム、位置情報、および時間情報)を送信する。そして、S9では、第2情報処理装置20は、第1情報処理装置10から送信された当該各データを受信する。
【0036】
S10において、拾得物特定部21は、注目フレームを解析し、当該注目フレームに映っている拾得物STの種類を特定する。拾得物特定部21は、特定した拾得物STの種類を示す拾得物情報を生成する。
【0037】
S11において、第2情報処理装置20は、S10において生成された拾得物情報を、位置情報および時間情報と対応付けて、記憶部29に格納する。例えば、第2情報処理装置20は、記憶部29内のデータベースDBに、拾得物情報を位置情報および時間情報と対応付けて保存してよい。
図3の処理の流れによれば、拾得物情報が新たに生成されるごとに、データベースDBを更新できる。
【0038】
(情報処理システム1の効果)
以下では、拾得物特定部21による拾得物STの識別カテゴリとして、「缶」、「ペットボトル」、「タバコ」、「紙類」、「プラスチック製包装袋」の5つのカテゴリが設定されている場合を例示する。そこで、以下の例における拾得物特定部21は、上記5つのカテゴリの物体識別を行うことが可能な拾得物特定モデルを含んでいるものとする。
【0039】
図4は、フレーム抽出部12によって抽出された注目フレームの様々な例を示す。
図4の例において、
・IMG1:拾得物STとして缶が拾得された場合の注目フレーム;
・IMG2:拾得物STとしてペットボトルが拾得された場合の注目フレーム;
・IMG3:拾得物STとしてタバコが拾得された場合の注目フレーム;
・IMG4:拾得物STとして紙類が拾得された場合の注目フレーム;
・IMG5:拾得物STとしてプラスチック製包装袋が拾得された場合の注目フレーム;
である。
【0040】
第1時点および第2時点についての上述の各説明から明らかである通り、フレーム抽出部12によれば、拾得物STが鮮明かつ大きいサイズで映り込んでいる蓋然性が高いと期待できるフレームを、注目フレームとして抽出できる(例えば、
図4のIMG1~IMG5を参照)。そして、拾得物特定部21に、当該注目フレームに映っている拾得物STの種類を特定させることができる。
【0041】
このように、情報処理システム1では、先行技術とは異なり、拾得完了フラグの発生を契機として抽出された注目フレームに対してのみ、拾得物特定部21に画像識別を行わせることができる。言い換えれば、情報処理システム1では、先行技術とは異なり、カメラ90によって撮像された映像(より具体的には、映像の各フレーム)に対して、拾得物特定部21に画像識別を行わせることが不要となる。
【0042】
以上の通り、情報処理システム1によれば、画像識別の対象として好ましくないフレーム(例:拾得物STがそもそも映っていないフレーム、映っている拾得物STが不鮮明なフレーム、または、映っている拾得物STのサイズが小さいフレームなど)を予め排除した上で、拾得物特定部21に画像識別を行わせることができる。その結果、従来よりも高精度に拾得物STの種類を特定することが可能となる。
【0043】
(位置情報を示すマップの例)
マップ描画部22は、記憶部29に格納された位置情報(例:データベースDBに記録されている位置情報)に対応する拾得物情報がプロットされたマップを描画してよい。例えば、マップ描画部22は、上記位置情報に対応する位置に拾得物情報がプロットされたマップを描画してよい。そして、マップ描画部22は、当該マップを表示装置に表示させてよい。一例として、表示装置は、
図2におけるスマートフォン(第1情報処理装置10)であってよい。別の例として、表示装置は、情報処理システム1の外部の装置であってもよい。表示装置は、情報処理システム1と通信可能に接続されていればよい。
【0044】
マップ描画部22は、記憶部29に格納された位置情報に対応する時間情報を、マップとともに表示装置に表示させてもよい。
図5は、マップ描画部22が表示装置に表示させる表示画面の一例である。
図5の例におけるプロット点PXの位置情報は、ペットボトルを示す拾得物情報に対応している。
【0045】
図5に示す通り、マップ描画部22は、上記位置情報に対応する注目フレームを表示装置にさらに表示させてもよい。マップ描画部22は、上記位置情報に対応するユーザIDを表示装置にさらに表示させてもよい。ユーザIDは、第1情報処理装置10に対応付けて予め設定されていてよい。マップ描画部22は、プロット点の総数を表示装置にさらに表示させてもよい(
図5の「現在のデータ件数」という項目を参照)。
【0046】
マップ描画部22は、拾得物の種類および拾得位置の少なくともいずれかに応じて設定された重み係数によって各拾得物の個数を重み付けすることにより、各拾得物の取得成果を表すポイント(スコア)を算出してよい。一例として、「缶」には1個あたり2ポイントの重み係数が、「タバコ」には1個あたり4ポイントの重み係数が設定されてよい。この場合、マップ描画部22は、各拾得物についてのポイントの合計値を、表示装置にさらに表示させてもよい。
【0047】
より広範囲に亘る位置情報をより多くのユーザから収集する観点からは、第1情報処理装置10は、各ユーザが携帯可能な端末装置(携帯端末)であることが好ましい。このため、上述の
図2では、第1情報処理装置10がスマートフォンである場合が例示されている。第1情報処理装置10としての携帯端末を複数のユーザのそれぞれに使用させることにより、豊富な位置情報(および関連する各データ)を、各ユーザから低コストで収集できる。
【0048】
ただし、第1情報処理装置10が携帯端末である場合、第1情報処理装置10はそれほど高い計算リソースを有していないことも考えられる。このため、例えば、第1情報処理装置10が携帯端末である場合、第1情報処理装置10は、動作検出モデルとして非深層学習モデルを含んでいてよい。
【0049】
その一方、拾得物STの識別精度を向上させる観点からは、第2情報処理装置20は、拾得物特定モデルとして深層学習モデルを含んでいることが好ましい。このため、第2情報処理装置20は、例えば第1情報処理装置10よりも高い計算リソースを有していることが好ましい。このため、上述の
図2では、第2情報処理装置20がサーバ装置である場合が例示されている。
【0050】
情報処理システム1によれば、例えば、ごみの適切な分別収集を促進できるので、当該ごみの適切なリサイクルにも有益である。加えて、情報処理システム1によれば、例えば野生動物がプラスチックごみを誤食するリスクを低減することもできるので、動物福祉および自然環境保護にも有益である。このように、情報処理システム1は、例えば、国連が提唱する持続可能な開発目標(SDGs)にも貢献する。
【0051】
〔実施形態2〕
図6は、実施形態2における情報処理システム1Uの構成を例示するブロック図である。
図6に示す通り、実施形態2における第1情報処理装置を、第1情報処理装置10Uと称する。そして、実施形態2におけるフラグ管理部を、フラグ管理部11Uと称する。
【0052】
図7は、情報処理システム1Uにおける処理の流れを例示する。
図7の例において、S21~S34は第1情報処理装置10Uにおける処理であり、S35~S37は第2情報処理装置20における処理である。以下では、実施形態1の例との相違点に関する処理についてのみ述べる。
【0053】
第1情報処理装置10Uでは、N1およびN2が予め設定されている。N1およびN2はそれぞれ、以下に述べるC1(第1カウント値)およびC2(第2カウント値)に対する閾値である。C1およびC2の初期値は、0に設定されている。
【0054】
N1およびN2はそれぞれ、任意に設定可能な自然数であればよい。実施形態2では、N1およびN2がいずれも2以上に設定されている場合を例示する。一例として、実施形態2では、N1=N2=10として設定されていてよい。
【0055】
S21(S1と同様)の後、S22において、フラグ管理部11Uは、映像を解析し、当該映像内において第1動作を検出したか否かを判定する。フラグ管理部11Uが第1動作を検出した場合(S22においてYES)、S23に進む。S23において、フラグ管理部11Uは、C1を1だけカウントアップ(インクリメント)し、C1を更新する。そして、S25に進む。
【0056】
他方、フラグ管理部11が第1動作を検出しなかった場合(S22においてNO)、S24に進む。S24において、フラグ管理部11Uは、C1を0に設定する。すなわち、フラグ管理部11Uは、C1を初期値にリセットする。そして、S22に戻る。
【0057】
S25において、フラグ管理部11Uは、C1≧N1であるか否かを判定する。言い換えれば、フラグ管理部11Uは、C1がN1に達したか否かを判定する。C1がN1に達した場合(S25においてYES)、S26に進む。他方、C1がN1に達していない場合(S25においてNO)、S22に戻る。
【0058】
C1がN1に達したことは、フラグ管理部11Uが、映像内において第1動作をN1回連続して検出したことを意味する。このように、実施形態2では、第1動作をN1回連続して検出するまで、第1動作を検出する処理が繰り返される。
【0059】
S26では、フラグ管理部11Uは、C1がN1に達したことを契機として、第1動作完了フラグを発生させる。実施形態2における第1動作完了フラグは、拾得開始フラグの別の例である。フラグ管理部11Uは、C1がN1に達した時点(言い換えれば、第1動作をN1回連続して検出した時点)を、第1時点として特定する。
【0060】
続いて、S27において、フラグ管理部11Uは、映像を解析し、当該映像内において第2動作を検出したか否かを判定する。フラグ管理部11Uが第2動作を検出した場合(S27においてYES)、S28に進む。S28において、フラグ管理部11Uは、C2を1だけカウントアップし、C2を更新する。そして、S30に進む。
【0061】
他方、フラグ管理部11Uが第2動作を検出しなかった場合(S27においてNO)、S29に進む。S29において、フラグ管理部11Uは、C2を0に設定する。すなわち、フラグ管理部11Uは、C2を初期値にリセットする。そして、S27に戻る。
【0062】
S30において、フラグ管理部11Uは、C2≧N2であるか否かを判定する。言い換えれば、フラグ管理部11Uは、C2がN2に達したか否かを判定する。C2がN2に達した場合(S30においてYES)、S31に進む。他方、C2がN2に達していない場合(S30においてNO)、S27に戻る。
【0063】
C2がN2に達したことは、フラグ管理部11Uが、映像内において第2動作をN2回連続して検出したことを意味する。このように、実施形態2では、第2動作をN2回連続して検出するまで、第2動作を検出する処理が繰り返される。
【0064】
S31では、フラグ管理部11は、C2がN2に達したことを契機として、第2動作完了フラグを発生させる。実施形態2における第2動作完了フラグは、拾得完了フラグの別の例である。フラグ管理部11Uは、C2がN2に達した時点(言い換えれば、第2動作をN2回連続して検出した時点)を、第2時点として特定する。S32以降の処理については、実施形態1と同様である。
【0065】
以上の処理の流れによれば、映像内において、第1動作をN1回連続して検出した後に、第2動作をN2回連続して検出した場合に、拾得完了フラグを発生させるよう、フラグ管理部11Uを動作させることができる。
【0066】
(情報処理システム1Uの効果)
映像に映っている人の所定の動作を検出するタスクは、比較的難しいことが知られている。このため、当該動作を高精度に検出することは、必ずしも容易ではない。したがって、例えば、ユーザUが実際には当該動作を行なっていないにもかかわらず、映像内において当該動作が誤って検出されることもありうる(偽陽性検出)。
【0067】
そこで、拾得動作の完了をより高い信頼性で検出する観点からは、N1およびN2を2以上に設定することが好ましい。このようにN1およびN2を設定することにより、第1動作および第2動作のそれぞれの偽陽性検出リスクを低減した上で、拾得動作の完了を検出できる。
【0068】
なお、N1およびN2を2以上に設定する場合、N1とN2とは異なる値に設定されてもよい。一例として、第1動作の偽陽性検出リスクが、第2動作の偽陽性検出リスクよりも高いと考えられる場合には、N1はN2よりも大きい値に設定されてよい。別の例として、第1動作の偽陽性検出リスクが、第2動作の偽陽性検出リスクよりも低いと考えられる場合には、N1はN2よりも小さい値に設定されてよい。
【0069】
(補足)
図7の例において、N1=N2=1として設定されてもよい。実施形態1の
図3における処理の流れは、
図7の例においてN1=N2=1として設定されている場合に相当する。N1=N2=1と設定されている場合、N1およびN2がいずれも2以上に設定されている場合に比べて、短時間で拾得動作の完了を検出できる。
【0070】
〔変形例〕
(1)本発明の一態様に係る情報処理システムは、単一の情報処理装置によって実現されてもよい。例えば、豊富な計算リソースを有する携帯端末を第1情報処理装置として用いた場合、当該第1情報処理装置に拾得物特定部を設けることもできる。したがって、例えば、本発明の一態様に係る情報処理システムは、携帯端末としての第1情報処理装置によって実現されてもよい。
【0071】
(2)当業者であれば明らかである通り、本発明の一態様に係る清掃器具は、ユーザが携帯可能であり、かつ、カメラを取りつけることが可能な器具であればよい。したがって、本発明の一態様に係る清掃器具は、任意のハンドツールであってよい。トング以外の清掃器具の例としては、ダストパン、スクレーパ、粘着部材付きのハンドツール、および掃除機などを挙げることができる。
【0072】
したがって、本明細書における「拾得」という動作は、本発明の一態様に係る清掃器具を用いたユーザによるごみの清掃活動に関連する任意の動作を含むものとして解釈されてよい。このため、例えば、「拾い上げる」、「掬う」、「剥がす」、「吸着する」、および「吸引する」などの動作はいずれも、「拾得」の範疇に含まれる。「拾得」の意味合いは、清掃器具のタイプに応じて解釈されてよい。
【0073】
(3)本発明の一態様に係る第1情報処理装置は、清掃器具に取り付けられていてもよい。当該第1情報処理装置も、ユーザが携帯可能な端末装置の範疇に含まれる。一例として、当該第1情報処理装置は、清掃器具に取り付け可能な小型の演算装置であってよい。当該演算装置の例としては、マイクロプロセッサ、マイクロコンピュータ、およびマイクロコントローラなどを挙げることができる。
【0074】
当該演算装置は、例えば、カメラの近傍に取り付けられてよい。当該演算装置は、第2情報処理装置と通信可能であってよい。当該演算装置は、測位デバイスをさらに有していてもよい。あるいは、当該演算装置は、清掃器具に取り付けられた測位デバイスと通信可能に接続されていてもよい。
【0075】
別の例として、第1情報処理装置は、カメラと上記演算装置とを有するモジュール(カメラ一体化モジュール)であってもよい。この場合、カメラ一体化モジュールが、清掃器具に取り付けられていればよい。
【0076】
〔ソフトウェアによる実現例〕
情報処理システム1・1U(以下では、便宜上「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロック(特に、第1情報処理装置10・10Uおよび第2情報処理装置20に含まれる各制御ブロック)としてコンピュータを機能させるためのプログラムにより実現することができる。
【0077】
この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。
【0078】
上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。
【0079】
また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。
【0080】
加えて、上記各実施形態における説明から明らかである通り、上記各実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。
【0081】
〔まとめ〕
本発明の態様1に係る情報処理システムは、ユーザが携帯可能な清掃器具に取り付けられたカメラが撮像した映像を解析することにより、(i)上記ユーザが上記清掃器具を用いて清掃対象としての拾得物の拾得を開始したことを表す拾得開始フラグと、(ii)上記ユーザが上記清掃器具を用いて上記拾得物の拾得を完了したことを表す拾得完了フラグと、を発生させるフラグ管理部と、上記映像に含まれている複数のフレームの内、(i)上記拾得開始フラグの発生時点におけるフレームから、(ii)上記拾得完了フラグの発生時点におけるフレームまでの、任意の1つのフレームを注目フレームとして抽出するフレーム抽出部と、上記注目フレームを解析することにより、上記注目フレームに映っている上記拾得物の種類を特定する拾得物特定部と、を備えている。
【0082】
本発明の態様2に係る情報処理システムでは、上記態様1において、上記ユーザが上記清掃器具を用いて上記拾得物を拾得する動作は、(i)第1動作と、(ii)上記第1動作に後続する第2動作と、に区分可能であり、N1およびN2はそれぞれ、任意に設定可能な自然数であり、上記フラグ管理部は、上記映像内において上記第1動作をN1回連続して検出した場合に、上記拾得開始フラグを発生させ、上記拾得開始フラグを発生させた後に、上記映像内において上記第2動作をN2回連続して検出した場合に、上記拾得完了フラグを発生させてよい。
【0083】
本発明の態様3に係る情報処理システムでは、上記態様2において、N1およびN2はいずれも、2以上に設定されていてよい。
【0084】
本発明の態様4に係る情報処理システムでは、上記態様3において、N1とN2とは異なっていてもよい。
【0085】
本発明の態様5に係る情報処理システムでは、上記態様4において、N1およびN2はいずれも、1に設定されていてよい。
【0086】
本発明の態様6に係る情報処理システムは、上記態様1から5のいずれか1つにおいて、上記拾得完了フラグの発生時点における上記ユーザの位置を示す位置情報を取得する位置情報取得部と、上記拾得完了フラグの発生時点を示す時間情報を取得する時間情報取得部と、をさらに備えており、上記情報処理システムは、上記拾得物特定部が特定した上記拾得物の種類を示す拾得物情報を、上記位置情報および上記時間情報と対応付けて記憶装置に格納してよい。
【0087】
本発明の態様7に係る情報処理システムは、上記態様6において、上記記憶装置に格納された上記位置情報に対応する上記拾得物情報がプロットされたマップを描画するマップ描画部をさらに備えていてよい。
【0088】
本発明の態様8に係る情報処理システムでは、上記態様7において、上記マップ描画部は、上記記憶装置に格納された上記位置情報に対応する上記時間情報を、上記マップとともに表示装置に表示させてよい。
【0089】
本発明の態様9に係る情報処理システムは、上記態様6から8のいずれか1つにおいて上記フラグ管理部と上記フレーム抽出部と上記位置情報取得部と上記時間情報取得部とを有する第1情報処理装置を備えており、上記第1情報処理装置は、上記ユーザが携帯可能な端末装置であってよい。
【0090】
本発明の態様10に係る情報処理システムでは、上記態様9において、上記第1情報処理装置は、上記清掃器具に取り付けられていてよい。
【0091】
本発明の態様11に係る情報処理システムは、上記態様9または10において、上記拾得物特定部を有する第2情報処理装置を備えており、上記第2情報処理装置は、上記第1情報処理装置よりも高い計算リソースを有していてよい。
【0092】
本発明の態様12に係る情報処理方法は、ユーザが携帯可能な清掃器具に取り付けられたカメラが撮像した映像を解析することにより、(i)上記ユーザが上記清掃器具を用いて清掃対象としての拾得物の拾得を開始したことを表す拾得開始フラグと、(ii)上記ユーザが上記清掃器具を用いて上記拾得物の拾得を完了したことを表す拾得完了フラグと、を発生させるフラグ管理ステップと、上記映像に含まれている複数のフレームの内、(i)上記拾得開始フラグの発生時点におけるフレームから、(ii)上記拾得完了フラグの発生時点におけるフレームまでの、任意の1つのフレームを注目フレームとして抽出するフレーム抽出ステップと、上記注目フレームを解析することにより、上記注目フレームに映っている上記拾得物の種類を特定する拾得物特定ステップと、を含んでいる。
【0093】
〔付記事項〕
本発明の一態様は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の一態様の技術的範囲に含まれる。
【符号の説明】
【0094】
1、1U 情報処理システム
10、10U 第1情報処理装置(端末装置,表示装置)
11、11U フラグ管理部
12 フレーム抽出部
13 位置情報取得部
14 時間情報取得部
20 第2情報処理装置(第1情報処理装置よりも高い計算リソースを有する装置)
21 拾得物特定部
22 マップ描画部
29 記憶部(記憶装置)
80 清掃器具
90 カメラ
U ユーザ
ST 拾得物(清掃対象)
IMG1~IMG5 注目フレーム