IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社リコーの特許一覧

特開2024-53533画像処理装置、画像処理システム、画像処理方法、及びプログラム
<>
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図1
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図2
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図3
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図4
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図5
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図6
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図7
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図8
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図9
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図10
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図11
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図12
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図13
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図14
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図15
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図16
  • 特開-画像処理装置、画像処理システム、画像処理方法、及びプログラム 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024053533
(43)【公開日】2024-04-15
(54)【発明の名称】画像処理装置、画像処理システム、画像処理方法、及びプログラム
(51)【国際特許分類】
   G06T 7/20 20170101AFI20240408BHJP
   H04N 7/18 20060101ALI20240408BHJP
【FI】
G06T7/20
H04N7/18 K
H04N7/18 G
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2023112494
(22)【出願日】2023-07-07
(31)【優先権主張番号】P 2022159283
(32)【優先日】2022-10-03
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000006747
【氏名又は名称】株式会社リコー
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】大山 芽依
【テーマコード(参考)】
5C054
5L096
【Fターム(参考)】
5C054CA04
5C054CC02
5C054FC12
5C054HA01
5C054HA26
5C054HA31
5L096CA02
5L096FA52
5L096FA70
5L096HA05
5L096HA09
(57)【要約】
【課題】移動物に表示される識別符号を認識できなくなった場合でも、移動物を追跡すること。
【解決手段】対象物体の存在するエリア情報を算出する、撮像装置と通信可能な画像処理装置であって、前記撮像装置が撮像した撮像範囲における画像を取得する取得部と、前記画像に含まれる対象物体が移動した位置の軌跡を算出する軌跡算出部と、前記画像に含まれる前記対象物体の個体を識別する識別符号を認識する認識部と、前記軌跡に基づいて、前記対象物体が存在するエリアを推定する推定部と、前記識別符号が認識された位置に基づき前記軌跡を取得し、前記取得された前記軌跡に対応する推定された前記エリアと前記識別符号とを関連付けた個体別エリア推定情報を算出する個体別推定情報算出部と、を有することを特徴とする。
【選択図】図3
【特許請求の範囲】
【請求項1】
対象物体の存在するエリア情報を算出する、撮像装置と通信可能な画像処理装置であって、
前記撮像装置が撮像した撮像範囲における画像を取得する取得部と、
前記画像に含まれる対象物体が移動した位置の軌跡を算出する軌跡算出部と、
前記画像に含まれる前記対象物体の個体を識別する識別符号を認識する認識部と、
前記軌跡に基づいて、前記対象物体が存在するエリアを推定する推定部と、
前記識別符号が認識された位置に基づき前記軌跡を取得し、前記取得された前記軌跡に対応する推定された前記エリアと前記識別符号とを関連付けた個体別エリア推定情報を算出する個体別推定情報算出部と、
を備える画像処理装置。
【請求項2】
前記認識部は、前記画像において検出された前記識別符号を含む領域の縦横比に基づいて、前記識別符号を認識できるか否かを判定する、請求項1に記載の画像処理装置。
【請求項3】
前記認識部は、認識した前記識別符号の文字数に基づいて、前記識別符号を認識できるか否かを判定する、請求項1に記載の画像処理装置。
【請求項4】
更に追跡終了判定部を有し、前記軌跡が更新されていない時間に基づいて、前記対象物体の追跡を終了するか否かを判定する、請求項1に記載の画像処理装置。
【請求項5】
更に追跡終了判定部を有し、前記対象物体が予め定めた時間あたりに移動した移動量に基づいて、前記対象物体の追跡を終了するか否かを判定する、請求項1に記載の画像処理装置。
【請求項6】
前記推定部は、前記軌跡に基づいて推定した将来進行方向と、前記エリアの前記画像における隣接エリアの方向に基づいて、前記対象物体が存在する前記エリアを推定する、請求項1に記載の画像処理装置。
【請求項7】
前記推定部は、前記対象物体が最後に検出された位置に基づいて、前記対象物体が存在する前記エリアを推定する、請求項1に記載の画像処理装置。
【請求項8】
撮像装置と対象物体の存在するエリア情報を算出する、前記撮像装置と通信可能な画像処理装置を有する画像処理システムであって、
前記画像処理装置は、
前記撮像装置が撮像した撮像範囲における画像を取得する取得部と、
前記画像に含まれる対象物体が移動した位置の軌跡を算出する軌跡算出部と、
前記画像に含まれる前記対象物体の個体を識別する識別符号を認識する認識部と、
前記軌跡に基づいて、前記対象物体が存在するエリアを推定する推定部と、
前記識別符号が認識された位置に基づき前記軌跡を取得し、前記取得された前記軌跡に対応する推定された前記エリアと前記識別符号とを関連付けた個体別エリア推定情報を算出する個体別推定情報算出部と、
を備える画像処理システム。
【請求項9】
前記画像処理装置から前記個体別エリア推定情報を受信する通信部と、
前記個体別エリア推定情報に基づいて、前記識別符号と前記識別符号が付与された前記対象物体が存在する前記エリアを表示する表示制御部と、
を備える端末装置と、
を更に備える、請求項8に記載の画像処理システム。
【請求項10】
対象物体の存在するエリア情報を算出する、撮像装置と通信可能な画像処理装置が実行する画像処理方法であって、
前記撮像装置が撮像した撮像範囲における画像を取得するステップと、
前記画像に含まれる対象物体が移動した位置の軌跡を算出するステップと、
前記画像に含まれる前記対象物体の個体を識別する識別符号を認識するステップと、
前記軌跡に基づいて、前記対象物体が存在するエリアを推定するステップと、
前記識別符号が認識された位置に基づき前記軌跡を取得し、前記取得された前記軌跡に対応する推定された前記エリアと前記識別符号とを関連付けた個体別エリア推定情報を算出するステップと、
を備える画像処理方法。
【請求項11】
対象物体の存在するエリア情報を算出する、撮像装置と通信可能な画像処理装置に、
前記撮像装置が撮像した撮像範囲における画像を取得するステップ、
前記画像に含まれる対象物体が移動した位置の軌跡を算出するステップ、
前記画像に含まれる前記対象物体の個体を識別する識別符号を認識するステップ、
前記軌跡に基づいて、前記対象物体が存在するエリアを推定するステップ、
前記識別符号が認識された位置に基づき前記軌跡を取得し、前記取得された前記軌跡に対応する推定された前記エリアと前記識別符号とを関連付けた個体別エリア推定情報を算出するステップ、
を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、画像処理システム、画像処理方法、及びプログラムに関する。
【背景技術】
【0002】
作業場や施設などにおいて、カメラを用いて、人、物体、及び機械などの移動物を追跡する技術が一般に知られている。特許文献1には、1台以上のカメラを用いて、対象領域を動く移動物に表示されたユニークな識別符号を認識し、認識した識別符号が表示された移動物の撮像画像に基づいて、移動物を追跡する技術が開示されている。
【発明の概要】
【発明が解決しようとする課題】
【0003】
しかしながら、従来の技術では、移動物を追跡するために移動体をカメラで撮影するが、移動体が遮蔽物や障害物等で隠れると、移動物に表示される識別符号を認識できず、移動物を追跡することができないという問題があった。
【0004】
本発明の実施形態は、上記課題に鑑み、移動物に表示される識別符号を認識できなくなった場合でも、移動物を追跡することができることを目的とする。
【課題を解決するための手段】
【0005】
上述した課題を解決するために、本発明は、対象物体の存在するエリア情報を算出する、撮像装置と通信可能な画像処理装置であって、前記撮像装置が撮像した撮像範囲における画像を取得する取得部と、前記画像に含まれる対象物体が移動した位置の軌跡を算出する軌跡算出部と、前記画像に含まれる前記対象物体の個体を識別する識別符号を認識する認識部と、前記軌跡に基づいて、前記対象物体が存在するエリアを推定する推定部と、前記識別符号が認識された位置に基づき前記軌跡を取得し、前記取得された前記軌跡に対応する推定された前記エリアと前記識別符号とを関連付けた個体別エリア推定情報を算出する個体別推定情報算出部と、を有することを特徴とする。
【発明の効果】
【0006】
本発明の実施形態によれば、移動物に表示される識別符号を認識できなくなった場合でも、移動物を追跡することができる。
【図面の簡単な説明】
【0007】
図1】本発明の実施形態に係る画像処理システムの概略図の一例を示す図である。
図2】本発明の実施形態に係る画像処理装置及び端末装置のハードウェア構成の一例を示す図である。
図3】本発明の実施形態に係る画像処理システムにおける機能ブロックの構成図の一例を示す図である。
図4】本発明の実施形態に係る対象物体追跡処理に関するフローチャートの一例を示す図である。
図5】本発明の実施形態に係るID認識情報の一例を示す図である。
図6】本発明の実施形態に係る物体追跡情報の一例を示す図である。
図7】本発明の実施形態に係る追跡番号情報の一例を示す図である。
図8】本発明の実施形態に係るカメラ情報の一例を示す図である。
図9】本発明の実施形態に係るエリア情報の一例を示す図である。
図10】本発明の実施形態に係るエリアとカメラの撮像範囲を説明する図である。
図11】本発明の実施形態に係るエリア推定方法を説明する図である。
図12】本発明の実施形態に係るエリア推定情報の一例を示す図である。
図13】本発明の実施形態に係るIDラベルと追跡対象物体の対応付け方法を説明する図である。
図14】本発明の実施形態に係る個体別エリア推定情報の一例を示す図である。
図15】本発明の実施形態に係る端末装置に表示する表示画面の一例を示す図である。
図16】本発明の実施形態に係るID認識処理を説明する図である。
図17】本発明の実施形態に係るID認識処理に関するフローチャートの一例を示す図である。
【発明を実施するための形態】
【0008】
以下、添付図面を参照しながら、本発明に係る画像処理装置、画像処理システム、画像処理方法、及びプログラムの実施形態を詳細に説明する。
【0009】
[第1の実施形態]
<システム概要>
図1は、本発明の実施形態に係る画像処理システムの概略図の一例を示す図である。画像処理システム1は、例えば、インターネットやローカルネットワーク等の通信ネットワーク2に接続する少なくともの一台のカメラ3、画像処理装置5、及び少なくともの一台の端末装置6を含む。カメラは、撮像装置とよんでもよい。
【0010】
カメラ3は、カメラ3の撮像領域において移動する追跡対象物体4を撮像し、撮像した画像を入力画像8として通信ネットワーク2を介して画像処理装置5に送信する。追跡対象物体4は、例えば、航空貨物輸送で用いられるULD(Unit Load Devices)と呼ばれるコンテナであり、個体を識別するためのIDラベル7が付与されている。IDラベル7には、個体を識別するために、例えば、個体ごとに異なる英数字などの文字が記載されており、この文字をID(又は識別符号、識別子)とよぶ。IDはIdentificationの略である。
【0011】
画像処理装置5は、カメラ3から受信した入力画像8を用いて、追跡対象物体4の各個体が存在するエリアを推定した情報を含む個体別エリア推定情報9を出力し、個体別エリア推定情報9を端末装置6に送信する。画像処理装置5は、入力画像8において、追跡対象物体4のIDラベル7を、識別符号(ID)を認識できる程度に十分に撮像できておらず、IDラベル7に記載されている識別符号(ID)を認識できない場合においても、追跡対象物体4の位置や進行方向を個別に検出して追跡する。その後、識別符号(ID)が認識できた時に、追跡対象物体4の追跡結果に関する物体追跡情報と識別符号(ID)の認識結果に関するID認識情報を関連付けることにより、個体別エリア推定情報9を出力することが可能である。個体別エリア推定情報9には、追跡対象物体4に対応する識別符号(ID)ごとに、追跡対象物体4が存在すると推定されるエリアの名称が含まれる。画像処理装置5は、通信ネットワーク2を介して個体別エリア推定情報9を管理者が操作するPC(Personal Computer)などの端末装置6に送信する。
【0012】
端末装置6は、受信した個体別エリア推定情報9を用いて、追跡対象物体4の識別符号(ID)と追跡対象物体4が存在するエリアなどを表示画面に表示する。管理者は、表示される情報を用いて、追跡対象物体4であるコンテナの現在位置を確認することにより、コンテナの管理を行うことが可能である。例えば、管理者は、端末装置6に工程表を入力し、工程表とコンテナの現在位置を比較することで、進捗の自動判定や、工程表と異なる場所にコンテナがある場合にアラームを鳴らすことが可能である。
【0013】
以上の構成により、画像処理システム1は、移動物の識別符号が常にカメラに映っていなくても、移動物を追跡して位置を特定することができる。なお、図1に示す画像処理システム1のシステム構成は一例である。例えば、カメラ3及び端末装置6の台数は任意の数であってよい。また、カメラ3は、USB(Universal Serial Bus)ケーブルなどにより画像処理装置5に接続されており、USBケーブルを介して入力画像8が送受信されてもよい。また、通信ネットワーク2は、例えば、移動体通信、又は無線LAN等の無線通信による接続区間が含まれていても良い。また、端末装置6は、PC以外に、スマートフォンやタブレット端末などであってもよい。また、端末装置6は、画像処理装置5から受信した個体別エリア推定情報9に基づく表示画面を表示するためのアプリケーションを予めインストールしてもよい。或いは、画像処理装置5は、端末装置6が個体別エリア推定情報9に基づく表示画面を表示するための画面情報を端末装置6に送付してもよい。ここで、画面情報は、HTML(Hyper Text Markup Language)などを用いて作成されたWebブラウザを用いて表示可能な情報であってもよい。
【0014】
<ハードウェア構成例>
図2は、本発明の実施形態に係る画像処理装置5及び端末装置6のハードウェア構成の一例を示す図である。図2に示されるように、画像処理装置5及び端末装置6はコンピュータによって構築されており、CPU501、ROM502、RAM503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。
【0015】
これらのうち、CPU501は、画像処理装置5及び端末装置6全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、通信ネットワーク2を利用してデータ通信をするためのインターフェースである。バスライン510は、図2に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
【0016】
また、キーボード511は、文字、数値、又は各種指示などの入力に使用される複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD-RWドライブ514は、着脱可能な記録媒体の一例としてのDVD-RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RWドライブ514は、DVD-RWに限らず、DVD-R等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。
【0017】
<機能について>
図3は、本発明の実施形態に係る画像処理システム1における機能ブロックの構成図の一例を示す図である。カメラ3は、通信部30、撮像部31、及び処理部32を有する。
【0018】
通信部30は、カメラ3が有する通信機能であり、例えば、通信ネットワーク2を介して画像処理装置5に入力画像8を送信する。
【0019】
撮像部31は、カメラ3の機能を用いて撮像範囲を撮像した画像情報を取得する。画像情報は、例えば、1画素を8ビットで表現したモノクロの画像データであってもよいし、1画素をRGB(Red Green Blue)の3色をそれぞれ8ビットで表現したカラーの画像データなどであってもよい。画像情報は、単に画像とよんでもよい。
【0020】
処理部32は、撮像部31が取得した画像情報に対して、静止画像又は動画像の圧縮符号化した圧縮画像データを生成する。更に、処理部32は、生成した圧縮画像データ、カメラ3を特定するためのカメラ番号、及びカメラ3で画像情報が撮像された時刻を含む入力画像8を生成する。ここで、カメラ番号は、例えば、カメラごとにユニークな番号または文字列である。
【0021】
画像処理装置5は、通信部10、取得部11、認識部12、追跡部13、推定部14、及び個体別推定情報算出部15を有する。追跡部13は、内部に物体位置検出部16、軌跡算出部17、及び追跡終了判定部18を有する。個体別推定情報算出部15は、内部にID位置照合部19と追跡番号照合部20を有する。これら各部は、画像処理装置5にインストールされた1以上のプログラムに含まれる命令をCPU501が実行することで実現される機能又は手段である。記憶部21は、例えば、画像処理装置5が有するHD504などの記憶装置によって実現可能である。
【0022】
通信部10は、画像処理装置5が有する通信機能であり、通信ネットワーク2を介してカメラ3及び端末装置6と情報の送受信を行う。例えば、通信部10は、入力画像8をカメラ3から受信する。また、通信部10は、個体別エリア推定情報9を端末装置6に送信する。
【0023】
取得部11は、通信部10がカメラ3から受信した入力画像8を取得する。或いは、取得部11は、画像処理装置5の記憶部21などに記憶された入力画像8を取得する。また、取得部11は、入力画像8に含まれる圧縮符号化されたデータを復号することで画像情報を取得し、取得した画像情報の1フレームごとに画像番号を付与する。また、取得部11は、画像情報、画像番号、及び入力画像8に含まれるカメラ番号と画像情報が撮像された時刻を含む入力画像情報50を生成し、生成した入力画像情報50を認識部12と追跡部13の物体位置検出部16に送信する。
【0024】
認識部12は、取得部11から受信した入力画像情報50を用いて、追跡対象物体4のIDラベル7に記載された識別符号(ID)を認識し、認識結果としてID認識情報51を算出して、算出したID認識情報51を個体別推定情報算出部15のID位置照合部19に送信する。即ち、認識部12は、取得した画像を用いて、対象物体に付与された識別符号を認識する。
【0025】
追跡部13は、画像処理装置5の取得部11から受信した入力画像情報50を用いて、物体追跡情報53を算出して、算出した物体追跡情報53を個体別推定情報算出部15のID位置照合部19に送信する。即ち、追跡部13は、取得した画像を用いて、対象物体が移動した軌跡を算出する。
【0026】
物体位置検出部16は、入力画像情報50を用いて、物体位置情報52を算出して、算出した物体位置情報52を追跡部13の軌跡算出部17に送信する。
【0027】
軌跡算出部17は、物体位置検出部16から受信した物体位置情報52を用いて、物体追跡情報53を算出し、算出した物体追跡情報53を追跡部13の追跡終了判定部18と個体別推定情報算出部15のID位置照合部19に送信する。
【0028】
追跡終了判定部18は、軌跡算出部17から受信した物体追跡情報53を用いて、追跡番号ごとに追跡対象物体4の追跡が終了したか否かを判定する。更に、追跡終了判定部18は、追跡が終了したと判定した追跡対象物体4の追跡番号に対応する追跡番号情報54を算出し、算出した追跡番号情報54を推定部14に送信する。
【0029】
推定部14は、追跡部13から受信した追跡番号情報54と記憶部21から受信したエリア情報56を用いて、エリア推定情報57を算出し、算出したエリア推定情報57を個体別推定情報算出部15の追跡番号照合部20に送信する。即ち、推定部14は、追跡部13が算出した軌跡に基づいて、対象物体が存在するエリアを推定する。
【0030】
個体別推定情報算出部15は、認識部12から受信したID認識情報51、追跡部13から受信した物体追跡情報53、及び推定部14から受信したエリア推定情報57を用いて、個体別エリア推定情報9を算出する。即ち、個体別推定情報算出部15は、受信した情報を用いて、認識部12が認識した識別符号と、推定部14が推定したエリアとを関連付けた個体別エリア推定情報9を算出する。また、個体別推定情報算出部15は、算出した個体別エリア推定情報9を通信部10に送信する。
【0031】
ID位置照合部19は、ID認識情報51と物体追跡情報53を用いて、ID追跡情報58を算出し、算出したID追跡情報58を個体別推定情報算出部15の追跡番号照合部20に送信する。
【0032】
追跡番号照合部20は、ID位置照合部19から受信したID追跡情報58と推定部14から受信したエリア推定情報57を用いて、個体別エリア推定情報9を算出し、算出した個体別エリア推定情報9を通信部10に送信する。
【0033】
端末装置6は、通信部60、表示制御部61、および操作受付部62を有する。これら各部は、端末装置6にインストールされた1以上のプログラムに含まれる命令をCPU501が実行することで実現される機能又は手段である。
【0034】
通信部60は、端末装置6が有する通信機能であり、通信ネットワーク2を介して画像処理装置5と情報の送受信を行う。
【0035】
表示制御部61は、受信した個体別エリア推定情報9を用いて、追跡対象物体4の識別符号(ID)と追跡対象物体4が存在するエリアを含む表示画面などを端末装置6のディスプレイ506などに表示する。
【0036】
操作受付部62は、端末装置6のキーボード511やポインティングデバイス512を介して、管理者による文字入力やボタンの押下などの操作を受け付ける。
【0037】
<対象物体追跡処理>
図4は、本発明の実施形態に係る対象物体追跡処理に関するシーケンスの一例を示す図である。本シーケンスでは、画像処理装置5が、カメラ3から受信した入力画像8を用いて、追跡対象物体4の各個体がどのエリアに存在するかを推定した情報を含む個体別エリア推定情報9を出力し、個体別エリア推定情報9を端末装置6に送信する。以下、図4の各ステップの処理について説明する。
【0038】
ステップS100:画像処理装置5の取得部11は、通信部10がカメラ3の通信部30から通信ネットワーク2を介して受信した入力画像8を取得する。或いは、取得部11は、カメラ3の通信部30から受信した入力画像8でなく、画像処理装置5の記憶部21などに記憶された入力画像8を取得してもよい。入力画像8には、カメラ3で撮像された画像を圧縮符号化したデータ、カメラ3を特定するためのカメラ番号、及びカメラ3で画像情報が撮像された時刻が含まれている。
【0039】
次に、取得部11は、入力画像8に含まれる圧縮符号化したデータを復号することで画像情報を取得し、取得した画像情報の1フレームごとに画像番号を付与する。画像番号は、ユニークな番号を採番してもよいし、カメラ番号とその画像を撮像した時刻の組み合わせで表現してもよい。
【0040】
最後に、取得部11は、画像情報、画像番号、及び入力画像8に含まれるカメラ番号と画像情報が撮像された時刻を含む入力画像情報50を生成し、生成した入力画像情報50を認識部12と追跡部13の物体位置検出部16に送信する。取得部11は、1フレームの画像情報ごとに入力画像情報50を作成しても良いし、複数フレーム分の画像情報を纏めたブロックごとに入力画像情報50を作成しても良い。
【0041】
ステップS101:画像処理装置5の認識部12は、画像処理装置5の取得部11から受信した入力画像情報50を用いて、追跡対象物体4のIDラベル7に記載された識別符号(ID)を認識し、認識結果としてID認識情報51を算出して、算出したID認識情報51を個体別推定情報算出部15のID位置照合部19に送信する。ID認識情報51の算出方法の詳細については後述する。図5は、本発明の実施形態に係るID認識情報51の一例を示す図である。図5のID認識情報51は、画像番号211、カメラ番号212、時刻213、及びID認識結果214の項目を有する。画像番号211、カメラ番号212、及び時刻213は、それぞれID認識を実行した1フレームの画像に対応する画像番号、カメラ番号、及び時刻であり、これらの情報は入力画像8から取得できる。ID認識結果214は、ID認識の結果であり、画像において検出されたIDラベル7の位置(中心点の座標など)と認識された識別情報(ID)を含む。例えば、画像番号211が「000001」の画像に対するID認識結果214は、「{X:10, Y:20, ID:"ABC123"}」である。これは、IDラベル7の中心点のX座標が「10」、Y座標が「20」であり、認識された識別情報(ID)が「ABC123」であることを意味する。中心点は、例えば、IDラベル7の領域として認識された長方形の対角線の交点の座標とする。或いは、中心点の座標でなく、長方形の左上と右下の頂点の座標をID認識結果214に含めてもよい。また、IDラベル7又は識別情報(ID)が認識できない場合は、画像番号211が「000004」の画像に対するID認識結果214のように「{}」と表示される。図4に戻って説明する。
【0042】
ステップS102:画像処理装置5の追跡部13は、画像処理装置5の取得部11から受信した入力画像情報50を用いて、物体追跡情報53を算出して、算出した物体追跡情報53を個体別推定情報算出部15のID位置照合部19に送信する。
【0043】
この処理において、まず、追跡部13の物体位置検出部16は、入力画像情報50を用いて、物体位置情報52を算出して、算出した物体位置情報52を追跡部13の軌跡算出部17に送信する。物体位置検出部16は、例えば、入力画像情報50に含まれる画像に対して、予め追跡対象物体4の画像を用いて学習しておいた物体検出の深層学習モデルを使用し、IDラベル7がカメラ3に映っているか否かにかかわらず、追跡対象物体4の画像内の位置座標を検出する。物体検出のモデルは、深層学習ではなく、テンプレートマッチング等の物体検出手法を用いても良い。物体位置検出部16は、検出された追跡対象物体4の画像における領域に関する情報(例えば、長方形の左上と右下の頂点の座標)と、入力画像情報50に含まれる情報(画像番号、カメラ番号、及び時刻)とを合わせた物体位置情報52を算出して、算出した物体位置情報52を追跡部13の軌跡算出部17に送信する。
【0044】
次に、追跡部13の軌跡算出部17は、物体位置情報52を用いて、物体追跡情報53を算出し、算出した物体追跡情報53を追跡部13の追跡終了判定部18と個体別推定情報算出部15のID位置照合部19に送信する。軌跡算出部17は、以下に示す方法により、追跡対象物体4が移動した軌跡を算出する。まず、軌跡算出部17は、物体位置情報52をカメラ番号ごとに分割して、それぞれ時系列順に並べる。次に、軌跡算出部17は、あるカメラのある時刻で検出された追跡対象物体4の画像における領域とその1つ前の時刻で検出された追跡対象物体4の画像における領域を用いて、領域の重なり度合いを示す指標であるIoU(Intersection over Union)を算出する。軌跡算出部17は、IoUがある閾値を越えた場合、これら2つの物体は同一の個体とみなし、それぞれに同じ追跡番号を付与することで、追跡対象物体4を追跡して、移動した軌跡を算出する。或いは、カルマンフィルタや深層学習を用いた追跡手法を利用する、又は組み合わせて利用しても良い。最後に、軌跡算出部17は、算出された追跡番号と、入力画像情報50に含まれる情報(画像番号、カメラ番号、及び時刻)とを組み合わせた物体追跡情報53を作成する。図6は、本発明の実施形態に係る物体追跡情報53の一例を示す図である。図6の物体追跡情報53は、画像番号221、カメラ番号222、時刻223、及び物体追跡結果224の項目を有する。画像番号221、カメラ番号222、及び時刻223は、それぞれ軌跡の算出を実行した画像に対する画像番号、カメラ番号、及び時刻であり、これらの情報は入力画像8から取得できる。物体追跡結果224は、物体追跡の結果であり、追跡した追跡対象物体4の位置情報と追跡番号を含む。例えば、画像番号221が「000001」の画像に対する物体追跡結果224は、「{X0:5,Y0:10,x1:90,y1:120,tracking_no:1}」である。ここには、追跡した追跡対象物体4の位置情報として、検出された追跡対象物体4の画像における長方形の領域における対角する2つの頂点(左上と右下の頂点)の座標が含まれている。或いは、位置情報として、検出された追跡対象物体4の画像における長方形の領域の幅や高さが含まれていてもよいし、領域の全画素(ピクセル)の座標がふくまれていてもよい。また、追跡番号を示す情報として、「tracking_no:1」が含まれている。また、画像番号221が「000003」の画像に対する物体追跡結果224は、「{X0:15,Y0:25,x1:110,y1:135,tracking_no:1},{X0:130,Y0:90,x1:200,y1:150,tracking_no:2}」である。ここには、2つの異なる追跡対象物体4に対する位置情報と追跡番号が含まれている。図4に戻って説明する。
【0045】
ステップS103:画像処理装置5の追跡部13は、追跡番号情報54を算出して、算出した追跡番号情報54を推定部14に送信する。この処理において、追跡部13の追跡終了判定部18は、軌跡算出部17から受信した物体追跡情報53を用いて、追跡対象物体4の追跡が終了したか否かを判定する。追跡終了判定部18は、まず、受信した物体追跡情報53を追跡番号ごとに分割した追跡番号分割情報を作成する。ここで、新しい追跡番号が出現した場合には、新たな追跡番号の追跡番号分割情報として保持する。また、過去に出現した追跡番号が再び現れた場合、その情報は保持していた追跡番号分割情報の末尾に追加する。このようにして、追跡対象物体4の追跡結果が追跡番号ごと時系列順に並んだ追跡番号情報54を作成する。図7は、本発明の実施形態に係る追跡番号情報54の一例を示す図である。図7の追跡番号情報54は、追跡番号ごとに、画像番号231、カメラ番号232、時刻233、及び物体位置座標234の項目を有する。これらの項目は、それぞれ図6の物体追跡情報53の画像番号221、カメラ番号222、時刻223、及び物体追跡結果224の項目と同じ情報である。ただし、物体位置座標234は、物体追跡結果224から追跡番号に関する情報を除いており、追跡対象物体4の位置情報のみを含む。図4に戻って説明する。
【0046】
次に、追跡部13の追跡終了判定部18は、各追跡番号について、追跡が終了したか否かを判定する。追跡終了判定部18は、以下に示す2つの条件のいずれかが満たされる場合に、追跡が終了したと判定する。
【0047】
第1の条件は、追跡対象物体4がカメラ3の撮像範囲外に移動した場合である。この条件に関する判定を行うために、追跡終了判定部18は、追跡番号ごとに追跡番号情報54における最も新しい時刻を参照する。この時刻が、例えば5秒など、予め定めた一定時間以上更新されていない場合、該当する追跡番号の追跡対象物体4はカメラの撮像エリア外へ進行したとみなし、追跡を終了したと判定する。即ち、追跡終了判定部18は、対象物体が移動した軌跡が更新されていない時間に基づいて、対象物体の追跡を終了するか否かを判定する。
【0048】
第2の条件は、追跡対象物体4がカメラ3の撮像範囲内で停止した場合である。追跡終了判定部18は、追跡番号ごとに追跡番号情報54における最新の時刻での追跡対象物体4の中心位置座標と、最新の時刻から予め定めた一定時間前(例えば5秒前など)の時刻の中心位置座標とを比較し、それがある閾値(例えば50ピクセルなど)以上移動していなかった場合、追跡が終了したと判定する。即ち、追跡終了判定部18は、対象物体が予め定めた時間あたりに移動した移動量に基づいて、対象物体の追跡を終了するか否かを判定する。また、追跡終了判定部18は、次に追跡対象物体4の中心位置座標がある閾値以上に移動した場合には、同じ追跡番号で追跡を再開してもよい。
【0049】
ステップS104:画像処理装置5の追跡部13は、追跡終了判定部18により追跡が終了したと判定された追跡番号が存在する場合は、処理をステップS105に遷移させ、そうでない場合は、処理をステップS100に遷移させる。
【0050】
ステップS105:画像処理装置5の推定部14は、追跡部13から受信した追跡番号情報54と記憶部21から受信したエリア情報56を用いて、エリア推定情報57を算出し、算出したエリア推定情報57を個体別推定情報算出部15に送信する。この処理において、まず、推定部14は、追跡番号情報54に含まれるカメラ番号を含むカメラ情報55を画像処理装置5の記憶部21に送信する。図8は、本発明の実施形態に係るカメラ情報55の一例を示す図である。図8のカメラ情報55は、カメラ番号241、カメラ設置位置242、及びカメラ機種243の項目を有する。カメラ番号241は、カメラ3を特定するための番号である。カメラ設置位置242は、カメラ3の設置位置を示す。例えば、{X:500,Y:100,Z:300}は、カメラの設置位置が、カメラが設置された部屋における横、奥行き、高さの位置が基準となる点からそれぞれが5m、1m、3mであることを示す。カメラ機種243は、カメラの機種を示す情報である。これらの項目以外にも、カメラの設置角度や撮像範囲などを示す項目が含まれていても良い。また、カメラ情報55は、カメラ3から送信される入力画像8に毎回全ての項目の情報が含まれていてもよいし、カメラ番号241以外の項目の情報は、最初に送信した後は、一定周期、或いは情報を更新する場合のみ入力画像8に含めるようにしてもよい。図4に戻って説明する。
【0051】
画像処理装置5の記憶部21は、推定部14から受信したカメラ情報55に対応するエリア情報56を推定部14に送信する。図9は、本発明の実施形態に係るエリア情報56の一例を示す図である。図9のエリア情報56は、隣接エリア名251、方向252、画像内位置253の項目を有する。隣接エリア名251は、カメラ番号に対応するカメラ3の撮像範囲に隣接するエリアの名称である。方向252は、カメラ番号に対応するカメラ3の撮像範囲で撮像した画像における隣接エリアの方向を示す。例えば、「{X:0、Y:1}」は画像における上方向、「{X:-1、Y:0}」は画像における左方向、「{X:0、Y:-1}」は画像における下方向を示す。即ち、Xは画像の横方向を示し、X=―1は左、X=1は右、X=0は真ん中を示す。Yは画像の縦方向を示し、Y=―1は下、Y=1は上、Y=0は真ん中を示す。また、「{X:1、Y:1}」により斜め右上方向を示してもよい。画像内位置253は、隣接エリアの方向を示すヒートマップであり、隣接エリアが近い場所ほど色が濃く表示されている。隣接エリア名251の「A」「B」「C」に対応する画像内位置253は、それぞれ図9の下部に示す「マップ10a」「マップ10b」「マップ10c」である。更に、エリア情報56には、カメラの設置位置や撮像範囲、及び全体の地図とエリアとの対応などの情報が含まれていても良い。
【0052】
図10は、本発明の実施形態に係るエリアとカメラの撮像範囲を説明する図である。図10の左側の説明図260は、狭い通路におけるエリアの例を示す。説明図260には、A~Fの6つのエリアが存在し、エリアごとに存在する追跡対象物体のIDを管理する。また、説明図260には、十字路に1台のカメラ261、T字路に1台のカメラ262の合計で2台のカメラが設置されている。このようにカメラを配置することで、追跡対象物体が各エリアを跨いだ移動をする際に、必ずどちらかのカメラの撮像範囲(斜線で塗られた領域)に侵入することになる。したがって、すべての通路が見えるようにカメラを置く必要がなく、最小限の台数によるカメラ設置により、全ての追跡対象物体が存在するエリアを推定することが可能となる。
【0053】
また、図10の右側の説明図270は、広い通路におけるエリアの例を示す。説明図270には、H~Kの4つのエリアが存在し、エリアごとに存在する追跡対象物体のIDを管理する。また、説明図270には、4つのエリアの分岐点にカメラ271、及びエリアJとエリアKとの境界線上にカメラ272が設置されている。ここで、カメラの撮像範囲(斜線で塗られた領域)に入らない各境界線の長さが追跡対象物体の幅よりも小さくなるようにカメラを設置すれば、追跡対象物体が各エリアを跨いだ移動をする際に、必ずいずれかのカメラの撮像範囲に侵入することになる。したがって、すべての通路が見えるようにカメラを置く必要がなく、最小限の台数によるカメラ設置により、全ての追跡対象物体が存在するエリアを推定することが可能となる。
【0054】
なお、各カメラの撮像範囲は、隣接する1つ以上のエリアに分割して含めても良いし、個別のエリアとして「第1カメラ」等のエリア名を別途付けても良い。また、説明図260におけるカメラ261に対応するエリア情報56には、少なくとも、隣接するA~Dのエリアの名称と、カメラ261の撮像画像において各エリアがどの方向にあるのかを示す情報が含まれる。また、カメラの撮像範囲がエリアに含まれる場合、エリア情報56には、そのエリアがどのように分割されているかについての情報(境界線の位置など)も含まれる。図4に戻って説明する。
【0055】
最後に、画像処理装置5の推定部14は、追跡部13から受信した追跡番号情報54と記憶部21から受信したエリア情報56を用いて、エリア推定情報57を算出し、算出したエリア推定情報57を個体別推定情報算出部15の追跡番号照合部20に送信する。図11は、本発明の実施形態に係るエリア推定方法を説明する図である。図11の左側の説明図280と右側の説明図291は、図10のカメラ261の撮像範囲おける、推定部14によるエリア推定方法のそれぞれ第1の例と第2の例を説明している。
【0056】
説明図280が示す第1の例では、まず、推定部14は、追跡部13から受信した図7の追跡番号情報54において、特定の追跡番号における追跡対象物体の物体位置座標234を最新の時刻から遡って一定個数(例えば3個)抽出する。説明図280には、カメラ261により撮像される撮像画像281において、抽出した物体位置座標234に基づいて、時刻の経過順に3つの追跡対象物体の物体位置領域282、285、288と、それらの中心位置283、286、289が表示されている。また、追跡対象物体の中心位置283と中心位置286とを結ぶ軌跡284と、中心位置286と中心位置289とを結ぶ軌跡287も表示されている。次に、推定部14は、これらの追跡結果を用いて、将来軌跡290を予測する。予測には、例えば、深層学習モデルを含む機械学習等を用いる。更に、推定部14は、予測した将来軌跡290と記憶部21から受信した図9のエリア情報56における方向252に基づいて、進行方向の推定エリアとしてエリアBを算出する。即ち、推定部14は、対象物体が移動した軌跡に基づいて推定した将来進行方向と、カメラの撮像範囲で撮像した画像における隣接エリアの方向に基づいて、対象物体が存在するエリアを推定する。
【0057】
説明図291が示す第2の例では、まず、カメラ261により撮像される撮像画像292において、予め隣接するエリアを区切っておく。区切る方法は、手動であっても良いし、図9のエリア情報56の方向252や画像内位置253を用いて自動で行っても良い。まず、推定部14は、特定の追跡番号の追跡番号情報54において、最も新しい時刻における追跡対象物体の物体位置座標234からその中心位置の座標を算出する。次に、推定部14は、追跡対象物体が、カメラ261に最後に映った場所に対応するエリアに移動したと判断し、この座標があらかじめ区切られていた範囲のどこに属するかによって、進行方向の推定エリアを算出する。説明図291では、最後に追跡された中心位置293がエリアBに対応する範囲にあるため、推定部14は、進行方向の推定エリアとしてエリアBを算出する。即ち、推定部14は、対象物体が最後に検出された位置に基づいて、対象物体が存在するエリアを推定する。
【0058】
図12は、本発明の実施形態に係るエリア推定情報の一例を示す図である。図12のエリア推定情報57は、追跡番号301、最終撮像時刻302、カメラ番号303、及び推定エリア304の項目を有する。追跡番号301は、推定部14が推定エリアを算出した追跡対象物体に対応する追跡番号である。最終撮像時刻302は、推定部14が推定エリアを算出した追跡対象物体が最後に撮像された時刻である。カメラ番号303は、推定部14が推定エリアを算出した追跡対象物体を撮像したカメラを特定する番号である。推定エリア304は、推定部14が算出した追跡対象物体が存在するエリアの名称である。図4に戻って説明する。
【0059】
ステップS106:画像処理装置5の個体別推定情報算出部15は、認識部12から受信したID認識情報51、追跡部13から受信した物体追跡情報53、及び推定部14から受信したエリア推定情報57を用いて、個体別エリア推定情報9を算出する。また、個体別推定情報算出部15は、算出した個体別エリア推定情報9を通信部10に送信する。この処理において、まず、認識部12のID位置照合部19は、ID認識情報51と物体追跡情報53を用いて、ID追跡情報58を算出し、算出したID追跡情報58を追跡番号照合部20に送信する。ID位置照合部19は、まず、ID認識情報51のID認識結果214に認識結果が存在するか否かを確認する。認識結果が存在する場合、ID位置照合部19は、ID認識結果214が示すIDラベルの位置と最も近い位置にある、物体追跡情報53の物体追跡結果224が示す追跡対象物体を選択する。更に、ID位置照合部19は、選択した追跡対象物体の追跡番号を取得し、IDラベルに記載されている識別符号(ID)と取得した追跡番号を含むID追跡情報58を算出する。
【0060】
図13は、本発明の実施形態に係るIDラベルと追跡対象物体の対応付け方法を説明する図である。図13の撮像画像305には、検出されたIDラベルの領域であるIDラベル領域306と2つの異なる追跡対象物体の領域である追跡対象物体領域307、308が表示されている。このとき、ID位置照合部19は、IDラベル領域306に最も近い追跡対象物体領域307を選択して、その追跡対象物体の追跡番号を取得する。これにより、IDラベル領域306に対応するIDと追跡対象物体が対応付けされる。また、撮像画像305より後の時刻における撮像画像309には、IDラベル領域310とは別の検出されたIDラベルの領域であるIDラベル領域310と2つの異なる追跡対象物体の領域である追跡対象物体領域311、312が表示されている。ここで、追跡対象物体領域311、312は、それぞれ追跡対象物体領域307、308と同じ追跡番号の追跡対象物体の領域である。このとき、ID位置照合部19は、IDラベル領域310に最も近い追跡対象物体領域312を選択して、その追跡対象物体の追跡番号を取得する。これにより、IDラベル領域310に対応するIDと追跡対象物体が対応付けされる。また、追跡対象物体領域311は、すでに別のIDと対応付けされていることから、ID位置照合部19は、IDと対応付けがされていない追跡対象物体領域312のみを選択の対象としてもよい。更に、ID位置照合部19は、IDと追跡対象物体の対応付けができた後に、認識できていない過去の時間に遡って、IDと追跡対象物体の対応付けを行ってもよい。また、IDと追跡対象物体の対応付けは、IDラベルの領域の中心位置と追跡対象物体の領域の距離に基づいて、又は、IDラベルの領域の中心位置が追跡対象物体の領域に含まれるか否かに基づいて行ってもよい。図4に戻って説明する。
【0061】
次に、認識部12の追跡番号照合部20は、ID位置照合部19から受信したID追跡情報58と推定部14から受信したエリア推定情報57を用いて、個体別エリア推定情報9を算出し、算出した個体別エリア推定情報9を通信部10に送信する。即ち、追跡番号照合部20は、ID追跡情報58を用いて、図12のエリア推定情報57の追跡番号301を対応するIDに置き換えることにより、個体別エリア推定情報9を算出する。図14は、本発明の実施形態に係る個体別エリア推定情報の一例を示す図である。図14の個体別エリア推定情報9は、ID321、最終撮像時刻322、カメラ番号323、及び推定エリア324の項目を有する。ID321は、追跡番号照合部20が、ID追跡情報58を用いて、図12のエリア推定情報57の追跡番号301を対応するIDに置き換えることにより算出されたものである。最終撮像時刻322、カメラ番号323、及び推定エリア324は、図12のエリア推定情報57の最終撮像時刻302、カメラ番号303、及び推定エリア304と同じである。即ち、個体別推定情報算出部15は、識別符号(ID)が検出された位置と、対象物体が移動した軌跡を関連付けることにより、個体別エリア推定情報9を算出する。図4に戻って説明する。
【0062】
ステップS107:画像処理装置5の通信部10は、個体別推定情報算出部15から受信した個体別エリア推定情報9を端末装置6の通信部60に通信ネットワーク2を介して送信する。端末装置6の表示制御部61は、受信した個体別エリア推定情報9に基づいて、表示画面を端末装置6のディスプレイ506に表示する。図15は、本発明の実施形態に係る端末装置に表示する表示画面の一例を示す図である。図15の表示画面330は、地図表示領域331、入力領域332、検索開始ボタン333、及びID別エリア表示領域334を有する。更に、地図表示領域331は、地図335と指定エリア情報336を有する。地図335は、管理者が管理する倉庫の地図であり、エリア名(A~F、第1カメラ、第2カメラ)と各エリアの領域の右上に存在するコンテナの数が表示されている。指定エリア情報336には、指定されたエリア(斜線で示すエリアAが指定されている)に存在するコンテナのIDが表示されている。また、指定エリア情報336の右側にあるスクロールボタンを移動させることで、表示されていないIDを表示させることができる。ID別エリア表示領域334には、端末装置6が受信した個体別エリア推定情報9に含まれる全てのコンテナに対するIDとコンテナが存在するエリアが表示されている。また、ID別エリア表示領域334の右側にあるスクロールボタンを移動させることで、表示されていないIDとエリアを表示させることができる。更に、管理者は、入力領域332に検索したいコンテナのIDを入力した後、検索開始ボタン333を押下することにより、ID別エリア表示領域334に、検索したコンテナのIDとエリアを表示させることが可能である。
【0063】
<ID認識処理>
続いて、図4のステップS101において、画像処理装置5の認識部12が実行するID認識情報51の算出における算出方法の詳細について説明する。図16は、本発明の実施形態に係るID認識処理を説明する図である。図16の撮像画像200はID認識を行う場合の例を示しており、撮像画像203はID認識を行わない場合の例を示している。撮像画像200では、追跡対象物体201に付与されたIDラベル202が隠れることなく完全に撮像されていることから、OCR(Optical Character Recognition)技術を用いてIDラベル202に記載されているID(ABC123)を認識することが可能である。一方、撮像画像203では、追跡対象物体204に付与されたIDラベル205の一部が作業者により隠れているため、IDラベル205に記載されているIDを認識することができない。即ち、認識部12は、撮像画像に対してOCRにより文字認識を実行した結果に基づいて、ID認識を行うか否かを判断し、ID認識を行った場合は、ID認識情報51のID認識結果214にIDラベルの位置と認識したIDに関する情報を含める。以下、フローチャートを用いて、認識部12が実行するID認識処理について詳細に説明する。図17は、本発明の実施形態に係るID認識処理に関するフローチャートの一例を示す図である。
【0064】
ステップS110:画像処理装置5の認識部12は、画像処理装置5の取得部11から入力画像情報50を受信する。入力画像情報50には、図4のステップS100で説明したように、カメラ3で撮像された画像情報(以降、単に画像とよぶ)が含まれる。
【0065】
ステップS111:画像処理装置5の認識部12は、入力画像情報50に含まれる画像に対して、OCR技術に基づく文字認識を実行して、文字が存在する領域(文字領域)を検出する。
【0066】
ステップS112:画像処理装置5の認識部12は、検出した文字領域の縦横比を算出し、予め定めた縦横比の比率との差分が予め定めた閾値よりも大きいならば、処理をステップS113に遷移させ、そうでないならば、処理をステップS116に遷移させる。即ち、認識部12は、取得した画像において検出された識別符号(ID)を含む領域(文字領域)の縦横比に基づいて、識別符号(ID)を認識できるか否かを判定する。ここで、IDラベルは長方形であり、予め定める縦横比の比率は、IDラベルの縦の長さと横の長さの比率である。また、検出する文字領域は、長方形となるように領域を検出する。ここで、カメラの撮像角度によって台形に歪んだ領域を長方形となるように補正して比率を算出してもよい。
【0067】
ステップS113:画像処理装置5の認識部12は、文字領域に存在する文字を認識する。
【0068】
ステップS114:画像処理装置5の認識部12は、認識した文字の文字数がN文字である場合は、処理をステップS116に遷移させ、そうでないならば、処理をステップS115に遷移させる。ここで、Nは、予め定められたIDラベルに記載されるIDの文字数であり、認識した文字の文字数がNと一致しない場合は、IDが正しく認識できていないことを意味する。即ち、認識部12は、識別した識別符号(ID)の文字数に基づいて、識別符号(ID)を認識できるか否かを判定する。或いは、認識部12は、例えば、最初の3文字はアルファベットに限る等の文字数以外の条件により、正しくIDを認識したか否かを判断してもよい。
【0069】
ステップS115:画像処理装置5の認識部12は、認識した文字を削除する。
【0070】
ステップS116:画像処理装置5の認識部12は、検出したIDラベルの位置と認識した識別符号(ID)をID認識結果214に設定することにより、ID認識情報51を作成する。また、認識部12は、ステップS111において、複数の文字領域を検出した場合は、それぞれの文字領域に対して、ステップS112からステップS116の処理を繰り返して実行する。
【0071】
ステップS117:画像処理装置5の認識部12は、生成したID認識情報51を画像処理装置5の個体別推定情報算出部15に送信する。
【0072】
以上の処理により、画像処理システム1は、移動物(追跡対象物体)の識別符号(ID)が常にカメラに映っていなくても、移動物を追跡して位置を特定することができる。この理由は、移動物の識別符号がカメラに映っていない(認識できない)場合でも、移動物を個別に検出して追跡し、識別符号が認識できた時に、移動物と識別符号の対応付けを行うからである。
【0073】
以上、本発明を実施するための幾つかの形態について説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
【0074】
例えば、図3の機能ブロックの構成図の一例は、画像処理システム1及び画像処理装置5による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。画像処理システム1及び画像処理装置5における処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
【0075】
また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
【0076】
また、記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、画像処理システム1及び画像処理装置5は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。
【符号の説明】
【0077】
1 画像処理システム
2 通信ネットワーク
3 カメラ
4 追跡対象物体
5 画像処理装置
6 端末装置
7 IDラベル
8 入力画像
9 個体別エリア推定情報
10、30、60 通信部
11 取得部
12 認識部
13 追跡部
14 推定部
15 個体別推定情報算出部
16 物体位置検出部
17 軌跡算出部
18 追跡終了判定部
19 ID位置照合部
20 追跡番号照合部
21 記憶部
31 撮像部
32 処理部
50 入力画像情報
51 ID認識情報
52 物体位置情報
53 物体追跡情報
54 追跡番号情報
55 カメラ情報
56 エリア情報
57 エリア推定情報
58 ID追跡情報
61 表示制御部
62 操作受付部
【先行技術文献】
【特許文献】
【0078】
【特許文献1】特開2020-098590号
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17