IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ コニカミノルタ株式会社の特許一覧

特開2022-187656画像処理装置、画像処理方法、プログラム、及び画像処理システム
<>
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図1
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図2
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図3
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図4
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図5
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図6
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図7
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図8
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図9
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図10
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図11
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図12
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図13
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図14A
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図14B
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図15
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図16
  • 特開-画像処理装置、画像処理方法、プログラム、及び画像処理システム 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022187656
(43)【公開日】2022-12-20
(54)【発明の名称】画像処理装置、画像処理方法、プログラム、及び画像処理システム
(51)【国際特許分類】
   G06T 7/00 20170101AFI20221213BHJP
   A61G 12/00 20060101ALI20221213BHJP
【FI】
G06T7/00 660Z
G06T7/00 350Z
A61G12/00 Z
【審査請求】未請求
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2021095756
(22)【出願日】2021-06-08
(71)【出願人】
【識別番号】000001270
【氏名又は名称】コニカミノルタ株式会社
(74)【代理人】
【識別番号】110001807
【氏名又は名称】弁理士法人磯野国際特許商標事務所
(72)【発明者】
【氏名】田中 希武
【テーマコード(参考)】
4C341
5L096
【Fターム(参考)】
4C341MR15
4C341MR18
5L096BA02
5L096CA04
5L096DA02
5L096FA76
5L096JA11
5L096JA16
5L096JA18
(57)【要約】
【課題】画像処理装置、画像処理方法、プログラム、及び画像処理システムにおいて、物体検出の結果を他の検出結果や予め設定した知見で補正し、補正した物体検出結果を人の行動認識に用いる。
【解決手段】画像処理装置100は、入力画像から、人を検出する人検出部112と、入力画像から、物体を検出する物体検出部113と、物体検出部113で検出された物体認識情報を補正する補正部114と、補正部114が補正した物体認識情報および人検出部112が検出した人認識情報に基づいて、人の行動を判定する判定部115と、を備える。
【選択図】図1
【特許請求の範囲】
【請求項1】
入力画像から、人を検出する人検出部と、
前記入力画像から、物体を検出する物体検出部と、
前記物体検出部で検出された物体認識情報を補正する補正部と、
前記補正部が補正した物体認識情報および前記人検出部が検出した人認識情報に基づいて、前記人の行動を判定する判定部と、
を備えることを特徴とする画像処理装置。
【請求項2】
前記補正部は、
前記物体認識情報に係る物体クラスの尤度を補正する、
ことを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記補正部は、
前記物体認識情報を、過去に前記物体が検出されたときの物体認識情報に置き換える、
ことを特徴とする請求項1又は2に記載の画像処理装置。
【請求項4】
前記補正部は、
未検出の物体を検出するように前記物体認識情報に係る物体クラスの尤度を補正する、
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
【請求項5】
前記補正部は、
前記人と前記物体との接近、又は前記人による前記物体の遮蔽を条件として、前記物体認識情報を補正する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
【請求項6】
前記補正部は、
時間、又は照明条件に応じて、前記物体認識情報を補正する、
ことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
【請求項7】
前記補正部は、
前記物体検出部による物体検出の一定期間のフレームにおける検出結果の安定性を用いて当該物体認識情報を補正する、
ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
【請求項8】
前記物体検出部が検出する検出対象は、
人が座位姿勢で使用するものである、
ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
【請求項9】
前記物体検出部が検出する検出対象は、
人が臥位姿勢で使用するものである、
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
【請求項10】
前記人検出部は更に、人の姿勢を検出し、
前記判定部は、前記人検出部が検出した姿勢情報と前記補正部が補正した物体認識情報に基づいて、前記人の行動を判定する、
請求項1から9のいずれか1項に記載の画像処理装置。
【請求項11】
前記補正部は、
前記入力画像における前記人または前記物体の位置座標に応じて、補正の条件、又は補正の内容が異なる、
ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
【請求項12】
前記入力画像を撮像し、上方から下方を見下ろすように取り付けられる撮像部を、
さらに備えることを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
【請求項13】
入力画像から、人を検出して人認識情報とするステップと、
前記入力画像から、物体を検出して物体認識情報とするステップと、
前記物体認識情報を補正するステップと、
当該補正された物体認識情報と、前記人認識情報とに基づいて、前記人の行動を判定するステップと、
を備えることを特徴とする画像処理方法。
【請求項14】
入力画像から、人を検出して人認識情報とする手順、
前記入力画像から、物体を検出して物体認識情報とする手順、
前記物体認識情報を補正する手順、
当該補正された物体認識情報および前記人認識情報に基づいて、前記人の行動を判定する手順、
をコンピュータに実行させることを特徴とするプログラム。
【請求項15】
撮像部と、
前記撮像部によって撮像された入力画像から、人を検出する人検出部と、
前記入力画像から、物体を検出する物体検出部と、
前記物体検出部で検出された物体認識情報が示す内容を補正する補正部と、
当該補正された物体認識情報および前記人検出部が検出した人認識情報に基づいて、前記人の行動を判定する判定部と、
を備えることを特徴とする画像処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、画像処理方法、プログラム、及び画像処理システムに関する。
【背景技術】
【0002】
近年、人を検出した結果と物体を検出した結果とを用いて、人の行動を認識することが行われている。物体を検出した結果を併用することにより、人がどのような行動をしているのかを、より正確に認識可能である。例えば臥位の人とベッドとを検知した場合、ベッドは就寝のためのものだという知見を用いて、人が就寝中であることをより確からしく認識可能である。
【0003】
しかし、人が物体に近接したり、物体が人の陰になった場合、この物体を誤検出する場合がある。物体を誤検出することにより、人の行動も誤って認識してしまうおそれがある。
【0004】
特許文献1には、「撮像装置が生成した画像を取得する画像取得部と、前記画像中における、人を含む人領域を検出する人領域検出部と、学習済みの識別器を用いて前記画像の画像解析を行い、前記人の姿勢種別を前記人領域に映る周辺物体の物体種別と共に推定する姿勢推定部と、前記人の姿勢種別及び前記周辺物体の物体種別に基づいて、前記人の行動クラスを決定する行動判別部と、を備える画像処理装置であって、前記識別器は、教師データの前記画像に対して前記人の姿勢種別と前記周辺物体の物体種別の組み合わせが関連付けられて学習処理が施された、画像処理装置。」が、開示されている(例えば、特許文献1の請求項1参照)。
【0005】
また、特許文献2には、「ベッドに就寝している被介護者が起床挙動を行ったことを監視して通報するものであって、前記被介護者が起床挙動を行ったことを判定する見守り領域を設定して前記ベッドの横方向から前記見守り領域を含みカメラで撮像し、前記カメラから得られる撮像画像の前記見守り領域に占める前記被介護者画像領域の大きさが所定値以上の場合に前記被介護者が起床挙動を行っていると判定することを特徴とする起床監視方法」が、開示されている(例えば、特許文献2の請求項1参照)。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2018-206321号公報
【特許文献2】特開2006-175082号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
特許文献1に記載の請求項1は、人と物体が接近していることを前提としているため、物体検出の際、誤検出を生じやすい。一方、特許文献2に記載の請求項1は、物体認識結果の誤認識により、人の行動認識の精度が低下することがある。この場合、適切な物体認識の結果を補正する必要が生じる。
【0008】
そこで、画像処理装置、画像処理方法、プログラム、及び画像処理システムにおいて、物体検出の結果を他の検出結果や予め設定した知見で補正し、補正した物体検出結果を人の行動認識に用いることを課題とする。
【課題を解決するための手段】
【0009】
すなわち、本発明の上記課題は、下記の構成により解決される。
(1)入力画像から、人を検出する人検出部と、
前記入力画像から、物体を検出する物体検出部と、
前記物体検出部で検出された物体認識情報を補正する補正部と、
前記補正部が補正した物体認識情報および前記人検出部が検出した人認識情報に基づいて、前記人の行動を判定する判定部と、
を備えることを特徴とする画像処理装置。
【0010】
(2)前記補正部は、
前記物体認識情報に係る物体クラスの尤度を補正する、
ことを特徴とする(1)に記載の画像処理装置。
【0011】
(3)前記補正部は、
前記物体認識情報を、過去に前記物体が検出されたときの物体認識情報に置き換える、
ことを特徴とする(1)又は(2)に記載の画像処理装置。
【0012】
(4)前記補正部は、
未検出の物体を検出するように前記物体認識情報に係る物体クラスの尤度を補正する、
ことを特徴とする(1)から(3)のいずれか1つに記載の画像処理装置。
【0013】
(5)前記補正部は、
前記人と前記物体との接近、又は前記人による前記物体の遮蔽を条件として、前記物体認識情報を補正する、
ことを特徴とする(1)から(4)のいずれか1つに記載の画像処理装置。
【0014】
(6)前記補正部は、
時間、又は照明条件に応じて、前記物体認識情報を補正する、
ことを特徴とする(1)から(5)のいずれか1つに記載の画像処理装置。
【0015】
(7)前記補正部は、
前記物体検出部による物体検出の一定期間のフレームにおける検出結果の安定性を用いて当該物体認識情報を補正する、
ことを特徴とする(1)から(6)のいずれか1つに記載の画像処理装置。
【0016】
(8)前記物体検出部が検出する検出対象は、
人が座位姿勢で使用するものである、
ことを特徴とする(1)から(7)のいずれか1つに記載の画像処理装置。
【0017】
(9)前記物体検出部が検出する検出対象は、
人が臥位姿勢で使用するものである、
ことを特徴とする(1)から(8)のいずれか1つに記載の画像処理装置。
【0018】
(10)前記人検出部は更に、人の姿勢を検出し、
前記判定部は、前記人検出部が検出した姿勢情報と前記補正部が補正した物体認識情報に基づいて、前記人の行動を判定する、
(1)から(9)のいずれか1つに記載の画像処理装置。
【0019】
(11)前記補正部は、
前記入力画像における前記人または前記物体の位置座標に応じて、補正の条件、又は補正の内容が異なる、
ことを特徴とする(1)から(10)のいずれか1つに記載の画像処理装置。
【0020】
(12)前記入力画像を撮像し、上方から下方を見下ろすように取り付けられる撮像部を、
さらに備えることを特徴とする(1)から(11)のいずれか1つに記載の画像処理装置。
【0021】
(13)入力画像から、人を検出して人認識情報とするステップと、
前記入力画像から、物体を検出して物体認識情報とするステップと、
前記物体認識情報を補正するステップと、
当該補正された物体認識情報と、前記人認識情報とに基づいて、前記人の行動を判定するステップと、
を備えることを特徴とする画像処理方法。
【0022】
(14)入力画像から、人を検出して人認識情報とする手順、
前記入力画像から、物体を検出して物体認識情報とする手順、
前記物体認識情報を補正する手順、
当該補正された物体認識情報および前記人認識情報に基づいて、前記人の行動を判定する手順、
をコンピュータに実行させることを特徴とするプログラム。
【0023】
(15)撮像部と、
前記撮像部によって撮像された入力画像から、人を検出する人検出部と、
前記入力画像から、物体を検出する物体検出部と、
前記物体検出部で検出された物体認識情報が示す内容を補正する補正部と、
当該補正された物体認識情報および前記人検出部が検出した人認識情報に基づいて、前記人の行動を判定する判定部と、
を備えることを特徴とする画像処理システム。
【発明の効果】
【0024】
本発明によれば、画像処理装置、画像処理方法、プログラム、及び画像処理システムにおいて、物体検出の結果を他の検出結果や予め設定した知見で補正し、補正した物体検出結果を人の行動認識に用いることができる。
【図面の簡単な説明】
【0025】
図1】本実施形態に係る情報処理装置の主な構成例を説明する説明図である。
図2】画像処理装置の機能ブロック図である。
図3】画像処理装置が、物体認識情報及び姿勢情報に基づいて、物体認識情報を補正し、人の行動を判定する処理を示したフローチャートである。
図4】CPUが、補正部により、人検出部が検出した人の姿勢に基づいて、物体クラスの尤度を補正する処理を示したフローチャートである。
図5】CPUが、補正部により、人が接近または遮蔽した物体に係る物体クラス尤度を補正する処理を示したフローチャートである。
図6】CPUが、補正部により、人が接近または遮蔽した物体に係る物体認識情報を補正する処理を示したフローチャートである。
図7】人と物体双方の情報を用いて、行動認識のジレンマを解決する概念を示したイメージ図である。
図8】過去のベッドの位置情報を用いて、現在のベッドの位置を補正する概念を示したイメージ図である。
図9】CPUが、補正部により、物体認識情報を、所定の物体認識情報に置き換える処理を示したフローチャートである。
図10】過去のベッドの認識結果を用いて、現在のベッドの認識結果を補正する概念を示したイメージ図である。
図11】CPUが、補正部により、物体認識情報に係る物体クラス尤度を補正する処理を示したフローチャートである。
図12】CPUが、補正部により、物体検出部による物体検出の一定期間のフレームにおける検出結果の安定性を用いて、過去に物体が検出されたときの物体認識情報に置き換える処理を示したフローチャートである。
図13】CPUが、補正部により、物体検出部による物体検出の一定期間のフレームにおける検出結果の安定性を用いて、当該物体認識情報に係る物体クラスの尤度を補正する処理を示したフローチャートである。
図14A】カメラが、天井の中心から室内の真ん中を撮像した画像である。
図14B】室内の画像を側面から見た説明図である。
図15】他の実施形態の画像処理システムを示したブロック図である。
図16】比較例1の画像処理装置による認識結果を示した説明図である。
図17】本実施形態にて、人や物体を検出した結果、人検出結果や物体認識情報を利用して望ましい補正内容を示した説明図である。
【発明を実施するための形態】
【0026】
以下に、本発明を実施するための形態について詳細に説明する。なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
【0027】
<比較例の概要>
物体の位置を検出するアルゴリズムにおいて、椅子CHを机として誤検出したり、ベッドBDの位置を別の位置あると誤検出することがある。
【0028】
図16は、比較例1の画像処理装置による認識結果を示した説明図である。
【0029】
この撮影画像は、例えば老人ホームの居室に設けられた監視カメラが撮影した画像である。この居室には、人HM1,HM2,HM3がおり、椅子CHと、ベッドBD1とが設置されている。そして、撮影画像の上側にはドアDRが、撮影画像の下側には窓とカーテンCTが写っている。撮影時刻は白昼であり、直射日光が窓から差し込んで、居室の床面を照射している。人HM1は椅子CHに座っている。人HM2はベッドBD1に寝ている。そして人HM3は、直射日光が差し込んでいる領域にて転倒している。
【0030】
比較例1では、物体認識情報301が示されており、ここでは椅子CHを机と誤検出している。この誤検出により、画像処理装置は、人HM1が椅子CHに座る行動を認識できない。
【0031】
また、比較例1では、窓から差し込んだ直射日光の照射部分に物体認識情報302が示されている。ここで直射日光の照射部分は矩形であるため、画像処理装置は、これをベッドとして誤認識して、物体認識情報302を設定する。そして、ベッドBD1は、ベッドとして認識されていない。
【0032】
そのため、画像処理装置は、人HM2がベッドBD1で寝る行動を、転倒と誤認識する。また、画像処理装置は、人HM3の転倒行為を、ベッドで寝る行為と誤認識する。
【0033】
図17は、本実施形態の画像処理装置が、人HM1,HM2,HM3や物体を検出した結果、人検出結果や物体認識情報を利用して、望ましい補正内容を示した説明図である。本実施形態の画像処理装置は、人HM1が座っている状態であることから、物体認識情報303を机でない可能性が高く、椅子の可能性が有力であると判定する。また、夜の時間帯に人HM2は、臥位姿勢でこの位置にいることが多い。そのため、画像処理装置は、人が長時間に亘って臥位姿勢の位置にベッドが設置されている可能性が高いと判定し、物体認識情報304を設定する。また、画像処理装置が、カーテンCTが閉まっている状態での物体検出結果を採用することにより、日差しによる誤検出の可能性を減少させる。
【0034】
このように、本発明の実施形態では、物体検出の結果を他の検出結果や予め設定した知見で補正し、補正した物体検出結果を人の行動認識に用いることができる。
【0035】
<本実施形態>
[画像処理装置の全体構成]
図1は、本実施形態に係る画像処理システムの主な構成例を説明する説明図である。本実施形態に係る画像処理システムは、画像処理装置100とカメラ180(撮像部)とを備えて構成されている。
【0036】
画像処理装置100は、CPU(Central Processing Unit)110、記憶部120、ROM(Read Only Memory)130、RAM(Random Access Memory)140、入力部150、表示部160、及び通信部170を備えて構成されている。この画像処理装置100は、例えば、カメラ180が接続されたボード状のコンピュータとして構成され、エッジ端末として機能する。
【0037】
CPU110は、中央処理装置であり、記憶部120又はROM130に格納された制御プログラム121を実行することにより、図2に示す各処理(機能)を具現化する。なお、CPU110が具現化する各処理については、図2を用いて後述する。
【0038】
記憶部120は、大容量の記憶装置であり、例えば、ハードディスクドライブ(Hard Disk Drive)、不揮発性メモリなどで構成される。記憶部120は、制御プログラム121を格納する。
【0039】
RAM140は、CPU110により実行制御される各種処理において、ROM130から読み出され、CPU110で実行可能な各種プログラム、入力データ、出力データ、及びパラメータ等を一時的に記憶するワークエリアとして機能する。
【0040】
入力部150は、カーソルキー、数字入力キー、及び各種機能キーなどを備えたキーボードと、マウスなどのポインティングデバイスを備えて構成される。入力部150は、キーボードで押下操作されたキーの押下信号やマウスによる操作信号を、入力信号としてCPU110に出力する。CPU110は、入力部150からの操作信号に基づいて、各種処理を実行する。
【0041】
表示部160は、例えばCRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等のモニタを備えて構成される。表示部160は、CPU110から入力される表示信号の指示に従って、各種画面を表示する。表示部160および入力部150として、タッチパネルディスプレイを採用することもできる。
【0042】
通信部170は、通信インタフェースを備え、ネットワーク上の外部装置と通信する。ここでは、外部のカメラ180に接続されて、カメラ180が撮影した画像を受信する。
【0043】
内部バス190は、画像処理装置100における各構成要素について、相互に接続されている。
【0044】
一方、カメラ180は、室内の天井に設置され、入力画像を撮像し、室内の上方から下方を見下ろすように取り付けられる。
【0045】
次に、本実施形態に係る画像処理装置100のCPU110の機能について、図2を用いて説明する。
【0046】
図2は、本実施形態に係る画像処理装置100のCPU110の機能を示した機能ブロック図である。CPU110は、図1の制御プログラム121を実行することにより、図2に示した、画像取得部111、人検出部112、物体検出部113、補正部114、及び判定部115を具現化する。
【0047】
画像取得部111は、カメラ180で撮像された画像を取得する。画像取得部111は、取得した画像を、人検出部112及び物体検出部113に送出する。
【0048】
人検出部112は、画像取得部111から画像が入力される(入力画像)。人検出部112は、入力画像から、人を検出する。人検出部112は、検出した人認識情報を補正部114に送出する。
【0049】
物体検出部113は、画像取得部111から画像が入力される(入力画像)。物体検出部113は、入力画像から、物体を検出する。物体検出部113は、検出した物体認識情報を補正部114に送出する。
【0050】
補正部114は、物体検出部113で検出された物体認識情報を補正する。補正部114は、様々な補正の態様が考えられ、これらの様々な補正の態様を後述する。
【0051】
判定部115は、補正部114が補正した物体認識情報および人検出部112が検出した人認識情報に基づいて、人の行動を判定する。
【0052】
ここで、補正部114における様々な補正の態様とは、補正部114は、例えば、物体認識情報に係る物体クラスの尤度を補正することができる。また、補正部114は、物体認識情報を、過去に物体が検出されたときの物体認識情報に置き換えてもいい。また、補正部114は、未検出の物体を検出するように物体認識情報に係る物体クラスの尤度を補正してもいい。また、補正部114は、人と物体との接近、又は人による物体の遮蔽を条件として、物体認識情報を補正してもいい。すなわち、補正部114は、人と物体との接近、又は人による物体の遮蔽を条件として、物体に係る尤度を補正したり、過去に物体が検出されたときの物体認識情報に置き換えてもいい。また、補正部114は、時間、又は照明条件に応じて、物体認識情報を補正してもいい。すなわち、補正部114は、時間、又は照明条件に応じて、各物体認識情報に係る物体クラスの尤度を補正したり、過去に物体が検出されたときの物体認識情報に置き換えてもいい。また、補正部114は、物体検出部113による物体検出の一定期間のフレームにおける検出結果の安定性を用いて当該物体認識情報を補正してもいい。すなわち、補正部114は、物体検出部113による物体検出の一定期間のフレームにおける検出結果の安定性を用いて、過去に物体が検出されたときの物体認識情報に置き換えたり、当該物体認識情報に係る物体クラスの尤度を補正してもいい。なお、物体認識情報の置き換えは、物体認識情報の補正に含まれる。
【0053】
物体検出部113が検出する検出対象は、人が座位姿勢で使用するものでもいい。また、物体検出部113が検出する検出対象は、人が臥位姿勢で使用するものでもいい。
【0054】
人検出部112は、人の姿勢を検出し、判定部115は、人検出部112が検出した姿勢情報と補正部114が補正した物体認識情報に基づいて、人の行動を判定してもいい。
【0055】
補正部114は、入力画像における人または物体の位置座標に応じて、補正の条件、又は補正の内容が異なっていてもいい。
【0056】
[情報処理装置の処理]
次に、本実施形態に係る画像処理装置100のCPU110の処理を説明する。
図3は、本実施形態に係る画像処理装置100が、物体認識情報及び姿勢情報に基づいて、物体認識情報を補正し、人の行動を判定する処理を示したフローチャートである。
【0057】
まず、カメラ180は、例えば室内の上方から下方を見下ろすように取り付けられており、室内のユーザと物体とを撮像する。カメラ180は、撮像した画像をCPU110の画像取得部111に送出する。
【0058】
人検出部112は、カメラ180により入力された画像(入力画像)から、人の姿勢を検出して姿勢情報とする(ステップS001)。
【0059】
人検出部112は、例えば、人検出結果が示す姿勢情報として、外接矩形座標、各関節の座標、人検出尤度、及び姿勢クラス尤度を取得する。人検出部112は、例えば、人検出尤度を「0.8」と取得する。ここで、人検出尤度とは、もっともらしさを示す尺度であり、0に近いほど尤度が低く、一方、1に近いほど尤度が高い。また、人検出部112は、例えば、姿勢クラス尤度を示す姿勢情報として、例えば、立位が「0.1」、座位が「0.7」、臥位が「0.2」などを取得する。
【0060】
次に、物体検出部113は、カメラ180により入力された画像(入力画像)から、物体を検出して物体認識情報とする(ステップS003)。
【0061】
物体検出部113は、例えば、物体を検出した物体検出結果が示す物体認識情報として、外接矩形座標、物体検出尤度、及び物体クラス尤度を取得する。物体検出部113は、例えば、物体検出尤度を「0.5」と取得し、物体クラス尤度を、机について「0.4」、椅子について「0.3」、ベッドについて「0.3」と取得する。
【0062】
補正部114は、物体検出部113で検出された物体認識情報を補正する(ステップS005)。
【0063】
補正部114は、例えば、人と物体検出の距離が近く(重なっている状態)、人が座っている姿勢を取っていた場合、座る物体、例えば、椅子などの尤度を高める。具体的には、物体クラス尤度として、椅子の尤度を、「0.3」から「0.8」に補正する。物体検出部113において、椅子を机と誤検出したことが考えられるため、物体検出結果を示す物体認識情報を補正する。すなわち、補正部114は、物体認識情報に係る物体クラスの尤度を補正できる。
【0064】
判定部115は、補正部114で補正された物体認識情報および人検出部112で検出された人認識情報に基づいて、人の行動を判定する(ステップS007)。本実施形態では、CPU110の判定部115が人の行動を判定すると、図3に示した処理を終了する。
【0065】
以上説明したように、本実施の形態に係る画像処理装置100のCPU110は、人検出部112、物体検出部113、補正部114、及び判定部115を具現化する。人検出部112は、入力画像から、人を検出する。物体検出部113は、入力画像から、物体を検出する。補正部114は、物体検出部113で検出された物体認識情報を補正する。判定部115は、補正部114が補正した物体認識情報および人検出部112が検出した人認識情報に基づいて、人の行動を判定する。
【0066】
これにより、本実施形態に係る画像処理装置100のCPU110は、物体の検出結果を誤検出しても補正できる。すなわち、本実施形態の画像処理装置100は、物体検出の結果を他の検出結果や予め設定した知見で補正し、補正した物体検出結果を人の行動認識に用いることができる。
【0067】
また、CPU110は、補正部114により、物体認識情報に係る物体クラスの尤度を補正できる。
【0068】
<検出対象の特定>
本実施形態に係る画像処理装置100のCPU110は、物体検出部113が検出する検出対象を、人が座位姿勢で使用するもの、又は人が臥位姿勢で使用するものとすることができる。
【0069】
図4は、本実施形態のCPU110が、補正部114により、人検出部112が検出した人の姿勢に基づいて、物体クラスの尤度を補正する処理を示したフローチャートである。この処理は、図3のステップS005の処理に相当する。
【0070】
図4に示すように、CPU110は、補正部114により、人検出部112が検出した人の姿勢が座位か否かを判定する(ステップS011)。人の姿勢が座位の場合(ステップS011のYes)、補正部114は、ステップS013に進む。ステップS013において、補正部114は、椅子や車椅子に係る物体クラス尤度を高める。この場合、補正部114は、例えば、椅子の尤度を「0.3」から「0.8」に補正する。そして、CPU110は、ステップS015に進む。ここで補正部14が物体クラス尤度を高める対象は、椅子や車椅子に限定されず、この人の姿勢である座位と関連性のある物体であればよい。
【0071】
一方、人の姿勢が座位でない場合(ステップS011のNo)、CPU110は、ステップS015に進む。
【0072】
ステップS015において、補正部114は、人検出部112が検出した人の姿勢が臥位か否かを判定する。人の姿勢が臥位の場合は(ステップS015のYes)、補正部114は、ステップS0117に進み、ベッドに係る物体クラス尤度を高める。この場合、補正部114は、例えば、ベッドの尤度を「0.3」から「0.8」に補正する。そして、CPU110は、図4に示す処理を終了する。
【0073】
なお、補正部14が物体クラス尤度を高める対象は、ベッドに限定されず、この人の姿勢である臥位と関連性のある物体であればよい。
【0074】
一方、人の姿勢が臥位でない場合(ステップS015のNo)、補正部114は、図4に示す処理を終了する。
【0075】
以上説明したように、本実施形態の画像処理装置100は、人検出部が検出した人認識情報(姿勢情報)に基づいて、物体認識情報に係る物体クラスの尤度を補正できる。このように、画像処理装置100は、ステップS013やステップS017において、座位や臥位に係る物体クラス尤度を高めることにより、例えば、閾値判定によって未検出となっていた物体の候補を、検出するように補正できる。また、人の周囲にある過去の検出結果を復元して、椅子やベッドを検出してもよい。このような変形例について、後記する図6で説明する。
【0076】
<検出精度の高度化の例1>
本実施形態に係る画像処理装置100のCPU110は、補正部114により、人と物体との接近、又は人による物体の遮蔽を条件として、物体に係る尤度を補正することができる。
【0077】
図5は、本実施形態のCPU110が、補正部114により、人が接近または遮蔽した物体に係る物体クラス尤度を補正する処理を示したフローチャートである。この処理は、図3のステップS005の処理に相当する。
【0078】
図5に示すように、CPU110は、補正部114により、人認識情報と物体認識情報を突き合わせて、人が接近または遮蔽した物体に係る物体認識情報を特定する(ステップS021)。物体検出部113は、人認識情報と物体認識情報の重心座標の距離や、人認識情報と物体認識情報における評価指標を示すIoU(Intersection over Union)の閾値により、人が接近または遮蔽した物体に係る物体認識情報を特定する。
【0079】
CPU110は、補正部114により、この物体認識情報における物体クラス尤度を高めると(ステップS023)、図5に示す処理を終了する。これにより、人の接近または遮蔽による物体検出の乱れを補完できる。
【0080】
<検出精度の高度化の例2>
本実施形態に係る画像処理装置100のCPU110は、補正部114により、人が接近または遮蔽した物体に係る物体認識情報を、過去の物体認識情報に置き換えて補正できる。
【0081】
図6は、本実施形態のCPU110が、補正部114により、人が接近または遮蔽した物体に係る物体認識情報を補正する処理を示したフローチャートである。この処理は、図3のステップS005の処理に相当する。
【0082】
図6に示すように、CPU110は、補正部114により、人認識情報と物体認識情報を突き合わせて、人が接近または遮蔽した物体に係る物体認識情報を特定する(ステップS031)。
【0083】
CPU110は、補正部114により、この物体認識情報を、過去にこの物体が検出されたときの物体認識情報に置き換えて(ステップS033)、図6に示す処理を終了する。
【0084】
図7は、人と物体双方の情報を用いて、行動認識のジレンマを解決する概念を示したイメージ図である。なお、図7は、図4または図5の処理結果の例である。
【0085】
図7に示すように、室内には、椅子CHとベッドBDが設けられており、人HM1が椅子CHに座っており、人HM2がベッドBDに寝ている。人と物体双方の情報を用いる行動認識では、人と物体の接触を伴うが、人によって物体が隠されることにより検出精度が下がることがある。
【0086】
そこで、CPU110は、人の姿勢が座位や臥位などの場合には、人の姿勢や過去の結果を用いて、人の周囲にある椅子CHやベッドBDを最大限検出可能とする。
【0087】
例えば、図4に示した処理によれば、人HM1の姿勢は座位であるため、その周囲の物体認識情報に係る椅子等の物体クラス尤度を高める。また、人HM2の姿勢は臥位であるため、その周囲の物体認識情報に係るベッド等の物体クラス尤度を高める。これにより、椅子やベッドを好適に検出可能である。
【0088】
図8は、過去のベッドの位置情報を用いて、現在のベッドの位置を補正する概念を示したイメージ図である。なお、図8は、図6の処理結果の例である。
【0089】
図8において、左側の図は、過去の認識結果RS1を示しており、中央の図は、現在の認識結果RS2を示しており、右側の図は、補正した現在の認識結果RS3を示している。
【0090】
過去の認識結果RS1における室内には、椅子CHとベッドBDが設けられており、窓にはカーテンCTが掛けられている。人HMは、入室したばかりであり、ドアDRの前に立っている。この認識結果RS1には、椅子CHを検出した結果である物体認識情報311と、ベッドBDを検出した結果である物体認識情報312とが示されている。
【0091】
画像処理装置100が認識結果RS1を出力したのち、人HMは、この部屋のカーテンCTを開くと、椅子CHに座る。そして、画像処理装置100は、次の認識結果RS2を出力する。
【0092】
現在の認識結果RS2における室内には、カーテンCTが開けられたことにより、日差しが入っている。これにより、ベッドBDがベッドとして認識されず、代わりに窓際の日差しの部分がベッドに係る物体認識情報314として検出されている。すなわち、時間帯や照明条件により、物体の検出や人の行動認識の精度の低いタイミングが生じることがある。
【0093】
また、この室内にて椅子CHは、人HM1によって隠されているため、物体認識情報313で机と誤認識されている。これにより、人HM1は、机に座っていると誤認識される。すなわち、人が物体の接触がある際の物体検出結果は、物体が隠れることにより、精度が低い傾向にある。
【0094】
そこで、補正部114は、右側の図に示すように、物体認識情報について現在の認識結果RS2を、例えば、人HMが入室時の認識結果RS1の物体認識情報311,312に差し替えて、現在の認識結果RS3とする。過去の物体認識情報311によりベッドBDが正しく検出できるように現在のベッドBDの位置を補正し、過去の物体認識情報312により、椅子CHが正しく検出できるように補正する。これにより、画像処理装置100は、人HM1が椅子CHに座っている行動を精度良く認識可能である。
【0095】
図9は、本実施形態のCPU110が、補正部114により、物体認識情報を、所定の物体認識情報に置き換える処理を示したフローチャートである。この処理は、図3のステップS005の処理に相当する。
【0096】
図9に示すように、CPU110は、補正部114により、現在時刻が昼間か否かを判定する(ステップS041)。現在時刻が昼間の場合(ステップS041のYes)、補正部114は、ステップS043に進み、物体認識情報を、夜間に検出した物体認識情報に置き換えて、ステップS045に進む。日中は日差しにより物体検出の精度が下がるため、補正部114は、時間帯によって補正を行う。これにより補正部114は、物体検出の精度の低下を補償することができる。なお、現在時刻が昼間であるか否かに限定されず、補正部114は、任意の時間帯の認識結果を、過去の好適に検出した物体認識情報で置き換えてもよい。
【0097】
一方、現在時刻が昼間でない場合(ステップS041のNo)補正部114は、ステップS045に進む。
【0098】
ステップS045において、補正部114は、人周囲の輝度値は閾値以上か否かを判定する。人周囲の輝度値が閾値以上の場合(ステップS045のYes)、補正部114は、ステップS047に進み、人周囲の輝度値が閾値以下のとき検出した物体認識情報に置き換えて、図9に示す処理を終了する。
【0099】
一方、人周囲の輝度値は閾値以上でない場合(ステップS045のNo)、補正部114は、図9に示す処理を終了する。
【0100】
なお、補正部114は、人周囲の輝度値が閾値以上であるか否かの判定に替えて、人周囲の輝度値が所定範囲を超えて明るいか、または所定範囲未満で暗いか否かを判定してもよい。
【0101】
図10は、過去の認識結果RS4を用いて、現在の認識結果RS5を補正する概念を示したイメージ図である。なお、図10は、図9の処理結果の一例である。
【0102】
図10において、左側の図は、過去の認識結果RS4を示しており、中央の図は、現在の認識結果RS5を示しており、右側の図は、補正した現在の認識結果RS6を示している。
【0103】
過去の認識結果RS4における室内には、椅子CHとベッドBDが設けられている。人HM2は、ベッドBDに寝ている。この認識結果RS4には、椅子CHを検出した結果である物体認識情報321と、ベッドBDを検出した結果である物体認識情報322とが示されている。
【0104】
画像処理装置100が認識結果RS4を出力したのち、人HMは、立ち上がって部屋のカーテンCTを開き、椅子CHに座る。そして画像処理装置100は、次の認識結果RS5を出力する。
【0105】
現在の認識結果RS5における室内には、カーテンCTが開いていることにより、日差しが入っている。これにより、ベッドBDがベッドとして認識されず、代わりに窓際の日差しの部分がベッドに係る物体認識情報324として検出されている。すなわち、時間帯や照明条件により、物体の検出精度の低いタイミングが生じることがある。
【0106】
また、この室内における椅子CHは、人HM1によって隠されているため、物体認識情報323で机と誤認識されている。これにより人HM1は机に座っていると誤認識されている。すなわち、人が物体の接触がある際の物体検出結果は、物体が隠れることにより、精度が低い傾向にある。
【0107】
そこで、補正部114は、右側の図に示すように、物体認識情報について現在の認識結果RS5を過去の認識結果RS4の物体認識情報321,322に差し替えて補正する。過去の物体認識情報321によりベッドBDが正しく検出できるように補正し、過去の物体認識情報312により椅子CHが正しく検出できるように補正する。これにより、画像処理装置100は、人HM1が椅子CHに座っている行動を精度良く認識可能である。
【0108】
また、物体認識情報を置き換える代わりに、物体クラス尤度を補正してもよい。
【0109】
図11は、本実施形態のCPU110が、補正部114により、物体認識情報に係る物体クラス尤度を補正する処理を示したフローチャートである。なお、この処理は、図3のステップS005の処理に相当する。
【0110】
図11に示すように、CPU110は、補正部114により、現在時刻が昼間か否かを判定する(ステップS051)。現在時刻が昼間の場合(ステップS051のYes)、補正部114は、ステップS053に進み、各物体認識情報に係る物体クラス尤度を高めて、ステップS055に進む。
【0111】
一方、現在時刻が昼間でない場合(ステップS051のNo)補正部114は、ステップS055に進む。
【0112】
ステップS055において、補正部114は、人周囲の輝度値は閾値以上か否かを判定する。人周囲の輝度値は閾値以上の場合(ステップS055のYes)、補正部114は、ステップS057に進み、各物体認識情報に係る物体クラス尤度を高めて、図11に示す処理を終了する。
【0113】
一方、人周囲の輝度値は閾値以上でない場合(ステップS055のNo)、補正部114は、図11に示す処理を終了する。
【0114】
また、本実施形態に係るCPU110は、補正部114により、物体検出部113による物体検出の一定期間のフレームにおける検出結果の安定性を用いて、過去に物体が検出されたときの物体認識情報に置き換えてもいい。
【0115】
図12は、本実施形態のCPU110が、補正部114により、物体検出部113による物体検出の一定期間のフレームにおける検出結果の安定性を用いて、過去に物体が検出されたときの物体認識情報に置き換える処理を示したフローチャートである。なお、この処理は、図3のステップS005の処理に相当する。
【0116】
図12に示すように、CPU110は、補正部114により、各フレームにて近い範囲にある物体を同じ物体として紐付ける(ステップS071)。そして、CPU110は、補正部114により、物体検出領域サイズの分散が所定値以下か否かを判定する(ステップS073)。
【0117】
物体検出領域サイズの分散が所定値以下の場合(ステップS073のYes)、補正部114は、ステップS075に進み、この物体認識情報を分散が小さいときの結果に置き換えて、ステップS077に進む。
【0118】
一方、物体検出領域サイズの分散が所定値より大きい場合(ステップS073のNo)、補正部114は、ステップS77に進む。
【0119】
ステップS077において、CPU110は、補正部114により、物体検出の重心位置の分散が所定値以下か否かを判定する。物体検出の重心位置の分散が所定値以下の場合(ステップS077のYes)、補正部114は、ステップS079に進み、この物体認識情報を分散が小さいときの結果に置き換えて、図12に示す処理を終了する。
【0120】
一方、物体検出の重心位置の分散が所定値より大きい場合(ステップS077のNo)、補正部114は、図12に示す処理を終了する。
【0121】
また、本実施形態では、物体認識情報の置き換えに変えて、物体クラス尤度を補正するようにしてもよい。なお、この変形例を図13に示す。
【0122】
本実施形態に係るCPU110は、補正部114により、物体検出部113による物体検出の一定期間のフレームにおける検出結果の安定性を用いて、当該物体認識情報に係る物体クラスの尤度を補正できる。
【0123】
図13は、本実施形態のCPU110が、補正部114により、物体検出部113による物体検出の一定期間のフレームにおける検出結果の安定性を用いて、当該物体認識情報に係る物体クラスの尤度を補正する処理を示したフローチャートである。なお、この処理は、図3のステップS005の処理に相当する。
【0124】
図13に示すように、CPU110は、補正部114により、各フレームにて近い範囲にある物体を同じ物体として紐付ける(ステップS081)。CPU110は、補正部114により、物体検出領域サイズの分散が所定値以下か否かを判定する(ステップS083)。
【0125】
物体検出領域サイズの分散が所定値以下の場合(ステップS083のYes)、補正部114は、ステップS85に進み、各物体認識情報に係る物体クラス尤度を高めて、ステップS087に進む。
【0126】
一方、物体検出領域サイズの分散が所定値より大きい場合(ステップS083のNo)、補正部114は、ステップS87に進む。
【0127】
ステップS087において、CPU110は、補正部114により、物体検出の重心位置の分散が所定値以下か否かを判定する。ステップS087において、物体検出の重心位置の分散が所定値以下の場合(ステップS087のYes)、補正部114は、ステップS089に進み、各物体認識情報に係る物体クラス尤度を高めて、図13に示す処理を終了する。
【0128】
一方、物体検出の重心位置の分散が所定値より大きい場合(ステップS087のNo)、補正部114は、図13に示す処理を終了する。
【0129】
また、補正部114は、入力画像における人または物体の位置座標に応じて、補正の条件、又は補正の内容が異なっていてもよい。
【0130】
図14Aは、カメラ180が天井の中心から室内の真ん中を撮像した画像である。図14Bは、室内の画像を側面から見た説明図である。
【0131】
図14A及び図14Bに示すように、例えば、人が位置PT1に居る場合と、位置PT2に居る場合を対比する。人が位置PT1に居る場合、カメラ180の直下であるため、人領域TA1と椅子領域TA2とは、ほぼ同じ位置に重なって撮像される。一方、人が位置PT2に居る場合、人はカメラ180から離れた位置であるため、人領域TA3は、椅子CHの領域TA4よりも、カメラ180の視線方向にずれた位置に見える。
【0132】
このため、補正部114は、画像の見え方の変化に合わせて、補正条件や補正の内容を変化させるとよい。例えば、カメラ180の直下にて人が物に重なったならば、過去の物体認識情報を用いて、人が重なっている物を認識するとよい。これにより、人によって物が完全に隠されても、隠されている物を認識可能である。
【0133】
また、カメラ180から離れた位置にて人が物に重なったならば、物体クラス尤度を高めて物を認識するとよい。これにより、物が動かされたとしても、その物を正しく認識可能である。
【0134】
<他の実施形態>
本実施形態は、室内に画像処理装置100とカメラ180とを備える画像処理システムにより実現されていたが、これに限定されるものではない。例えば、画像処理システムは、画像処理装置100として機能するクラウド上のサーバとカメラ180とが、ネットワークを介して接続されてもいい。
【0135】
図15は、他の実施形態の画像処理システムを示したブロック図である。図15に示す他の実施形態の画像処理システムが、図2に示すに画像処理システムと異なる点は、クラウド上のサーバである画像処理装置100が、ネットワークを介して、室内の天井に設置されたカメラ180と接続されている点である。同一の構成については同一の符号を付し、説明を省略する。
【0136】
図15に示すように、他の実施形態の画像処理システムは、カメラ180(撮像部)と、クラウド上のサーバである画像処理装置100が、ネットワークを介して接続されている。これにより、画像処理システムは、カメラ180によって撮像された入力画像から、人を検出する人検出部112と、入力画像から、物体を検出する物体検出部113と、物体検出部113で検出された物体認識情報が示す内容を補正する補正部114と、当該補正された物体認識情報および人検出部112が検出した人認識情報に基づいて、人の行動を判定する判定部115と、を備えることができる。
【0137】
これにより、他の実施形態の画像処理システムでも、物体検出の結果を他の検出結果や予め設定した知見で補正し、補正した物体検出結果を人の行動認識に用いることができる。
【符号の説明】
【0138】
100 画像処理装置
110 CPU
111 画像取得部
112 人検出部
113 物体検出部
114 補正部
115 判定部
120 記憶部
121 制御プログラム
130 ROM
140 RAM
150 入力部
160 表示部
170 通信部
180 カメラ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14A
図14B
図15
図16
図17