特許第6982767号(P6982767)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パナソニックIPマネジメント株式会社の特許一覧

特許6982767検知装置、学習装置、検知方法、学習方法、およびプログラム
<>
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000002
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000003
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000004
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000005
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000006
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000007
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000008
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000009
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000010
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000011
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000012
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000013
  • 特許6982767-検知装置、学習装置、検知方法、学習方法、およびプログラム 図000014
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6982767
(24)【登録日】2021年11月25日
(45)【発行日】2021年12月17日
(54)【発明の名称】検知装置、学習装置、検知方法、学習方法、およびプログラム
(51)【国際特許分類】
   G06T 1/00 20060101AFI20211206BHJP
   G06T 7/00 20170101ALI20211206BHJP
   G06T 7/70 20170101ALI20211206BHJP
【FI】
   G06T1/00 340B
   G06T1/00 330Z
   G06T7/00 350B
   G06T7/00 660Z
   G06T7/70 B
【請求項の数】12
【全頁数】22
(21)【出願番号】特願2017-70739(P2017-70739)
(22)【出願日】2017年3月31日
(65)【公開番号】特開2018-173757(P2018-173757A)
(43)【公開日】2018年11月8日
【審査請求日】2020年3月5日
【前置審査】
(73)【特許権者】
【識別番号】314012076
【氏名又は名称】パナソニックIPマネジメント株式会社
(74)【代理人】
【識別番号】110002952
【氏名又は名称】特許業務法人鷲田国際特許事務所
(72)【発明者】
【氏名】乘冨 修蔵
(72)【発明者】
【氏名】新 浩治
【審査官】 佐田 宏史
(56)【参考文献】
【文献】 特開2003−141513(JP,A)
【文献】 国際公開第2016/164793(WO,A1)
【文献】 特開2013−149205(JP,A)
【文献】 特開2010−067058(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 1/00,7/00−7/90
G08G 1/16
(57)【特許請求の範囲】
【請求項1】
撮像装置から取得した車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、
前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する検知部と、
を備え、
前記第1の部位は、顔または頭部であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である検知装置。
【請求項2】
第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、
第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部と、
を備え、
前記第1の部位は、顔または頭部であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である学習装置。
【請求項3】
検知装置に実行させる検知方法であって、
撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、
前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知するステップと、
を備え、
前記第1の部位は、顔または頭部であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である検知方法。
【請求項4】
学習装置に実行させる学習方法であって、
第1のデータ提供装置から取得した車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、
第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成するステップと、
を備え、
前記第1の部位は、顔または頭部であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である、学習方法。
【請求項5】
検知装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、
撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、
前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する処理と、
を実行させ、
前記第1の部位は、顔または頭部であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である、プログラム。
【請求項6】
学習装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、
第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、
第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する処理と、
を実行させ、
前記第1の部位は、顔または頭部であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である、プログラム。
【請求項7】
撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、
前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の前記身体の前記第1の部位の向きを検知する検知部と、
を備え、
前記第1の部位は、顔または頭部であり、
前記第2の部位は、肩、胸、または上半身であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、検知装置。
【請求項8】
第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、
第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部と、
を備え、
前記第1の部位は、顔または頭部であり、
前記第2の部位は、肩、胸、または上半身であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、学習装置。
【請求項9】
検知装置に実行させる検知方法であって、
撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、
前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知するステップと、
を備え、
前記第1の部位は、顔または頭部であり、
前記第2の部位は、肩、胸、または上半身であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、検知方法。
【請求項10】
学習装置に実行させる学習方法であって、
第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、
第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成するステップと、
を備え、
前記第1の部位は、顔または頭部であり、
前記第2の部位は、肩、胸、または上半身であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、学習方法。
【請求項11】
検知装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、
撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、
前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する処理と、
を実行させ、
前記第1の部位は、顔または頭部であり、
前記第2の部位は、肩、胸、または上半身であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、プログラム。
【請求項12】
学習装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、
第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、
第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する処理と、
を実行させ、
前記第1の部位は、顔または頭部であり、
前記第2の部位は、肩、胸、または上半身であり、
前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、検知装置、学習装置、検知方法、学習方法、およびプログラムに関する。
【0002】
近年、撮像装置が撮像した画像に基づいて車両内の乗員の状態を推定する技術が注目されている。特に乗員の顔向きは、乗員の脇見を検知する際の重要な要素であり、様々な研究が行われている。
【0003】
例えば、脇見状態にある可能性がある運転者の顔の主要な要素が認識できるか否かを判定することにより、運転者の顔向き角度が正面を中心とする所定角度範囲(検知範囲)内に含まれるか否かを判定する技術が提案されている(特許文献1)。特許文献1においては、検知範囲外であると判定された場合、直前の顔領域の動きを示す角速度と運転者の顔向き角度が所定角度範囲を超えてからの経過時間とから、顔向き角度が推定される。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2016−57839号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に提案されている技術においては、検知範囲内と検知範囲外とで処理内容を切り替える必要があるという課題がある。さらに、顔向きが検知範囲内から急激な顔向き変化を経て検知範囲外に変化する等の場合、画像フレーム間における顔向き変化が大きいため、正確な角速度を算出することができないという課題がある。したがって、特許文献1に提案されている技術においては、顔向きを安定して算出することができないという課題がある。
【0006】
本発明の目的は、振り返り動作を行う乗員の身体の部位の向きを精度良く検知することができる検知装置、学習装置、検知方法、学習方法、およびプログラムを提供することである。
【課題を解決するための手段】
【0007】
本開示の一態様に係る検知装置は、撮像装置から取得した車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する検知部と、を備え、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
【0008】
本開示の一態様に係る学習装置は、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部と、を備え、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係る検知方法は、検知装置に実行させる検知方法であって、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知するステップと、を備え、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係る学習方法は、学習装置に実行させる学習方法であって、第1のデータ提供装置から取得した車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成するステップと、を備え、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係るプログラムは、検知装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する処理と、を実行させ、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係るプログラムは、学習装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する処理と、を実行させ、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係る検知装置は、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の前記身体の前記第1の部位の向きを検知する検知部と、を備え、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係る学習装置は、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部と、を備え、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係る検知方法は、検知装置に実行させる検知方法であって、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知するステップと、を備え、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係る学習方法は、学習装置に実行させる学習方法であって、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成するステップと、を備え、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係るプログラムは、検知装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する処理と、を実行させ、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係るプログラムは、学習装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する処理と、を実行させ、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
【発明の効果】
【0009】
本開示によれば、振り返り動作を行う乗員の身体の部位の向きを精度良く検知することができる。
【図面の簡単な説明】
【0010】
図1】本開示に係る向き検知装置の構成図である。
図2】本開示に係る向き検知装置の動作フローを示すフローチャートである。
図3A】顔向きの一例を示す説明図である。
図3B】顔向きの一例を示す説明図である。
図3C】顔向きの一例を示す説明図である。
図4】第1の領域および第2の領域の一例を示す説明図である。
図5】第1の領域および第2の領域の一例を示す説明図である。
図6A】第1の領域画像および第2の領域画像の一例を示す説明図である。
図6B】第1の領域画像および第2の領域画像の一例を示す説明図である。
図6C】第1の領域画像および第2の領域画像の一例を示す説明図である。
図7】本開示に係る向き学習装置の構成図である。
図8】本開示に係る向き学習装置の動作フローを示すフローチャートである。
図9】コンピュータのハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0011】
以下、本開示の実施の形態について、図面を参照して詳細に説明する。
【0012】
(向き検知システム100の構成および動作)
図1は、本開示に係る向き検知システム100の構成図である。向き検知システム100は、撮像装置110、向き検知装置(検知装置)120、および向き出力装置130を備える。
【0013】
撮像装置110は、車室内画像を撮像する。ここで、車室内画像は、第1の領域と第2の領域とを含む領域を撮像した画像である。第1の領域は、車両の乗員(例えば、運転手)の体の第1の部位の少なくとも一部を含む領域である。第2の領域は、第1の部位の周辺にある車室内領域または第2の部位の少なくとも一部を含む領域である。乗員の身体の第1の部位は、例えば、顔、頭部である。また、車室内領域は、例えば、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つである。第2の部位は、例えば、肩、胸および上半身の少なくとも1つである。
【0014】
一例において、撮像装置110は、太陽光等の外部光源からの光や電磁波、音波等の反射を検知する受動型(パッシブ)検知器を備える。受動型検知器は、例えば、可視光を受光可能なCCDイメージセンサ、MOSイメージセンサである。
【0015】
向き検知装置120は、撮像装置110が撮像した車室内画像に基づいて、乗員の身体の第1の部位の向きを検知する。向き検知装置120は、画像取得部121、切り出し位置決定部122、画像切り出し部123、学習モデル記憶部124、および向き検知部(検知部)125を備える。
【0016】
画像取得部121は、撮像装置110が撮像した車室内画像を取得し、切り出し位置決定部122および画像切り出し部123に出力する。
【0017】
切り出し位置決定部122は、画像取得部121から出力された車室内画像において、第1の領域と第2の領域とを決定する。
【0018】
一例において、切り出し位置決定部122は、車室内画像から体の第1の部位に対応する領域を決定し、当該領域を第1の領域と決定する。第1の領域の形状は、例えば、矩形である。第1の部位に対応する領域は、例えば、Haar−like特徴量やGabor特徴量等を用いる顔判定技術等の任意の公知の部位判定技術を用いて決定される。他の一例において、切り出し位置決定部122は、車室内画像の所定の部分に対応する領域を第1の領域と決定する。
【0019】
一例において、切り出し位置決定部122は、第1の領域に基づいて、第2の領域を決定する。例えば、第2の領域の中心は、第1の領域の中心と一致する。一例において、第2の領域は、第1の領域よりも上下左右に所定のピクセル数だけ大きい矩形の領域である。この場合、第2の領域は、第1の領域を含む。他の一例において、第2の領域は、第1の領域よりも上下左右に所定のピクセル数だけ大きい矩形の領域から、第1の領域を除いた領域である。
【0020】
画像切り出し部123は、切り出し位置決定部122が決定する第1の領域と第2の領域に基づいて、画像取得部121から出力された車室内画像から、第1の領域画像と第2の領域画像を切り出す。画像切り出し部123は、切り出した第1の領域画像および第2の領域画像を、向き検知部125へ出力する。
【0021】
第1の領域および第2の領域は、画像切り出し部123が切り出した第1の領域画像および第2の領域画像の特徴量が第2の部位の向きと相関関係にあるものである限り、特に限定されない。相関関係については、図6Aから図6Cを参照して後述する。領域画像の特徴量は、例えば、目、鼻、口等の顔部位の位置関係、車室内領域の露出部分の面積であり、または、領域画像内における濃淡の変化や勾配方向等を算出して数値化した量である。ここで、車室内領域の露出部分とは、領域画像内の車室内領域において乗員の陰になっていない部分のことである。
【0022】
学習モデル記憶部124は、第1の領域画像および第2の領域画像の特徴量と第2の部位の向きとの相関関係を学習させた学習モデルを記憶する。一例において、学習モデル記憶部124は、不揮発性記憶装置である。一例において、学習モデル記憶部124は、図7を参照して後述される学習モデル生成部232が予め生成した学習モデルを記憶する。
【0023】
向き検知部125は、画像切り出し部123から出力された第1の領域画像および第2の領域画像の特徴量に基づいて、第1の部位の向きを検知する。
【0024】
一例において、向き検知部125は、学習モデル記憶部124から取得した学習モデルを用いて、第1の領域画像および第2の領域画像の特徴量から第1の部位の向きを検知する。例えば、第1の部位の向きは、ロール(roll)角、ピッチ(pitch)角、ヨー(yaw)角等の角度で表される。
【0025】
他の一例において、向き検知部125は、第1の領域画像および第2の領域画像の特徴量と第1の部位の向きとの相関関係を記述する、予め作成されたテーブルを参照して、第1の領域画像および第2の領域画像の特徴量から第1の部位の向きを検知する。
【0026】
向き出力装置130は、向き検知部125が検知した第1の部位の向きに応じた出力を行う。一例において、向き出力装置130は、スピーカを備え、第1の部位の向きを表すヨー角が、所定の時間に亘って所定の範囲外にある場合、スピーカから乗員に対して脇見を注意する旨の音声を出力する。
【0027】
図2は、本開示に係る向き検知装置120の動作フローを示すフローチャートである。図3A図3B、および図3Cは、顔向きの一例を示す説明図である。図4および図5は、第1の領域R1および第2の領域R2の一例を示す説明図である。図6Aから図6Cは、第1の領域画像I1−1,I2−1,I3−1および第2の領域画像I1−2,I2−2,I3−2の一例を示す説明図である。
【0028】
図2に示される処理は、例えば車両のエンジンが起動されることに伴い、向き検知装置120のCPUがROMに格納されているプログラムを読み出して定期的に実行することにより実現される。
【0029】
なお、以下においては、第1の部位として、顔または頭部を例にとって説明する。さらに、乗員Pの顔(第1の部位)が正面を向いているときの顔向き方向を基準とし、乗員Pが右を向いている場合の顔向き方向を正方向とするヨー角(以下、顔向き角度と呼ぶ)によって顔(第1の部位)の向きが表される場合を例にとって説明する。
【0030】
ステップS11において、向き検知装置120は、撮像装置110から車室内画像を取得する(画像取得部121としての処理)。車室内画像は、例えば、図3A図3B、および図3Cにそれぞれ示される、車室内画像I1,I2,I3である。車室内画像I1,I2,I3において、乗員Pの顔向き角度は、それぞれ、−45度、0度、120度である。
【0031】
ステップS12において、向き検知装置120は、第1の領域R1と第2の領域R2とを決定する(切り出し位置決定部122としての処理)。
【0032】
一例において、第1の領域R1は、乗員Pの顔が存在する位置に基づいて決定される。また、一例において、第1の領域R1は、少なくとも乗員Pの頭部を含む。なお、第1の領域R1における乗員Pの頭部の大きさや位置は、常に一致するのが好ましいが、多少のずれは許容される。
【0033】
一例において、第1の領域R1の位置は、車室内画像I1,I2,I3の乗員Pの頭部の位置に追従するように決定される。また、一例において、第1の領域R1は、乗員Pの頭部が動くと想定される範囲に基づいて決定される。
【0034】
一例において、第1の領域R1には、乗員Pの顔全体が含まれる。また、一例において、第1の領域R1には、少なくとも、乗員Pの顔向きと強い相関関係にある、乗員Pの目、鼻、口等の顔部位が含まれる。この場合、第1の領域R1には、乗員Pの顔全体が含まれるとは限らない。
【0035】
一例において、第2の領域R2は、乗員Pが振り返った場合に車室内画像I1,I2,I3において見え方が変わる車室内領域の少なくとも一部を含む。そのような車室内領域は、例えば、座席、ヘッドレスト、車窓、ピラーである。
【0036】
図4に示される乗員Pが正面を見ているときと、図5に示される乗員Pが後ろを振り返っているときとで、座席の露出部分が異なる。例えば、図5に示されるように乗員Pが車室内で右後方を振り返っているとき、乗員Pは体を右側に振っている。したがって、車室内画像I2と比較して、車室内画像I3における座席の露出部分の面積が大きくなっている。
【0037】
一例において、第2の領域R2は、乗員Pが振り返った場合に車室内画像I1,I2,I3において見え方が変わる体の部位の少なくとも一部を含む。そのような体の部位は、例えば、乗員Pの上半身である。例えば、図3Cに示されるように、車室内で右後方を振り返るとき、乗員Pは肩を含む上半身を右方向に回転させる。したがって、肩等を含む上半身の見え方または面積が、図3Bに示されるように乗員Pが正面を向いている場合と異なる。
【0038】
図4および図5に示される例においては、第2の領域R2の中心位置は、第1の領域R1の中心位置と同一であり、かつ、第2の領域R2には、乗員Pの上半身および座席の少なくとも一部が含まれる。
【0039】
車室内画像I1,I2,I3における見え方は、車室内の内装等にも依存する。したがって、一例において、第2の領域R2として適切な領域が、実験的に決定されてもよい。
【0040】
図2に戻り、ステップS13において、向き検知装置120は、第1の領域画像I1−1,I2−1,I3−1と第2の領域画像I1−2,I2−2,I3−2とを切り出す(画像切り出し部123としての処理)。図6A図6B、および図6Cは、それぞれ、乗員Pの顔向き角度が−45度、0度、および120度のときの、第1の領域画像I1−1,I2−1,I3−1と、第2の領域画像I1−2,I2−2,I3−2を示している。
【0041】
ステップS14において、向き検知装置120は、顔向き角度を検知する(向き検知部125としての処理)。一例において、向き検知部125は、学習モデル記憶部124から取得した学習モデルを用いて、第1の領域画像I1−1,I2−1,I3−1における乗員Pの顔部位の位置関係と第2の領域画像I1−2,I2−2,I3−2における座席の露出部分の面積とから、乗員Pの顔向き角度を検知する。
【0042】
図6Aから図6Cに示されるように、第1の領域画像I1−1,I2−1,I3−1においては、乗員Pの顔向き角度が大きくなるにしたがって、乗員Pの顔部位がより見えなくなっている。一方、第2の領域画像I1−2,I2−2,I3−2においては、乗員Pの顔向き角度が大きくなるにしたがって、座席の露出部分の面積が大きくなっている。
【0043】
例えば、図6Aから図6Bに示されるように顔向き角度が変化したとする。この間、第1の領域画像I1−1,I2−1においては、例えば、両目間の距離は乗員の顔向き角度が変化するにしたがい、徐々に狭くなる。すなわち、第1の領域画像の特徴量と乗員Pの顔向き角度とが、強い相関関係にあると言える。一方、第2の領域画像I1−2,I2−2においては、乗員の顔向き角度が変化しても座席の露出部分の面積はほとんど変わらず、第2の領域画像の特徴量と乗員Pの顔向き角度とは、弱い相関関係にあると言える。
【0044】
したがって、第1の領域画像の特徴量と乗員Pの顔向き角度との相関関係が学習モデルに十分に反映されている限り、向き検知装置120は、図6Aから図6Bに示されるように変化する顔向き角度を良好に検知することができる。
【0045】
さらに、例えば、図6Bから図6Cに示されるように顔向き角度が変化したとする。この間、第2の領域画像I2−2,I3−2においては、例えば、座席の露出部分の面積は大きくなる。すなわち、第2の領域の特徴量と乗員Pの顔向き角度とが、強い相関関係にあると言える。一方、第1の領域画像I2−1,I3−1においては、乗員Pの顔部位が見えなくなる。例えば、乗員Pの顔部位が見えなくなり第1の領域画像に頭部として頭髪だけしか見えない場合、顔向き角度が変化しても第1の領域画像では特徴量に大きな差が生じない。すなわち、第1の領域画像の特徴量と乗員Pの顔向き角度とは、弱い相関関係にあると言える。
【0046】
したがって、第2の領域画像の特徴量と乗員Pの顔向き角度との相関関係が学習モデルに十分に反映されている限り、向き検知装置120は、図6Bから図6Cに示されるように変化する顔向き角度を良好に検知することができる。
【0047】
繰り返しとなるが、図6Aから図6Bに遷移する場合には第1の領域画像の特徴量と乗員Pの顔向き角度とが強い相関にあり、第2の領域画像の特徴量と乗員Pの顔向き角度とは弱い相関にある。また、図6Bから図6Cに遷移する場合には第1の領域画像の特徴量と乗員Pの顔向き角度とが弱い相関にあり、第2の領域画像の特徴量と乗員Pの顔向き角度とは強い相関にある。したがって、第1の領域画像の特徴量と第2の領域画像の特徴量はお互いに補完し合う関係(補完関係)にあると言える。
【0048】
図7および図8を参照して後述するように、本開示に係る学習モデルには、乗員Pの顔部位の位置関係と乗員Pの顔向き角度との相関関係および座席の露出部分の面積と乗員Pの顔向き角度との相関関係のうちより強い相関関係が優先的に学習され、十分に反映される。すなわち、乗員Pの顔がよく見えている場合には、顔部位の位置関係と顔向き角度との相関関係が優先的に学習され、乗員Pの顔がよく見えていない場合には、座席の露出部分の面積と乗員Pの顔向き角度との相関関係が優先的に学習される。したがって、向き検知装置120は、乗員Pの向きに関わらず、同一の学習モデル、即ち同一の処理内容を用いて、顔向き角度を良好に検知することができる。
【0049】
このように、本開示に係る向き検知装置120は、撮像装置110から取得した車室内画像から、乗員Pの身体の第1の部位の少なくとも一部を含む第1の領域画像I1−1,I2−1,I3−1と、第1の部位の周辺にある車室内領域または、乗員Pの身体の第2の部位の少なくとも一部を含む第2の領域画像I1−2,I2−1,I3−2とを切り出す画像切り出し部123と、前記第1の領域画像I1−1,I2−1,I3−1および前記第2の領域画像I1−2,I2−1,I3−2の特徴量に基づき、乗員Pの身体の第1の部位の向きを検知する向き検知部125と、を備える構成を採る。
【0050】
本開示に係る向き検知装置120によれば、振り返り動作を行う乗員Pの体の部位の向きを精度良く検知することができる。
【0051】
さらに、本開示に係る向き検知装置120によれば、部位の動きを表す角速度を算出する必要がなく、部位の向きを安定して算出することができる。
【0052】
(向き学習システム200の構成および動作)
図7は、本開示に係る向き学習システム200の構成図である。向き学習システム200は、車室内画像データ提供装置(第1のデータ提供装置)210、向きデータ提供装置(第2のデータ提供装置)220、向き学習装置(学習装置)230、および学習モデル記憶装置240を備える。
【0053】
車室内画像データ提供装置210は、学習モデル生成部232の学習に用いられる車室内画像を、車室内画像データとして向き学習装置230に提供する。一例において、車室内画像データ提供装置210は、車室内画像データを予め格納する格納部(図示せず)を備える。次いで、向き学習装置230の動作時に、車室内画像データ提供装置210は、格納部から取得した車室内画像データを、向き学習装置230に提供する。
【0054】
向きデータ提供装置220は、学習モデル生成部232の学習に用いられる第2の部位の向きを、向きデータとして向き学習装置230に提供する。一例において、向きデータ提供装置220は、向きデータを予め格納する格納部(図示せず)を備える。次いで、向き学習装置230の動作時に、向きデータ提供装置220は、格納部から取得した向きデータを、向き学習装置230に提供する。
【0055】
向きデータが示す第2の部位の向きは、車室内画像データが示す車室内画像に含まれる乗員の身体の第2の部位の実際の向きに対応する。例えば、図3A図3B、および図3Cで示される車室内画像I1,I2,I3が学習に用いられる場合、向きデータが示す顔向き角度−45度、0度、120度は、それぞれ、車室内画像データが示す車室内画像I1,I2,I3に対応する。なお、図1に示される向き検知装置120が取得する車室内画像と向き学習装置230が取得する車室内画像とは、一般には異なる乗員を含む異なる車室内画像である。しかしながら、本明細書においては、向き検知装置120の説明に用いられた車室内画像I1,I2,I3を流用して、向き学習装置230を説明する。
【0056】
一例において、学習に用いられる車室内画像データおよび向きデータは、向き学習装置230の動作前に準備される。
【0057】
一例において、乗員は、ジャイロセンサ等の方向センサを、乗員の身体の第2の部位に装着する。次いで、撮像装置(図示せず)が当該乗員を含む車室内画像を撮像するのと同時に、方向センサが第2の部位の向きを測定する。次いで、取得された車室内画像を示す車室内画像データが作成され、車室内画像データ提供装置210の格納部に格納される。次いで、取得された第2の部位の向きを示す向きデータが作成され、向きデータ提供装置220の格納部に格納される。
【0058】
他の一例において、第2の部位の向きを既知の向きに向けた乗員を含む車室内画像を、撮像装置(図示せず)が撮像する。次いで、取得された車室内画像を示す車室内画像データが作成され、それぞれ、車室内画像データ提供装置210の格納部に格納される。次いで、既知の向きを示す向きデータが作成され、向きデータ提供装置220の格納部に格納される。
【0059】
向き学習装置230は、車室内画像データ提供装置210から提供される車室内画像と、向きデータ提供装置220から提供される第2の部位の向きとの相関関係を学習する。第2の部位は、例えば、顔である。向き学習装置230は、画像取得部121、切り出し位置決定部122、画像切り出し部123、向き取得部231、および学習モデル生成部232を備える。
【0060】
画像取得部121は、車室内画像の取得元が異なる点を除いて、図1に示される向き検知装置120が備えるものと同様であるので、説明を省略する。また、切り出し位置決定部122および画像切り出し部123は、図1に示される向き検知装置120が備えるものと同様であるので、説明を省略する。
【0061】
向き取得部231は、向きデータ提供装置220から第2の部位の向きを示すデータを取得し、学習モデル生成部232に第2の部位の向きを出力する。
【0062】
学習モデル生成部232は、向き取得部231から出力された第2の部位の向きと、画像切り出し部123から取得した前記第1の領域画像および前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する。一例において、学習モデルの生成手法は、CNN(Convolutional Neural Network)である。
【0063】
学習モデル記憶装置240は、学習モデル生成部232が生成した学習モデルを記憶する。一例において、学習モデル記憶装置240が記憶する学習モデルの複製を、図1に示される学習モデル記憶部124が記憶する。学習モデルは事前に生成され、車両出荷時に向き検知装置の学習モデル記憶部に記憶される。
【0064】
図8は、本開示に係る向き学習装置230の動作フローを示すフローチャートである。この処理は、向き学習装置230のCPUがROMに格納されているプログラムを読み出して実行することにより実現される。なお、以下の説明においては、第1の部位として、顔または頭部を、車室内領域として座席を、例にとって説明する。
【0065】
ステップS21において、向き学習装置230は、車室内画像データ提供装置210から車室内画像を取得する(画像取得部121としての処理)。取得する車室内画像は、例えば、図3A図3B、および図3Cにそれぞれ示される、車室内画像I1,I2,I3である。
【0066】
ステップS22において、向き学習装置230は、第1の領域R1と第2の領域R2とを決定する(切り出し位置決定部122としての処理)。ステップS23において、向き検知装置120は、第1の領域画像I1−1,I2−1,I3−1と第2の領域画像I1−2,I2−2,I3−2とを切り出す(画像切り出し部123としての処理)。ステップS22およびステップS23の処理内容は、図2に示されるステップS12およびステップS13の処理内容と同様であるので、説明を省略する。特に、第1の領域および第2の領域は、それぞれ、向き検知装置120と向き学習装置230とで同様に決定される。
【0067】
ステップS24において、向き学習装置230は、車室内画像に対応する顔向き角度を向きデータ提供装置220から取得する(向き取得部121としての処理)。取得する顔向き角度は、例えば、車室内画像I1,I2,I3における乗員Pの顔向き角度である、−45度、0度、120度である。
【0068】
ステップS25において、向き学習装置230は、第1の領域画像I1−1,I2−1,I3−1および第2の領域画像I1−2,I2−2,I3−2の特徴量と顔向き角度との相関関係を学習モデルに学習させる(学習モデル生成部232としての処理)。
【0069】
例えば、図6Aから図6Bに示されるように顔向き角度が遷移したとする。この間、第1の領域画像I1−1,I2−1においては、乗員Pの顔部位が見えるので、乗員Pの顔部位の位置関係と乗員Pの顔向き角度とが、強い相関関係にある。一方、第2の領域画像I1−2,I2−2において、座席の露出部分の面積は大きく変化しない。したがって、生成された学習モデルにおいては、特徴量の1つである乗員Pの顔部位の位置関係と乗員Pの顔向き角度との相関関係が、優先的に学習され、十分に反映される。
【0070】
さらに、例えば、図6Bから図6Cに示されるように顔向き角度が遷移したとする。この間、第2の領域画像I2−2から第2の領域画像I3−2にかけて、座席の露出部分の面積が大きくなっているので、座席の露出部分の面積と乗員Pの顔向き角度とが、強い相関関係にある。一方、図6Cに示される第1の領域画像I3−1においては、乗員Pの顔部位が全く見えていない。したがって、生成された学習モデルにおいては、特徴量の1つである座席の露出部分の面積と乗員Pの顔向き角度との相関関係が、優先的に学習され、十分に反映される。
【0071】
図8に示されるフローチャートに従うと、図1に示される向き検知装置120の向き検知部125が顔向き検知に用いる学習モデルが生成される。
【0072】
このように、本開示に係る向き学習装置230は、第1のデータ提供装置(車室内画像データ提供装置210)から取得した車室内画像から、乗員Pの身体の第1の部位の少なくとも一部を含む第1の領域画像I1−1,I2−1,I3−1と、前記第1の部位の周辺にある車室内領域または乗員の身体の第2の部位の少なくとも一部を含む第2の領域画像像I1−2,I2−2,I3−2とを切り出す画像切り出し部123と、第2のデータ提供装置(向きデータ提供装置220)から取得した第2の部位の向きと、第1の領域画像I1−1,I2−1,I3−1および第2の領域画像I1−2,I1−2,I1−3の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部232と、を備える構成を採る。
【0073】
本開示に係る向き学習装置230によれば、本開示に係る向き検知装置120が振り返り動作を行う乗員Pの体の部位の向きを精度良く検知することができる。
【0074】
さらに、本開示に係る向き学習装置230によれば、乗員Pの体の部位が車室内画像に含まれない場合であっても、向き検知装置120が部位の向きを精度良く検知することができる。
【0075】
さらに、本開示に係る向き学習装置230によれば、向き検知装置120が、部位の動きを表す角速度を算出する必要がなく、部位の向きを安定して算出することができる。
【0076】
(向き学習システム200の変形例)
上述された向き学習システム200においては、車室内画像データ提供装置210および向きデータ提供装置220が別体の構成要素である。これに代えて、車室内画像データ提供装置210および向きデータ提供装置220を一体の構成要素とする実施の形態も考えられる。この場合、第1のデータ提供装置および第2のデータ提供装置は、同一のデータ提供装置である。
【0077】
上述された向き学習システム200においては、車室内画像データ提供装置210および向きデータ提供装置220は、それぞれ格納部が格納する車室内画像データおよび向きデータを提供する。これに代えて、車室内画像データ提供装置210は、図1に示される撮像装置110を流用し、向きデータ提供装置220は、乗員の身体の第1の部位に装着した方向センサとする実施の形態も考えられる。
【0078】
図9は、コンピュータのハードウェア構成の一例を示す図である。上述した各実施の形態および各変形例における各部の機能は、コンピュータ2100が実行するプログラムにより実現される。
【0079】
図9に示すように、コンピュータ2100は、入力ボタン、タッチパッド等の入力装置2101、ディスプレイ、スピーカ等の出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)等の記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリ等の記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。
【0080】
そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。
【0081】
そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105または記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。
【産業上の利用可能性】
【0082】
本開示に係る検知装置、学習装置、検知方法、学習方法およびプログラムは、車両に適用されるのに好適である。
【符号の説明】
【0083】
100 向き検知システム
110 撮像装置
120 向き検知装置
121 画像取得部
122 切り出し位置決定部
123 画像切り出し部
124 学習モデル記憶部
125 向き検知部
130 向き出力装置
200 向き学習システム
210 車室内画像データ提供装置
220 向きデータ提供装置
230 向き学習装置
231 向き取得部
232 学習モデル生成部
240 学習モデル記憶装置
図1
図2
図3A
図3B
図3C
図4
図5
図6A
図6B
図6C
図7
図8
図9