IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 上▲海▼商▲湯▼▲臨▼▲港▼智能科技有限公司の特許一覧

特許7259078子供状態検出方法及び装置、電子機器、記憶媒体
<>
  • 特許-子供状態検出方法及び装置、電子機器、記憶媒体 図1
  • 特許-子供状態検出方法及び装置、電子機器、記憶媒体 図2
  • 特許-子供状態検出方法及び装置、電子機器、記憶媒体 図3
  • 特許-子供状態検出方法及び装置、電子機器、記憶媒体 図4
  • 特許-子供状態検出方法及び装置、電子機器、記憶媒体 図5
  • 特許-子供状態検出方法及び装置、電子機器、記憶媒体 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-04-07
(45)【発行日】2023-04-17
(54)【発明の名称】子供状態検出方法及び装置、電子機器、記憶媒体
(51)【国際特許分類】
   G06T 7/00 20170101AFI20230410BHJP
   G06T 7/20 20170101ALI20230410BHJP
【FI】
G06T7/00 650Z
G06T7/00 350C
G06T7/00 660A
G06T7/20 300B
【請求項の数】 16
(21)【出願番号】P 2021557464
(86)(22)【出願日】2020-12-14
(65)【公表番号】
(43)【公表日】2022-06-30
(86)【国際出願番号】 CN2020136250
(87)【国際公開番号】W WO2021196738
(87)【国際公開日】2021-10-07
【審査請求日】2021-09-27
(31)【優先権主張番号】202010239259.7
(32)【優先日】2020-03-30
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】521300902
【氏名又は名称】上▲海▼商▲湯▼▲臨▼▲港▼智能科技有限公司
【氏名又は名称原語表記】SHANGHAI SENSETIME LINGANG INTELLIGENT TECHNOLOGY CO., LTD.
【住所又は居所原語表記】Room 01, 2nd Floor, No. 29, 30, Lane 1775, Qiushan Road, Mucheng Town, Lingang New Area, China (Shanghai) Pilot Free Trade Zone, Shanghai 200232, China
(74)【代理人】
【識別番号】100078282
【弁理士】
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【弁理士】
【氏名又は名称】森下 夏樹
(74)【代理人】
【識別番号】100181674
【弁理士】
【氏名又は名称】飯田 貴敏
(74)【代理人】
【識別番号】100181641
【弁理士】
【氏名又は名称】石川 大輔
(74)【代理人】
【識別番号】230113332
【弁護士】
【氏名又は名称】山本 健策
(72)【発明者】
【氏名】王▲飛▼
(72)【発明者】
【氏名】▲錢▼晨
【審査官】笠田 和宏
(56)【参考文献】
【文献】中国特許出願公開第103359038(CN,A)
【文献】国際公開第2019/180876(WO,A1)
【文献】米国特許出願公開第2019/0258263(US,A1)
【文献】特開2017-110990(JP,A)
【文献】特開2007-233475(JP,A)
【文献】特開平11-198705(JP,A)
【文献】特開2019-123354(JP,A)
【文献】中国特許出願公開第110135300(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06T 7/20
(57)【特許請求の範囲】
【請求項1】
子供状態検出方法であって、
キャビン内の目標画像を取得することと、
前記目標画像内の子供を認識することと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定することと、
前記子供がキャビン内の後部座席にいない場合、警告を発することと、を含み、
前記目標画像内の子供を認識することは、
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することであって、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含む、ことと、
決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することと、を含み、
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得することと、
前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得することと、
前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定することと、
最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定することと、を含む、子供状態検出方法。
【請求項2】
前記子供状態検出方法は、
前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定し、前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することを更に含むか、又は
前記目標画像内のチャイルドシートを認識し、キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することを更に含む、
請求項1に記載の子供状態検出方法。
【請求項3】
前記目標画像内の子供を認識することは、
前記子供の状態特徴情報を認識することと、
前記状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整することと、を更に含む、
請求項1に記載の子供状態検出方法。
【請求項4】
前記対象の中心点情報は、対象の中心点の長さ情報及び幅情報を更に含み、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得することと、
前記第1特徴マップ第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得することと、を更に含む、
請求項に記載の子供状態検出方法。
【請求項5】
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得することと、
第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定することと、
前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得することと、を更に含む、
請求項に記載の子供状態検出方法。
【請求項6】
前記対象は顔及び体を含み、
前記決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することは、
各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定することであって、同一人に属する体と顔は互いにマッチングする、ことと、
決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定することと、
マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定することと、を含む、
請求項4又は5に記載の子供状態検出方法。
【請求項7】
前記子供状態検出方法は、
マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定することと、
マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定することと、を更に含む、
請求項に記載の子供状態検出方法。
【請求項8】
前記状態特徴情報は、子供の睡眠状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定することと、
子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することと、を含む、
請求項3に記載の子供状態検出方法。
【請求項9】
前記子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することは、
連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定することと、を含む、
請求項に記載の子供状態検出方法。
【請求項10】
前記状態特徴情報は、子供の気分状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識することと、
認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔上の気分状態特徴情報を決定することと、を含む、
請求項3に記載の子供状態検出方法。
【請求項11】
顔上の器官の動作は、
顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含む
請求項10に記載の子供状態検出方法。
【請求項12】
前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識することは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔上の1つの器官の動作を認識するために使用され、
前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識することは、
バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得することと、
各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得することと、
発生確率がプリセットされた確率より大きい動作を、前記顔サブ画像によって表される顔上の器官の動作として決定することと、を含む、
請求項10又は11に記載の子供状態検出方法。
【請求項13】
子供状態検出装置であって、
キャビン内の目標画像を取得するように構成される画像取得モジュールと、
前記目標画像内の子供を認識するように構成される子供認識モジュールと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定するように構成される位置判定モジュールと、
前記子供がキャビン内の後部座席にいない場合、警告を発するように構成される早期警告モジュールと、を備え
前記子供認識モジュールは、前記目標画像内の子供を認識するとき、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定し、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含み、決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定するように構成され、
前記子供認識モジュールは、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定するとき、前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得し、前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得し、前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定し、最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定するように構成される、子供状態検出装置。
【請求項14】
電子機器であって、
プロセッサ、記憶媒体及びバスを備え、前記記憶媒体には、前記プロセッサによって実行可能な機械可読命令が記憶され、電子機器が動作するときに、前記プロセッサと前記記憶媒体は、バスを介して通信し、前記プロセッサは、前記機械可読命令を実行することにより、請求項1ないし12のいずれか一項に記載の子供状態検出方法を実行する、子機器。
【請求項15】
コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されるときに、請求項1ないし12のいずれか一項に記載の子供状態検出方法を実行する、ンピュータ可読記憶媒体。
【請求項16】
コンピュータ可読コードを含むコンピュータプログラムあって、
前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器のプロセッサに、請求項1ないし12のいずれか一項に記載の子供状態検出方法を実行させる、ンピュータプログラム
【発明の詳細な説明】
【技術分野】
【0001】
[関連出願への相互参照]
本願は、2020年03月30日に中国特許局に提出された、出願番号が202010239259.7である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が引用によって本願に組み込まれる。
[技術分野]
本発明は、コンピュータビジョンの技術分野に関し、特に、子供状態検出方法及び装置、電子機器、コンピュータ可読記憶媒体に関する。
【背景技術】
【0002】
現在の自動車用電子産業は急速に発展しており、人々が車に乗るのに便利で快適なキャビン環境を提供している。インテリジェントで安全なキャビンは、現在の自動車産業の発展重要な発展方向である。
【0003】
身体の発達やその他の制限により、子供にとって車に乗るリスクが高い。車載システムの安全認識に関しては、現在、乗車中の子供の安全性を効果的に認識して早期警告することができないため、乗車中の子供の安全に問題が生じる可能性がある。
【発明の概要】
【発明が解決しようとする課題】
【0004】
これを鑑みて、本発明は、少なくとも、子供状態検出方法及び装置を提供する。
【課題を解決するための手段】
【0005】
第1態様によれば、本発明は、子供状態検出方法を提供し、前記子供状態検出方法は、
キャビン内の目標画像を取得することと、
前記目標画像内の子供を認識することと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定することと、
前記子供がキャビン内の後部座席にいない場合、警告を発することと、を含む。
【0006】
この態様によれば、キャビン内の子供及び子供位置を認識することにより、キャビン内の子供が後部座席にいるかどうかを判断し、子供が後部座席にいない場合、警告を発し、これにより、乗車中の子供の安全状態の認識の精度を向上させ、乗車中の子供の安全性を向上させるのに役に立つ。
【0007】
一可能な実施形態において、上記の子供状態検出方法は、
前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定することと、
前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む。
【0008】
一可能な実施形態において、前記子供状態検出方法は、
前記目標画像内のチャイルドシートを認識することと、
キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む。
【0009】
一可能な実施形態において、前記目標画像内の子供を認識することは、
前記子供の状態特徴情報を認識することと、
前記状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整することと、を更に含む。
【0010】
一可能な実施形態において、前記目標画像内の子供を認識することは、
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することであって、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含む、ことと、
決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することと、を含む。
【0011】
一可能な実施形態において、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得することと、
前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得することと、
前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定することと、
最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定することと、を含む。
【0012】
一可能な実施形態において、前記対象の中心点情報は、対象の中心点の長さ情報及び幅情報を更に含み、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得することと、
前記第1特徴マップ的第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得することと、を更に含む。
【0013】
一可能な実施形態において、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得することと、
第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定することと、
前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得することと、を更に含む。
【0014】
一可能な実施形態において、前記対象は顔及び体を含み、
前記決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することは、
各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定することであって、同一人に属する体と顔は互いにマッチングすることと、
決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定することと、
マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定することと、を含む。
【0015】
一可能な実施形態において、前記子供状態検出方法は、
マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定することと、
マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定することと、を更に含む。
【0016】
一可能な実施形態において、前記状態特徴情報は、子供の睡眠状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定することと、
子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することと、を含む。
【0017】
一可能な実施形態において、前記子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することは、
連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定することと、を含む。
【0018】
一可能な実施形態において、前記状態特徴情報は、子供の気分状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識することと、
認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔の気分状態特徴情報を決定することと、を含む。
【0019】
一可能な実施形態において、顔の器官の動作は、
顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含む。
【0020】
一可能な実施形態において、前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識するステップは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔の1つの器官の動作を認識するために使用され、
前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識することは、
バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得することと、
各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得することと、
発生確率がプリセットされた確率より大きい動作を、前記顔サブ画像によって表される顔の器官の動作として決定することと、を含む。
【0021】
第2態様によれば、本発明は、子供状態検出装置を提供し、前記子供状態検出装置は、
キャビン内の目標画像を取得するように構成される画像取得モジュールと、
前記目標画像内の子供を認識するように構成される子供認識モジュールと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定するように構成される位置判定モジュールと、
前記子供がキャビン内の後部座席にいない場合、警告を発するように構成される早期警告モジュールと、を備える。
【0022】
第3態様によれば、本発明は、電子機器を提供し、前記電子機器は、プロセッサ、メモリ及びバスを備え、前記メモリには、前記プロセッサ実行可能な機械可読命令が記憶され、電子機器が動作するときに、前記プロセッサと前記メモリはバスを介して通信し、前記機械可読命令が前記プロセッサによって実行されるときに、上記の子供状態検出方法のステップを実行する。
【0023】
第4態様によれば、本発明は、コンピュータ可読記憶媒体を更に提供し、当該コンピュータ可読記憶媒体にはコンピュータプログラムが記憶され、当該コンピュータプログラムがプロセッサによって実行されるときに、上記委の子供状態検出方法のステップを実行する。
【0024】
本発明は、コンピュータプログラム製品を提供し、前記コンピュータプログラム製品はコンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器によって実行されるときに、前記電子機器のプロセッサに、上記の1つまたは複数の実施例における方法を実行させる。
例えば、本願は以下の項目を提供する。
(項目1)
子供状態検出方法であって、
キャビン内の目標画像を取得することと、
前記目標画像内の子供を認識することと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定することと、
前記子供がキャビン内の後部座席にいない場合、警告を発することと、を含む、前記子供状態検出方法。
(項目2)
前記子供状態検出方法は、
前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定することと、
前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む、
項目1に記載の子供状態検出方法。
(項目3)
前記子供状態検出方法は、
前記目標画像内のチャイルドシートを認識することと、
キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む、
項目1に記載の子供状態検出方法。
(項目4)
前記目標画像内の子供を認識することは、
前記子供の状態特徴情報を認識することと、
前記状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整することと、を更に含む、
項目1に記載の子供状態検出方法。
(項目5)
前記目標画像内の子供を認識することは、
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することであって、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含む、ことと、
決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することと、を含む、
項目1に記載の子供状態検出方法。
(項目6)
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得することと、
前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得することと、
前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定することと、
最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定することと、を含む、
項目5に記載の子供状態検出方法。
(項目7)
前記対象の中心点情報は、対象の中心点の長さ情報及び幅情報を更に含み、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得することと、
前記第1特徴マップ的第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得することと、を更に含む、
項目6に記載の子供状態検出方法。
(項目8)
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得することと、
第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定することと、
前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得することと、を更に含む、
項目6に記載の子供状態検出方法。
(項目9)
前記対象は顔及び体を含み、
前記決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することは、
各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定することであって、同一人に属する体と顔は互いにマッチングする、ことと、
決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定することと、
マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定することと、を含む、
項目5ないし8のいずれか一項に記載の子供状態検出方法。
(項目10)
前記子供状態検出方法は、
マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定することと、
マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定することと、を更に含む、
項目9に記載の子供状態検出方法。
(項目11)
前記状態特徴情報は、子供の睡眠状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定することと、
子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することと、を含む、
項目4に記載の子供状態検出方法。
(項目12)
前記子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することは、
連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定することと、を含む、
項目11に記載の子供状態検出方法。
(項目13)
前記状態特徴情報は、子供の気分状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識することと、
認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔上の気分状態特徴情報を決定することと、を含む、
項目4に記載の子供状態検出方法。
(項目14)
顔上の器官の動作は、
顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含む。
項目13に記載の子供状態検出方法。
(項目15)
前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識するステップは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔上の1つの器官の動作を認識するために使用され、
前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識することは、
バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得することと、
各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得することと、
発生確率がプリセットされた確率より大きい動作を、前記顔サブ画像によって表される顔上の器官の動作として決定することと、を含む、
項目11又は12に記載の子供状態検出方法。
(項目16)
子供状態検出装置であって、
キャビン内の目標画像を取得するように構成される画像取得モジュールと、
前記目標画像内の子供を認識するように構成される子供認識モジュールと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定するように構成される位置判定モジュールと、
前記子供がキャビン内の後部座席にいない場合、警告を発するように構成される早期警告モジュールと、を備える、前記子供状態検出装置。
(項目17)
電子機器であって、
プロセッサ、記憶媒体及びバスを備え、前記記憶媒体には、前記プロセッサによって実行可能な機械可読命令が記憶され、電子機器が動作するときに、前記プロセッサと前記記憶媒体は、バスを介して通信し、前記プロセッサは、前記機械可読命令を実行することにより、項目1ないし15のいずれか一項に記載の子供状態検出方法を実行する、前記電子機器。
(項目18)
コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されるときに、項目1ないし15のいずれか一項に記載の子供状態検出方法を実行する、前記コンピュータ可読記憶媒体。
(項目19)
コンピュータ可読コードを含むコンピュータプログラム製品あって、
前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器のプロセッサに、項目1ないし15のいずれか一項に記載の子供状態検出方法を実行させる、前記コンピュータプログラム製品。
【発明の効果】
【0025】
本発明の装置、電子機器、及びコンピュータ可読記憶媒体は、少なくとも、本発明の上記の方法の任意の態様又は任意の態様の任意の実施形態に係る技術的特徴と同じ又は類似の技術的特徴を含むため、上記の装置、電子機器、及びコンピュータ可読記憶媒体の技術的効果については、上記の方法の技術的効果の説明を参照でき、ここでは繰り返して説明しない。
【図面の簡単な説明】
【0026】
本発明の実施例の技術的解決策をより明確に説明するために、以下では、実施例に使用される図面について簡単に説明し、以下の図面は、本発明のいくつかの特定の実施例のみを示し、範囲を限定するものと見なされるべきではことを理解されたい。当業者にとっては、創造的な作業なしに、これらの図面にしたがって他の図面を得ることもできる。
図1】本発明の実施例に係る子供状態検出方法のフローチャートを示す。
図2】本発明の実施例に係る別の子供状態検出方法において、目標画像内の各対象の対象情報を決定することを示すフローチャートを示す。
図3】本発明の実施例に係る更に別の子供状態検出方法において、対象の対象タイプ情報を決定することを示すフローチャートを示す。
図4】本発明の実施例に係る更に別の子供状態検出方法において、子供の気分状態特徴情報を決定することを示すフローチャートを示す。
図5】本発明の実施例に係る子供状態検出装置の概略構造図を示す。
図6】本発明の実施例に係る電子機器の概略構造図を示す。
【発明を実施するための形態】
【0027】
本発明の実施例の目的、技術的解決策および利点をより明確にするために、以下、本発明の実施例における図面を参照して、本発明の実施例における技術的解決策を明確且つ完全に説明するが、理解できることとして、本発明の図面は、説明及び解釈するためのものに過ぎず、本発明の保護範囲を限定するものではない。また、理解できることとして、例示の図面は、原寸に比例して描かれていない。本発明で使用されるフローチャートは、本発明に係るいくつかの実施例に係る動作を示す。理解できることとして、フローチャートの動作は順番に実現することではなく、論理的なコンテキスト関係を有しないステップは、逆順に実施されたり、又は同時実施されることができる。さらに、当業者は、本発明に基づき、フローチャートに1つ又は複数の他の動作を追加してもよく、フローチャートから1つ又は複数の動作を取り消してもよい。
【0028】
さらに、説明された実施例は、実施例のすべてではなく、本発明の実施例の一部に過ぎない。通常、本明細書の図面に記載および図示されている本発明の実施例のコンポーネントは、様々な異なる構成で配置および設計することができる。したがって、図面に提供される本発明の実施例の以下の詳細な説明は、本発明の保護範囲を制限するものではなく、本発明の特定の実施例を示すものに過ぎない。本発明の実施例に基づき、創造的な努力なしに当業者が取得した他のすべての実施例は、本発明の保護範囲に含まれる。
【0029】
本発明の実施例の「含む」という用語は、その後の特徴の存在を表すた目のものであり、他の特徴が追加される場合を排除しない。
【0030】
本発明は、子供状態検出方法及び装置、電子機器、コンピュータ可読記憶媒体を提供する。本発明は、キャビン内の子供及び子供位置を認識することにより、キャビン内の子供が後部座席にいるかどうかを判断し、子供が後部座席にいない場合、警告を発し、これにより、乗車中の子供の安全状態の認識の精度を向上させ、乗車中の子供の安全性を向上させるのに役に立つ。
【0031】
以下では、実施例を参照して、本発明に係る子供状態検出方法及び装置、電子機器、コンピュータ可読記憶媒体を説明する。
【0032】
本発明の実施例は、子供状態検出方法を提供し、当該方法は、子供状態及び安全性を検出するための端末機器動作を認識するステップは、又はサーバに適用される。図1に示されたように、本発明の実施例に係る子供状態検出方法は、次のステップを含む。
【0033】
ステップS110において、キャビン内の目標画像を取得する。
【0034】
ここで、目標画像は、子供を含む場合と含まない場合があり、当該画像は、子供の状態と安全性を検出するための端末機器によって撮影されてもよいし、他の撮影機器によって撮影された後に上記の子供の状態と安全性を検出するための端末機器やサーバに伝送されてもよい。
【0035】
ステップS120において、前記目標画像内の子供を認識する。
【0036】
ここで、目標画像内の子供を認識することは、目標画像内の各対象から子供を選別し、子供の位置情報を決定することを含む。
【0037】
目標画像内の子供を認識する場合、先ず、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することができる。ここで、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含む。その後、決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定する。
【0038】
上記の対象タイプ情報は、子供タイプ、後部座席タイプ、チャイルドシートタイプ、成人タイプなどを含み得、中心点情報は、対応する対象の中心点の位置情報を含み得る。そうすると、実施するとき、決定された中心点に対応する対象タイプ情報を用いて、目標画像内の各対象から子供を選別した後、子供に属する中心点情報を用いて子供の位置情報を決定することができる。
【0039】
このステップでは、対象の中心点及び中心点に対応する対象タイプ情報を認識及び決定することにより、目標画像内の子供を正確に決定することができ、画像内の子供認識の精度を向上させることができる。
【0040】
ステップS130において、前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定する。
【0041】
ここで、子供がキャビン内の後部座席にいるかどうかを判断する前に、先ず、目標画像内の後部座席を認識し、後部座席の位置情報を決定する必要がある。
【0042】
目標画像内の後部座席を認識し、後部座席の位置情報を決定する方法は、目標画像内の子供を認識し、子供の位置情報を決定する上記の方法と同じである。つまり、前記方式は、決定された中心点に対応する対象タイプ情報を用いて、目標画像内の各対象から後部座席を選別した後、後部座席に属する中心点情報を用いて後部座席の位置情報を決定することであってもよい。
【0043】
子供の位置情報及び後部座席の位置情報を決定した後、当該2つの位置情報を用いて、子供がキャビン内の後部座席にいるかどうかを決定することができる。
【0044】
ステップS140において、前記子供がキャビン内の後部座席にいない場合、警告を発する。
【0045】
ここで、上記の判断により、子供が後部座席にいないと決定した場合、子供の乗車状態が不安全であると決定し、この場合、運転者や他の乗客に警報を発して、キャビン内の子供の位置を調整するようにすることにより、乗車中の子供の安全性を向上させる。
【0046】
乗車中の子供の安全性をさらに向上させるために、子供は、後部座席だけでなく、チャイルドシートにもいる必要があり、したがって、上記の子供状態検出方法は、
前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定することと、前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含み得る。
【0047】
上記のステップを実行する前に、先ず、目標画像内のチャイルドシートを認識する必要があり、キャビン内にチャイルドシートがある場合、チャイルドシートの位置情報を決定する。
【0048】
目標画像内のチャイルドシートを認識し、チャイルドシートの位置情報を決定する方法は、目標画像内の子供を認識し、子供の位置情報を決定する上記の方法と同じである。つまり、前記方式は、決定された中心点に対応する対象タイプ情報を用いて、目標画像内の各対象からチャイルドシートを選別した後、チャイルドシートに属する中心点情報を用いてチャイルドシートの位置情報を決定することであってもよい。
【0049】
子供の位置情報及びチャイルドシートの位置情報を決定した後、当該2つの位置情報を用いて、子供がキャビン内のチャイルドシートにいるかどうかを決定することができる。
【0050】
認識により、キャビン内にチャイルドシートがないと決定し、キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発する。このようにして、子供が車に乗っているシナリオでは、キャビン内にチャイルドシートがない場合、警告を時間内に発して、乗車中の子供の安全性を向上させることができる。
【0051】
上記において、子供がチャイルドシートに位置せず、キャビンの移動速度がプリセットされた値より大きい場合、警告を発することにより、乗車中の子供の安全状態認識の精度を更に向上させ、乗車中の子供の安全性を向上させる。
【0052】
上記の実施例によれば、対象情報に従って、子供、後部座席、及びチャイルドシートなどに対して認識及び位置決めを実行することができる。上記の対象は、顔、体、後部座席、チャイルドシートなどであってもよい。
【0053】
そうすると、図2に示されたように、いくつかの実施例において、次のステップにより、目標画像内の各対象の対象情報を決定することができる。
【0054】
ステップS210において、前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得する。
【0055】
ここで、先ず、目標画像を1つのニューラルネットワークに入力して画像特徴抽出を実行することができ、例えば、目標画像をバックボーンネットワーク(backbone)というニューラルネットワークに入力して画像特徴抽出を実行することにより、1つの初期特徴マップを取得することができる。その後、当該初期特徴マップを、対象情報を抽出するためのニューラルネットワークに入力して、上記の第1特徴マップを取得する。
【0056】
実施する場合、上記の目標画像は、640*480ピクセルのサイズの画像であってもよく、backbone処理後、80*60*Cの初期特徴マップを取得することができる。ここで、Cは、チャネルの数を表す。対象情報を抽出するためのニューラルネットワークを介して初期特徴マップを処理した後、80*60*3の第1特徴マップを取得することができる。
【0057】
ステップS220において、前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得する。
【0058】
ここで、第1プリセットされたチャネルは、第1特徴マップにおける第0チャネルであってもよく、当該チャネルは、対象の中心点のチャネルであり、当該チャネル内の応答値は、各特徴点が対象の中心点として使用される可能性を表すことができる。
【0059】
第1プリセットされたチャネル内の各特徴点に対応する応答値を取得した後、sigmoid活性化関数を介して、これらの応答値を0~1に転換することができる。
【0060】
ステップS230において、前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定する。
【0061】
ここで、特徴マップに対して、3*3のステップ幅が1である最大プーリング化(max pooling)操作を実行して、3*3内の最大応答値及び第1特徴マップにおけるその位置インデックスを取得することができる。つまり、60*80個の最大の応答値及びそれに対応する位置インデックスを取得することができる。
【0062】
その後、同じ位置インデックスを合併して、N個の最大の応答値、各最大の応答値に対応する位置インデックス、及び各最大の応答値に対応する特徴点を取得することもできる。
【0063】
ステップS240において、最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定する。
【0064】
ここで、閾値thrdを事前に設定し、最大の応答値がthrdより大きい場合、当該特徴点が対象の中心点であると判定することができる。
【0065】
このように、特徴マップ内の応答値に対して最大プーリング処理を実行することにより、局部範囲において対象である可能性が最も高い対象の中心点の特徴点を見つけることができ、それにより、決定された中心点の精度を効果的に向上させることができる。
【0066】
上記では、対象の中心点及び中心点の位置情報を中心点情報として使用する。いくつかの実施例において、中心点情報は、対象の中心点の長さ情報及び幅情報を更に含む。この場合、次のステップにより、中心点の長さ情報及び幅情報を決定することができる。
【0067】
前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得する。前記第1特徴マップの第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得する。
【0068】
上記の第2プリセットされたチャネルは、第1特徴マップにおける第1チャネルであってもよく、第3プリセットされたチャネルは、第1特徴マップにおける第2チャネルであってもよい。上記のステップでは、第1特徴マップにおける第1チャネルの、中心点に対応する位置から、中心点の長さ情報を取得し、第1特徴マップにおける第2チャネルの、中心点に対応する位置から、中心点の幅情報を取得する。
【0069】
対象の中心点を決定した後、中心点の位置インデックスを用いて、特徴マップのプリセットされた他のチャネルから、対象の中心点の長さ情報及び幅情報を正確に取得することができる。
【0070】
対象は顔、体、後部座席、チャイルドシートなどであり得るため、実施するとき、異なるニューラルネットワークを用いて異なる対象に対応する第1特徴マップを決定した後、異なる第1特徴マップに基づいて異なる対象の中心点、各中心点の位置情報、各中心点の長さ情報及び各中心点の幅情報を決定する必要がある。
【0071】
上記の説明から分かるように、対象情報は、対象の中心点に対応する対象タイプ情報を含み、いくつかの実施例において、図3に示されたように、次のステップにより対象タイプ情報を決定することができる。
【0072】
ステップS310において、前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得する。
【0073】
ここで、目標画像を1つのニューラルネットワークに入力して画像特徴抽出を実行することができ、例えば、目標画像をbackboneニューラルネットワークに入力して画像特徴抽出を実行して、1つの初期特徴マップを取得し、その後、当該初期特徴マップを、対象タイプ認識用のニューラルネットワークに入力して処理して、第2特徴マップを取得し、当該第2特徴マップに基づいて、各対象の中心点に対応する対象タイプ情報を決定することができる。上記の第2特徴マップは、1つの80*60*2の特徴マップであってもよい。
【0074】
子供を認識する適用シナリオでは、第2特徴マップの各特徴点は、1つの2次元の特徴ベクトルに対応し、対象の中心点に対応する上記の第2特徴マップの特徴点の2次元の特徴ベクトルに対して分類処理を実行して、分類結果を取得することができ、1つの分類結果が子供を表し、もう1つの分類結果がその他を表す場合、上記の分類結果に基づいて中心点に対応する対象タイプ情報が子供であるかどうかを決定することができる。子供を認識する適用シナリオでは、上記の対象は体又は顔であってもよい。
【0075】
チャイルドシートを認識する適用シナリオでは、第2特徴マップの各特徴点は、1つの2次元の特徴ベクトルに対応し、対象の中心点に対応する上記の第2特徴マップの特徴点の2次元の特徴ベクトルに対して分類処理を実行して、分類結果を取得することができ、1つの分類結果がチャイルドシートを表し、もう1つの分類結果が他を表す場合、上記の分類結果に基づいて中心点に対応する対象タイプ情報がチャイルドシートであるかどうかを決定することができる。
【0076】
もちろん、同じ方法で、後部座席を認識することもできる。
【0077】
対象は、顔、体、後部座席、チャイルドシートなどであり得るため、実施するとき、異なるニューラルネットワークを用いて異なる対象に対応する第2特徴マップを決定した後、異なる第2特徴マップに基づいて異なる対象の対象タイプ情報を決定する必要がある。
【0078】
ステップS320において、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定する。
【0079】
ここで、目標特徴点は、対象の中心点である。目標特徴点は、プリセットされた閾値より大きい、最大の応答値に対応する特徴点である。
【0080】
ステップS330において、前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得する。
【0081】
対象の中心点を決定した後、中心点の位置インデックスを用いて、対象の中心点に対応する対象タイプ情報を正確に取得することができる。
【0082】
子供を認識する適用シナリオでは、各対象の中心点に対応する対象タイプ情報を決定した後、次のステップにより、目標画像内の子供を認識することができる。
【0083】
ステップ1において、各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定し、同一人に属する体と顔は互いにマッチングする。
【0084】
このステップを実行する前に、先ず、各体の中心点及び同一人に属する顔の中心点の位置オフセット情報を決定する必要があり、その後、位置オフセット情報を用いて予測位置情報を決定する。
【0085】
上記の位置オフセット情報を決定する場合、先ず、目標画像を1つのニューラルネットワークに入力して画像特徴抽出を実行し、例えば、目標画像をbackboneニューラルネットワークに入力して画像特徴抽出を実行することにより、1つの初期特徴マップを取得することができる。その後、上記の位置オフセット情報を決定するためのニューラルネットワークに当該初期特徴マップを入力して、1つの特徴マップを取得し、当該特徴マップに基づいて、各体の中心点に対応する位置オフセット情報を決定することができる。
【0086】
実施するとき、上記の位置オフセット情報を決定するためのニューラルネットワークを介して初期特徴マップを処理した後、1つの80*60*2の特徴マップを取得することができる。
【0087】
ステップ2において、決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定する。
【0088】
ここで、予測位置情報に対応する位置に最も近い中心点の位置に対応する顔を、体とマッチングする顔として使用する。
【0089】
ステップ3において、マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定する。
【0090】
ここで、マッチングに成功した体の中心点に対応する対象タイプ情報が、対応する体が属する人が子供であることを指示するか、又は顔の中心点に対応する対象タイプ情報が、対応する顔が属する人が子供であることを指示する場合、当該マッチングに成功した体と顔が属する人は子供であると決定する。
【0091】
上記によれば、体の中心点に対応する位置オフセット情報を用いて、各体とマッチングする顔の中心点の予測位置情報を決定することができ、予測位置情報を用いて、各体とマッチングする顔を決定することができる。マッチングに成功した体と顔を用いて子供を認識し、これにより、認識の精度を向上させることができる。
【0092】
ブロックされることなどの原因により、マッチングに成功しない体又は顔がある可能性があり、この場合、マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定する。当該体の中心点に対応する対象タイプ情報が子供であることを指示する場合、当該体が属する人が子供であると決定する。
【0093】
マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定する。当該顔の中心点に対応する対象タイプ情報が子供であることを指示する場合、当該顔が属する人が子供であると決定する。
【0094】
マッチングに成功しなかった体又は顔について、それ自体の中心点に対応する対象タイプ情報を用いて、子供を正確に認識することができる。
【0095】
乗車中の子供の安全性を向上させながら、子供の状態特徴情報を認識し、状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整することにより、子供のためにより快適で安全な乗車環境を提供することができる。
【0096】
上記の状態特徴情報は、睡眠状態特徴情報、気分状態特徴情報などを含み得る。ここで、気分状態特徴情報は、嬉しい、泣き、落ち着きなどを含み得る。
【0097】
上記の状態特徴情報を決定した後、前記キャビン内のキャビン環境を調整することは、前記状態特徴情報が、子供が睡眠状態にあることを指示する場合、ライトを柔らかな状態に調整したり、子守唄を再生したりすること、前記状態特徴情報が、前記子供が嬉しいという気分状態にあることを指示する場合、再生する音楽のタイプを陽気な音楽に設定すること、前記状態特徴情報が、前記子供が泣いているという気分状態にあることを指示する場合、再生する音楽のタイプをなだめる音楽に設定することであってもよい。
【0098】
いくつかの実施例において、次のステップにより、子供が睡眠状態にいるかどうかを決定することができる。
【0099】
ステップ1において、前記目標画像から子供の顔サブ画像を抽出する。
【0100】
ここで、以上の実施例で決定された顔の中心点及び顔の中心点の長さ情報と幅情報を用いて、目標画像から子供の顔サブ画像を抽出することができる。
【0101】
顔サブ画像を利用することにより、睡眠状態を認識するための画像のサイズとピクセルの数を減らすことができ、つまり、睡眠状態認識を実行するためのデータ処理量を減らし、睡眠状態認識の効率を向上させることができる。
【0102】
ステップ2において、前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定する。
【0103】
ここで、左目の開閉状態情報は、左目が見えないこと、左目が見えかつ開いていること、左目が見えかつ閉じていることを含む。右目の開閉状態情報は、右目が見えないこと、右目が見えかつ開いていること、右目が見えかつ閉じていることを含む。
【0104】
実施するとき、顔サブ画像をトレーニング済みのニューラルネットワークに入力して、当該ニューラルネットワークによって処理されることにより、9つの左目と右目の状態情報を出力することができる。
【0105】
上記のニューラルネットワークは、2つの全結合層で構成され、当該ニューラルネットワークの入力は、顔サブ画像に対して画像特徴抽出を実行することによって取得された特徴マップである。最初の全結合層は、入力した特徴マップをK4次元の特徴ベクトルに変換し、2番目の全結合層は、K4次元の特徴ベクトルを9次元のベクトルに変換して出力し、その後、分類softmax処理を実行して、softmaxによって出力されたスコアが最大の次元に対応する状態情報は、最終の予測状態情報である。
【0106】
ステップ3において、子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定する。
【0107】
ここで、上記のステップ3は、
連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定することと、前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定することと、前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定することと、を含み得る。
【0108】
このように、子供の左目と右目の開閉状態情報に基づいて、子供の目を閉じた累積持続時間を決定し、子供の目を閉じた累積持続時間とプリセットされた閾値との関係を用いて、子供が睡眠状態にいるかどうかを正確に決定することができる。
【0109】
上記の説明から分かるように、状態特徴情報は、子供の気分状態特徴情報を更に含み、図4に示されたように、次のステップにより前記子供の気分状態特徴情報を認識することができる。
【0110】
ステップS410において、前記目標画像から子供の顔サブ画像を抽出する。
【0111】
ここで、以上の実施例で決定された顔の中心点及び顔の中心点の長さ情報と幅情報を用いて、目標画像から子供の顔サブ画像を抽出することができる。
【0112】
顔サブ画像を利用することにより、気分状態を認識するための画像のサイズとピクセルの数を減らすことができ、つまり、気分状態認識を実行するためのデータ処理量を減らし、気分状態認識の効率を向上させることができる。
【0113】
ステップS420において、前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識する。
【0114】
ここで、顔の器官の動作は、顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含み得る。
【0115】
顔サブ画像をトレーニング済みのニューラルネットワークに入力して顔の器官の動作認識を実行する前に、ニューラルネットワークが動作認識を実行する効率や精度を向上させるために、一可能な実施形態において、先ず、顔サブ画像に対して画像前処理を実行して、処理後の顔サブ画像を取得することもでき、ここで、前記画像前処理は、顔サブ画像に対してキー情報強調処理を実行するために使用され、その後、処理後の顔サブ画像をトレーニング済みのニューラルネットワークに入力して動作認識を実行する。
【0116】
ステップS430において、認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔の気分状態特徴情報を決定する。
【0117】
ここで、気分状態特徴情報と顔の器官の動作との間には、一定の対応関係があり、例示的に、顔の器官の動作が口角を上げることである場合、対応する気分状態特徴情報が嬉しいであり、顔の器官の動作が目を大きく開く同時に口を開くことである場合、対応する気分状態特徴は驚きである。
【0118】
実施プロセスにおいて、認識された顔の器官の動作に基づいて、顔の気分状態特徴情報を決定する場合、認識された顔の各器官の動作、及び事前に設定された動作と気分状態特徴情報との間の対応関係に基づいて、顔サブ画像によって表される顔の気分状態特徴情報を決定することができる。
【0119】
上記のステップ420において、顔サブ画像に対して画像前処理を実行する場合、顔サブ画像内のキーポイントの位置情報を決定し、キーポイントの位置情報に基づいて、顔サブ画像に対してアフィン変換を実行して、顔サブ画像に対応する補正された画像を取得し、補正された画像に対して正規化処理を実行して、処理後の顔サブ画像を取得することができる。
【0120】
顔サブ画像内のキーポイントは、例えば、眼角、口角、眉、眉の尻尾、鼻などを含み得る。実施中、顔サブ画像内のキーポイントは、必要に応じて設定でき、キーポイントの位置情報は、顔サブ画像におけるキーポイントの位置座標であってもよい。
【0121】
キーポイントの位置情報に基づいて、顔サブ画像に対してアフィン変換を実行する場合、先ず、キーポイントの位置情報、及び事前に保存された目標キーポイントのプリセット位置情報に基づいて、変換行列を決定することができ、変換行列は、顔サブ画像内の各キーポイントの位置情報と、当該キーポイントとマッチングする目標キーポイントのプリセット位置情報との間の変換関係を表す。その後、変換行列に基づいて、顔サブ画像に対してアフィン変換を実行する。
【0122】
キーポイントの位置情報、及び事前に保存された目標キーポイントのプリセット位置情報に基づいて、変換行列を決定する場合、次の式1で計算できる。
【0123】
【数1】
【0124】
ここで、x’、y’は、事前に保存された目標キーポイントの横座標と縦座標を示し、x、yは、キーポイントの横座標と縦座標を示し、
【0125】
【化1】
【0126】
は変換行列を示す。
【0127】
変換行列に基づいて、顔サブ画像に対してアフィン変換を実行する場合、先ず、顔サブ画像内の各ピクセルの座標を決定し、次に、顔サブ画像内の各ピクセルの座標を上記の式に取り込んで、各ピクセルに対応する変換後の座標を決定し、各ピクセルに対応する変換後の座標に基づいて、顔サブ画像に対応する補正後の画像を決定することができる。
【0128】
顔サブ画像に対してアフィン変換を実行することにより、顔サブ画像のうちの異なる向きの顔サブ画像を正面向きの顔サブ画像に変換し、顔サブ画像に対応する補正後の画像に基づいて動作認識を実行することにより、動作認識の精度を向上させることができる。
【0129】
キーポイントの位置情報に基づいて、顔サブ画像に対してアフィン変換を実行して、顔サブ画像に対応する補正後の画像を取得した後、更に、キーポイントの位置情報に基づいて、補正後の画像を切り取って、切り取られた画像を取得し、切り取られた画像を正規化処理することができる。
【0130】
このように、先ず、顔の器官の動作を認識し、その後、認識された動作に基づいて、顔に対応する表情状態を決定し、顔の器官の動作と顔の表情状態との間の関係は客観的に存在するものであるため、この方式により、ユーザが顔サブ画像の表情状態を主観的に定義する必要がない。また、顔の器官の動作はいくつかの特定の顔特徴に焦点を合わせることができるため、顔サブ画像上の器官の動作を認識する精度は、表情姿勢を直接認識する精度と比較して大幅に向上できるため、本実施形態は、顔表情認識の精度を向上させることができる。
【0131】
いくつかの実施例において、上記の顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識するステップは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔の1つの器官の動作を認識するために使用される。
【0132】
上記の前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識することは、以下のステップを含み得る。
【0133】
ステップ1において、バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得する。
【0134】
ステップ2において、各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得する。
【0135】
ステップ3において、発生確率がプリセットされた確率より大きい動作を前記顔サブ画像によって表される顔の器官の動作として決定する。
【0136】
顔サブ画像によって表される顔が複数の器官の動作を含む場合、上記の方法により、顔サブ画像に対応する複数の器官の動作を同時に認識することができ、さらに、各分類ブランチネットワークを用いて、対応する器官の動作を認識する。各分類ブランチネットワークをトレーニングする場合、特定の器官の動作に対応する画像特徴に焦点を合わせるようにトレーニングすることができため、このようにして、トレーニングされた分類ブランチネットワークの認識精度をより高めることができ、それにより、気分状態認識を実行するときの精度を向上させることができる。
【0137】
上記の子供状態検出方法に対応して、本発明は、子供状態検出装置を更に提供し、当該装置は、子供状態及び安全性を検出するための端末機器又はサーバに適用され、各モジュールは、上記の方法と同じ方法のステップを実現しかつ同じ有益な効果を得ることができるため、同じ部分については、本発明では繰り返して説明しない。
【0138】
図5に示されたように、本発明に係る子供状態検出装置は、
キャビン内の目標画像を取得するように構成される画像取得モジュール510と、
前記目標画像内の子供を認識するように構成される子供認識モジュール520と、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定するように構成される位置判定モジュール530と、
前記子供がキャビン内の後部座席にいない場合、警告を発するように構成される早期警告モジュール540と、を備える。
【0139】
いくつかの実施例において、上記の位置判定モジュール530は更に、前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定するように構成され、
早期警告モジュール540は、前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発する。
【0140】
いくつかの実施例において、前記子供状態検出装置は更に、前記目標画像内のチャイルドシートを認識するように構成されるチャイルドシート認識モジュール520を備え、
上述早期警告モジュール540は更に、キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発するように構成される。
【0141】
いくつかの実施例において、上記の子供認識モジュール520は更に、
前記子供の状態特徴情報を認識し、
前記状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整するように構成される。
【0142】
いくつかの実施例において、前記子供認識モジュール520は、前記目標画像内の子供を認識するとき、
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定し、ここで、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含み、
決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定するように構成される。
【0143】
いくつかの実施例において、前記子供認識モジュール520は、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定するとき、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得し、
前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得し、
前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定し、
最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定するように構成される。
【0144】
いくつかの実施例において、前記対象の中心点情報は、対象の中心点の長さ情報及び幅情報を更に含み、前記子供認識モジュール520は更に、
前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得し、
前記第1特徴マップ的第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得するように構成される。
【0145】
いくつかの実施例において、前記子供認識モジュール520は更に、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定するとき、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得し、
第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定し、
前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得するように構成される。
【0146】
いくつかの実施例において、前記対象は顔及び体を含み、
前記子供認識モジュール520は、決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定するとき、
各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定することであって、同一人に属する体と顔は互いにマッチングし、
決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定し、
マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定するように構成される。
【0147】
いくつかの実施例において、前記子供認識モジュール520は更に、
マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定し、
マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定するように構成される。
【0148】
いくつかの実施例において、前記状態特徴情報は、子供の睡眠状態特徴情報を含み、
前記子供認識モジュール520は、前記子供の状態特徴情報を認識するときに、
前記目標画像から子供の顔サブ画像を抽出し、
前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定し、
子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定するように構成される。
【0149】
いくつかの実施例において、前記子供認識モジュール520は、子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定するときに、
連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定し、
前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定し、
前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定するように構成される。
【0150】
いくつかの実施例において、前記状態特徴情報は、子供の気分状態特徴情報を含み、
前記子供認識モジュール520は、前記子供の状態特徴情報を認識するときに、
前記目標画像から子供の顔サブ画像を抽出し、
前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識し、
認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔の気分状態特徴情報を決定するように構成される。
【0151】
いくつかの実施例において、顔の器官の動作は、
顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含む。
【0152】
いくつかの実施例において、前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識するステップは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔の1つの器官の動作を認識するために使用され、
前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識することは、
バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得することと、
各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得することと、
発生確率がプリセットされた確率より大きい動作を前記顔サブ画像によって表される顔の器官の動作として決定することと、を含む。
【0153】
本発明の実施例は、電子機器を開示し、図6に示されたように、電子機器は、プロセッサ601、メモリ602及びバス603を備え、前記メモリ602には、前記プロセッサ601によって実行可能な機械可読命令が記憶され、電子機器が動作するときに、前記プロセッサ601と前記メモリ602は、バス603を介して通信する。
【0154】
前記機械可読命令が前記プロセッサ601によって実行されるときに、子供状態検出方法のステップを実行し、前記子供状態検出方法は、
キャビン内の目標画像を取得することと、
前記目標画像内の子供を認識することと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定することと、
前記子供がキャビン内の後部座席にいない場合、警告を発することと、を含む。
【0155】
さらに、機械可読命令がプロセッサ601によって実行されるときに、上記の方法の任意の実施形態における方法を実行してもよく、ここでは繰り返して説明しない。
【0156】
加えて、本発明の実施例は、コンピュータ可読記憶媒体を更に提供し、当該コンピュータ可読記憶媒体にはコンピュータプログラムが記憶され、当該コンピュータプログラムがプロセッサによって実行されるときに、上記の方法の実施例に記載の方法のステップを実行する。
【0157】
本発明の実施例は、上記の方法及び装置に対応する、プログラムコードが記憶されているコンピュータプログラム製品を更に提供し、前記プログラムコードに含まれる命令は、上記の方法の実施例における方法のステップを実行するために使用でき、その実装については、方法の実施例を参照でき、ここでは繰り返して説明しない。
【0158】
各実施例の上記の説明は、各実施例間の違いを強調する傾向があり、それらの同じまたは類似なところは互いに参照することができ、簡潔にするために、ここでは繰り返して説明しない。
【0159】
当業者なら明確に理解できるが、説明の便宜上及び簡潔にするために、上記に説明されたシステム、装置の作業プロセスは、上記の方法の実施例における対応するプロセスを参照することができ、本発明では繰り返して説明しない。本発明で提供されたいくつかの実施例において、開示されたシステム、装置及び方法は、他の方式で実現できることを理解されたい。上記で説明された装置の実施例は例示的なものに過ぎず、例えば、前記モジュールの分割は、論理機能の分割に過ぎず、実際の実現では、他の分割方法があり、例えば、複数のモジュール又はコンポーネントを別のシステムに統合又は集積したり、又は一部の特徴を無視したり、又は実行しないことができる。なお、表示又は議論された相互結合又は直接結合又は通信接続は、電気的、機械的又は他の形態の一部の通信インターフェース、装置又はモジュールを介した間接的な結合又は通信接続であり得る。
【0160】
前記分離部材として説明されたモジュールは、物理的に分離されている場合とされていない場合があり、ユニットとして表示された部材は、物理モジュールである場合もそうでない場合もあり、1箇所に配置される場合もあれば、複数のネットワークユニットに分散される場合もある。実際の必要に応じて、その中のユニットの一部又は全部を選択して本実施例の技術案の目的を実現することができる。
【0161】
また、本発明の各実施例における各機能ユニットを1つの処理ユニットに統合してもよく、各ユニットを別々に1つのユニットとして使用してもよいし、2つ以上のユニットを1つのユニットに統合してもよい。
【0162】
前記機能が、ソフトウェア機能ユニットの形で実現され、独立した製品として販売又は使用される場合、プロセッサによって実行可能な不揮発性コンピュータ読み取り可能な記憶媒体に記憶されることができる。このような理解に基づいて、本発明の技術的解決策の本質的な部分、すなわち、先行技術に貢献のある部分、又は前記技術的解決策の一部は、ソフトウェア製品の形で具現されることができ、当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器等であり得る)に、本開示の各実施例に記載の方法のステップの全部又は一部を実行させるためのいくつかの命令を含む。上記した記憶媒体は、Uディスク、モバイルハードディスク、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶することができる様々なメディアを含む。
【0163】
上記の内容は、本発明の実施形態に過ぎず、本発明の保護範囲はこれに限定されない。当業者は、本発明に開示された技術的範囲内で容易に想到し得る変更又は置換は、すべて本開示の保護範囲内に含まれるべきである。したがって、本発明の保護範囲は、特許請求の範囲の保護範囲に従うものとする。
【産業上の利用可能性】
【0164】
本発明は、キャビン内の子供及び子供位置を認識することにより、キャビン内の子供が後部座席にいるかどうかを判断し、子供が後部座席にいない場合、警告を発し、これにより、乗車中の子供の安全状態の認識の精度を向上させ、乗車中の子供の安全性を向上させるのに役に立つ。
図1
図2
図3
図4
図5
図6