特許第6933668号(P6933668)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッドの特許一覧

特許6933668運転状態監視方法及び装置、運転者監視システム、並びに車両
<>
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000002
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000003
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000004
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000005
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000006
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000007
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000008
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000009
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000010
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000011
  • 特許6933668-運転状態監視方法及び装置、運転者監視システム、並びに車両 図000012
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6933668
(24)【登録日】2021年8月23日
(45)【発行日】2021年9月8日
(54)【発明の名称】運転状態監視方法及び装置、運転者監視システム、並びに車両
(51)【国際特許分類】
   B60W 40/08 20120101AFI20210826BHJP
   G08G 1/16 20060101ALI20210826BHJP
   G08G 1/00 20060101ALI20210826BHJP
   G06T 7/20 20170101ALI20210826BHJP
   G06T 7/00 20170101ALI20210826BHJP
   A61B 5/18 20060101ALI20210826BHJP
   A61B 5/16 20060101ALI20210826BHJP
【FI】
   B60W40/08
   G08G1/16 F
   G08G1/00 X
   G06T7/20 300A
   G06T7/00 350C
   G06T7/20 300B
   A61B5/18
   A61B5/16 200
【請求項の数】28
【全頁数】40
(21)【出願番号】特願2018-568375(P2018-568375)
(86)(22)【出願日】2018年4月25日
(65)【公表番号】特表2019-536673(P2019-536673A)
(43)【公表日】2019年12月19日
(86)【国際出願番号】CN2018084526
(87)【国際公開番号】WO2019029195
(87)【国際公開日】20190214
【審査請求日】2019年1月28日
(31)【優先権主張番号】PCT/CN2017/096957
(32)【優先日】2017年8月10日
(33)【優先権主張国】CN
(73)【特許権者】
【識別番号】516158998
【氏名又は名称】ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド
(74)【代理人】
【識別番号】100105924
【弁理士】
【氏名又は名称】森下 賢樹
(72)【発明者】
【氏名】ワン、フェイ
(72)【発明者】
【氏名】キアン、チェン
【審査官】 ▲高▼木 真顕
(56)【参考文献】
【文献】 特開2015−133050(JP,A)
【文献】 特開2010−142345(JP,A)
【文献】 特開平10−181380(JP,A)
【文献】 特開2012−226665(JP,A)
【文献】 特開2003−131785(JP,A)
【文献】 特開2016−124542(JP,A)
【文献】 特表2018−528536(JP,A)
【文献】 特開2017−097518(JP,A)
【文献】 特開2000−198370(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
B60W 30/00 − 60/00
G08G 1/00 − 99/00
G06T 7/00
G06T 7/20
A61B 5/16
A61B 5/18
(57)【特許請求の範囲】
【請求項1】
運転者画像について運転者状態検出を行うことと、
運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力し及び/又はスマート運転制御を行うことと、を含み、
前記運転者状態検出は、運転者の疲労状態検出、運転者の散漫状態検出、運転者の予定散漫動作検出のいずれか一つ又は複数を含み、
前記運転者の予定散漫動作検出は、
第五ニューラルネットワークを介して、運転者画像について食事動作、水飲み動作、電話かけ動作、または娯楽動作を含む予定散漫動作に対応する予め設定された目標対象の検出を行い、運転者の手の検出ボックスと、口の検出ボックス又は目の検出ボックスの少なくとも一方と、目標物体の検出ボックスとを得ると、
前記手の検出ボックスと前記目標物体の検出ボックスが重なり、前記目標物体のタイプが容器又は食物であり、且つ前記目標物体の検出ボックスと口の検出ボックスが重なることに応じて、食事動作又は水飲み動作が発生したと判定すること、及び/又は、
前記手の検出ボックスと前記目標物体の検出ボックスが重なり、前記目標物体のタイプが電子機器で、且つ前記目標物体の検出ボックスと口の検出ボックスとの最小距離が第一予め設定された距離より短いか、又は前記目標物体の検出ボックスと目の検出ボックスとの最小距離が第二予め設定された距離より短いことに応じて、娯楽動作又は電話かけ動作が発生したと判定すること、を含み、
前記予定散漫動作が発生したと確定された場合、所定時間内における前記予定散漫動作生状況を確定し、散漫程度を特徴付けるための指標のパラメータ値を取得することと、
散漫程度を特徴付けるための前記指標のパラメータ値に基づいて運転者の予定散漫動作検出の結果を確定することと、を更に含み、
前記散漫程度を特徴付けるための前記指標のパラメータ値は、予定散漫動作の回数、予定散漫動作の持続時間及び予定散漫動作の頻度のいずれか一つ又は複数を含むことを特徴とする運転状態監視方法。
【請求項2】
前記運転者の疲労状態検出は、
前記運転者画像における運転者の顔の少なくとも一部の領域を検出して、顔の少なくとも一部の領域の状態情報を取得することであって、前記顔の少なくとも一部の領域の状態情報は、目の開閉状態情報、口の開閉状態情報のいずれか一つ又は複数を含む、ことと、
所定時間内の前記顔の少なくとも一部の領域の状態情報に基づき、運転者疲労状態を特徴付けるための指標(index)のパラメータ値を取得することと、
運転者疲労状態を特徴付けるための指標のパラメータ値に基づいて運転者疲労状態検出の結果を決定することと、を含み、
運転者疲労状態を特徴付けるための前記指標は、閉目程度、欠伸程度のいずれか一つ又は複数を含み、
前記閉目程度のパラメータ値は、閉目回数、閉目頻度、閉目持続時間、閉目幅、半閉目回数、半閉目頻度のいずれか一つ又は複数を含み、
及び/又は、
前記欠伸程度のパラメータ値は、欠伸状態、欠伸回数、欠伸持続時間、欠伸頻度のいずれか一つ又は複数を含む
ことを特徴とする請求項1に記載の方法。
【請求項3】
運転者画像について運転者の散漫状態検出を行うことは、
前記運転者画像における運転者の顔向き及び/又は視線方向を検出して、顔向き情報及び/又は視線方向情報を取得することと、
所定時間内の前記顔向き情報及び/又は視線方向情報に基づき、運転者散漫状態を特徴付けるための指標のパラメータ値を特定することと、
前記運転者散漫状態を特徴付けるための指標のパラメータ値に基づいて運転者散漫状態検出の結果を決定することと、を含み、
運転者散漫状態を特徴付けるための前記指標は、顔向きずれ程度、視線ずれ程度のいずれか一つ又は複数を含み、
前記顔向きずれ程度のパラメータ値は、振り向き回数、振り向き持続時間、振り向き頻度のいずれか一つ又は複数を含み、
及び/又は、
前記視線ずれ程度のパラメータ値は、視線方向ずれ角度、視線方向ずれ時間、視線方向ずれ頻度のいずれか一つ又は複数を含むことを特徴とする請求項1または2に記載の方法。
【請求項4】
運転者画像について顔向き及び/又は視線方向を検出することは、
前記運転者画像の顔キーポイントを検出することと、
前記顔キーポイントに基づいて顔向き及び/又は視線方向を検出することと、を含むことを特徴とする請求項3に記載の方法。
【請求項5】
前記顔キーポイントに基づいて顔向きを検出して、顔向き情報を取得するステップは、
前記顔キーポイントに基づいて頭部姿勢の特徴情報を取得することと、
前記頭部姿勢の特徴情報に基づいて顔向き情報を決定することと、を含むことを特徴とする請求項4に記載の方法。
【請求項6】
前記顔キーポイントに基づいて頭部姿勢の特徴情報を取得し、前記頭部姿勢の特徴情報に基づいて顔向き情報を取得することは、
第一ニューラルネットワークを介して前記顔キーポイントに基づいて頭部姿勢の特徴情報を抽出することと、
第二ニューラルネットワークを介して前記頭部姿勢の特徴情報に基づいて顔向き推定を行い、顔向き情報を取得することと、を含むことを特徴とする請求項5に記載の方法。
【請求項7】
前記顔キーポイントに基づいて視線方向を検出し、視線方向情報を取得することは、
前記顔キーポイントにおける目キーポイントにより位置決めされた目画像に基づいて瞳孔エッジ位置を特定し、且つ前記瞳孔エッジ位置に基づいて瞳孔中心位置を計算することと、
前記瞳孔中心位置及び目中心位置に基づいて前記視線方向情報を計算することと、を含むことを特徴とする請求項4−6のいずれか一項に記載の方法。
【請求項8】
前記顔キーポイントにおける目キーポイントにより位置決めされた目画像に基づいて瞳孔エッジ位置を特定することは、
第三ニューラルネットワークを介して、前記顔キーポイントにより分割された前記画像中の目領域画像に対して瞳孔エッジ位置検出を行い、且つ第三ニューラルネットワークが出力した情報に基づいて瞳孔エッジ位置を取得することを含むことを特徴とする請求項7に記載の方法。
【請求項9】
前記予定散漫動作は、喫煙動作、水飲み動作、食事動作、電話かけ動作、娯楽動作のいずれか一つ又は複数を含むことを特徴とする請求項1−8のいずれか一項に記載の方法。
【請求項10】
前記予定散漫動作が喫煙動作である場合、運転者画像について前記予定散漫動作に対応する目標対象の検出を行い、目標対象の検出ボックスを取得し、前記目標対象の検出ボックスに基づいて、前記予定散漫動作が発生したか否かを判定するステップは、
第四ニューラルネットワークを介して前記運転者画像について顔検出を行い、顔検出ボックスを取得し、且つ前記顔検出ボックスの特徴情報を抽出することと、
前記第四ニューラルネットワークを介して前記顔検出ボックスの特徴情報に基づいて喫煙動作が発生したか否かを判定することと、を含むことを特徴とする請求項1−9のいずれか一項に記載の方法。
【請求項11】
前記運転者の前記予定散漫動作の検出結果は、食事動作、水飲み動作、電話かけ動作または娯楽動作が発生していないこと、食事動作が発生したこと、水飲み動作が発生したこと、電話かけ動作が発生したこと、娯楽動作が発生したことのうちの一つを含むことを特徴とする請求項1−10のいずれか一項に記載の方法。
【請求項12】
手の検出ボックス、口の検出ボックス及び任意の前記目標物体の検出ボックスが同時に検出されなく、且つ手の検出ボックス、目の検出ボックス及び任意の前記目標物体の検出ボックスが同時に検出されていない場合、散漫動作の検出結果は、食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったと決定し、及び/又は、
手の検出ボックスと前記目標物体の検出ボックスが重なりない場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定し、及び/又は、
前記目標物体のタイプが容器又は食物であり、且つ前記目標物体の検出ボックスと口の検出ボックスとが重ならず、及び/又は、前記目標物体のタイプが電子機器であり、且つ前記目標物体の検出ボックスと口の検出ボックスとの最小距離が第一予め設定された距離以上であるか、又は前記目標物体の検出ボックスと目の検出ボックスとの最小距離が第二予め設定された距離以上である場合、散漫動作の検出結果は、食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定することを更に含むことを特徴とする請求項1−1のいずれか一項に記載の方法。
【請求項13】
運転者の予定散漫動作検出の結果は予定散漫動作を検出したことである場合、検出した散漫動作を提示することを更に含み、
運転者散漫状態検出の結果及び/又は運転者の予定散漫動作検出の結果に基づき、散漫提示情報を出力することを更に含むことを特徴とする請求項1−1のいずれか一項に記載の方法。
【請求項14】
運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力することは、
運転者疲労状態検出の結果、運転者散漫状態検出の結果及び運転者の予定散漫動作検出の結果が満たす予め設定された条件に基づいて運転状態のレベルを決定することと、
決定した運転状態レベルを運転状態監視結果とすることと、を含むことを特徴とする請求項1−1のいずれか一項に記載の方法。
【請求項15】
前記方法は、更に、
前記運転状態監視結果に対応する制御動作を実行することを含み、
前記運転状態監視結果に対応する制御動作を実行することは、
決定した前記運転状態監視結果が提示/警告予定条件を満たす場合、前記提示/警告予定条件に対応する提示/警告情報を出力すること、及び/又は、
決定した前記運転状態監視結果が予定運転モード切替条件を満たす場合、運転モードを自動運転モードに切り替えることの一つを含むことを特徴とする請求項1−1のいずれか一項に記載の方法。
【請求項16】
前記方法は、更に、
前記運転者画像について顔認識を行うことと、
顔認識の結果に基づいて認証制御を行うことと、を含むことを特徴とする請求項1−1のいずれか一項に記載の方法。
【請求項17】
前記運転者画像について顔認識を行うことは、
第六ニューラルネットワークを介して前記運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得することと、
前記顔特徴をデータベース内の顔特徴テンプレートとマッチすることと、
前記データベースに前記顔特徴とマッチする顔特徴テンプレートが存在する場合、前記顔特徴とマッチする顔特徴テンプレートに対応する身分情報を出力することと、を含むことを特徴とする請求項1に記載の方法。
【請求項18】
前記データベースに前記顔特徴とマッチする顔特徴テンプレートが存在しない場合、運転者に登録するように促すことと、
受信した運転者の登録要求に応答して、第六ニューラルネットワークを介して収集した運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得することと、
前記顔特徴を前記運転者の顔特徴テンプレートとし、前記データベース内で前記運転者の顔特徴テンプレート及び前記運転者が入力した身分情報を含む前記運転者のユーザ情報を作成することと、を更に含むことを特徴とする請求項1に記載の方法。
【請求項19】
更に、
前記運転状態監視結果を前記データベース内の前記運転者のユーザ情報に記憶することを含むことを特徴とする請求項1または18に記載の方法。
【請求項20】
更に、
赤外線カメラによって画像を収集し、前記運転者画像を取得することを含み、
赤外線カメラによって画像を収集することは、
車両内の少なくとも一つの位置に配置された前記赤外線カメラによって画像を収集することを含み、
前記少なくとも一つの位置は、ダッシュボードの上方又は近傍位置、センタコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置のいずれか一つ又は複数を含むことを特徴とする請求項1−19のいずれか一項に記載の方法。
【請求項21】
更に、
前記運転者画像について運転者ジェスチャー検出を行うことと、
運転者ジェスチャー検出の結果に基づいて制御コマンドを生成することと、を含むことを特徴とする請求項1−2のいずれか一項に記載の方法。
【請求項22】
前記運転者画像に基づいて運転者ジェスチャー検出を行うことは、
現在フレームの運転者画像における手キーポイントを検出することと、
検出した手キーポイントに基づいて特定した静的ジェスチャーを前記運転者ジェスチャー検出の結果とすることと、を含む、または、
前記運転者画像に基づいて運転者ジェスチャー検出を行うことは、
運転者動画における複数フレームの運転者画像における手キーポイントを検出することと、
検出した複数フレームの運転者画像における手キーポイントに基づいて特定した動的ジェスチャーを前記運転者ジェスチャー検出の結果とすることと、を含むことを特徴とする請求項2に記載の方法。
【請求項23】
運転者画像、及び運転者の運転状態監視結果を表示するための表示モジュールと、
前記運転者画像について運転者状態検出を行い、且つ運転者状態検出の結果に基づいて運転者の前記運転状態監視結果を出力するための運転者状態検出モジュールと、を含み、
前記運転者状態検出は、運転者の疲労状態検出、運転者の散漫状態検出、運転者の予定散漫動作検出のいずれか一つ又は複数を含み、
前記運転者の予定散漫動作検出は、
第五ニューラルネットワークを介して、運転者画像について食事動作、水飲み動作、電話かけ動作、または娯楽動作を含む予定散漫動作に対応する予め設定された目標対象の検出を行い、運転者の手の検出ボックスと、口の検出ボックス又は目の検出ボックスの少なくとも一方と、目標物体の検出ボックスとを得ると、
前記手の検出ボックスと前記目標物体の検出ボックスが重なり、前記目標物体のタイプが容器又は食物であり、且つ前記目標物体の検出ボックスと口の検出ボックスが重なることに応じて、食事動作又は水飲み動作が発生したと判定すること、及び/又は、
前記手の検出ボックスと前記目標物体の検出ボックスが重なり、前記目標物体のタイプが電子機器で、且つ前記目標物体の検出ボックスと口の検出ボックスとの最小距離が第一予め設定された距離より短いか、又は前記目標物体の検出ボックスと目の検出ボックスとの最小距離が第二予め設定された距離より短いことに応じて、娯楽動作又は電話かけ動作が発生したと判定すること、を含み、
前記予定散漫動作が発生したと確定された場合、所定時間内における前記予定散漫動作生状況を確定し、散漫程度を特徴付けるための指標のパラメータ値を取得することと、
散漫程度を特徴付けるための前記指標のパラメータ値に基づいて運転者の予定散漫動作検出の結果を確定することと、を更に含み、
前記散漫程度を特徴付けるための前記指標のパラメータ値は、予定散漫動作の回数、予定散漫動作の持続時間及び予定散漫動作の頻度のいずれか一つ又は複数を含むことを特徴とする運転者監視システム。
【請求項24】
前記表示モジュールは、
運転者画像、及び前記運転状態監視結果に対応する提示/警告情報を表示するための第一表示領域と、
予定散漫動作を表示するための第二表示領域と、を含み、
前記運転者状態検出モジュールは更に、前記運転者画像について顔認識を行うために用いられ、
前記第一表示領域は更に、顔認識の結果を表示するために用いられる、及び/又は、
前記運転者状態検出モジュールは更に、前記運転者画像に基づいて運転者ジェスチャー検出を行うために用いられ、
前記表示モジュールは更に、静的ジェスチャー又は動的ジェスチャーを含むジェスチャー検出の結果を表示するための第三表示領域を含むことを特徴とする請求項2に記載のシステム。
【請求項25】
コンピュータプログラムを記憶するためのメモリと、
前記メモリに記憶されたコンピュータプログラムを実行し、且つ前記コンピュータプログラムが実行されるとき、請求項1−2のいずれか一項に記載の方法を実現するためのプロセッサと、を含むことを特徴とする電子機器。
【請求項26】
コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体において、該コンピュータプログラムがプロセッサにより実行されるとき、請求項1−2のいずれか一項に記載の方法を実現することを特徴とするコンピュータ読み取り可能な記憶媒体。
【請求項27】
コンピュータコマンドを含むコンピュータプログラムにおいて、前記コンピュータコマンドが機器のプロセッサにより処理される場合、請求項1−2のいずれか一項に記載の方法を実現することを特徴とするコンピュータプログラム。
【請求項28】
中央制御システムを含む車両において、更に、請求項2または2に記載の運転者監視システムを含み、
前記中央制御システムは、
前記運転者監視システムが出力した運転者状態検出の結果に基づき、スマート運転制御を行い、及び/又は、
前記運転者監視システムが出力した運転状態監視結果が予定運転モード切替条件を満たす場合、運転モードを自動運転モードに切り替え、且つ自動運転モードで前記車両への自動運転制御を行い、及び/又は、
運転状態監視結果が予め設定された提示/警告予定条件を満たす場合、前記車両内の娯楽システム又は前記車両に接続される娯楽システムを呼び出して前記提示/警告予定条件に対応する提示/警告情報を出力するために用いられることを特徴とする車両。
【発明の詳細な説明】
【技術分野】
【0001】
[関連出願の相互参照]
本出願は、2018年4月25日に出願された「運転状態監視方法及び装置、運転者監視システム、並びに車両」と題する出願番号PCT/CN 2018/084526の関連出願であり、当該出願のすべての内容を全体として本願に組み込む。
本出願は、コンピュータ視覚技術に関し、特に運転状態監視方法及び装置、運転者監視システム、並びに車両に関する。
【背景技術】
【0002】
運転者の運転状態は走行安全に深刻に影響するため、できるだけ運転者を良好な運転状態にすべきである。運転者は運転中に携帯電話などの別の事物によって散漫状態になる場合、道路状況を適時に把握できない。
【0003】
運転者の運転状態が悪い場合、判断能力が低下し、ひいては意識混濁又は瞬間記憶消失が発生する可能性があり、それによって運転動作が遅くなりすぎるか又は早くなりすぎ、動作中断又は修正時間が不適切などの危険要因が発生し、道路交通事故が非常に発生しやすい。
【発明の概要】
【0004】
本出願の実施例は運転状態監視の技術的解決手段を提供する。
【0005】
本出願の実施例の一態様によれば、運転状態監視方法を提供し、それは、
運転者画像について運転者状態検出を行うことと、
運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力し及び/又はスマート運転制御を行うことと、を含む。
【0006】
任意選択的に、上記各運転状態監視方法の実施例では、前記運転者状態検出は、運転者の疲労状態検出、運転者の散漫状態検出、運転者の予定散漫動作検出のいずれか一つ又は複数を含む。
【0007】
任意選択的に、上記各運転状態監視方法の実施例では、運転者画像について運転者の疲労状態検出を行うことは、
前記運転者画像における運転者の顔を少なくとも一部の領域を検出し、顔の少なくとも一部の領域の状態情報を取得することと、
所定時間内の前記顔の少なくとも一部の領域の状態情報に基づき、運転者疲労状態を特徴付けるための指標のパラメータ値を取得することと、
運転者疲労状態を特徴付けるための指標のパラメータ値に基づいて運転者疲労状態検出の結果を決定することと、を含み、
前記顔の少なくとも一部の領域の状態情報は、目の開閉状態情報、口の開閉状態情報のいずれか一つ又は複数を含む。
【0008】
任意選択的に、上記各運転状態監視方法の実施例では、運転者疲労状態を特徴付けるための前記指標は、閉目程度、欠伸程度のいずれか一つ又は複数を含む。
【0009】
任意選択的に、上記各運転状態監視方法の実施例では、前記閉目程度のパラメータ値は、閉目回数、閉目頻度、閉目持続時間、閉目幅、半閉目回数、半閉目頻度のいずれか一つ又は複数を含み、及び/又は、
前記欠伸程度のパラメータ値は、欠伸状態、欠伸回数、欠伸持続時間、欠伸頻度のいずれか一つ又は複数を含む。
【0010】
任意選択的に、上記各運転状態監視方法の実施例では、運転者画像について運転者の散漫状態検出を行うことは、
前記運転者画像における運転者の顔向き及び/又は視線方向を検出し、顔向き情報及び/又は視線方向情報を取得することと、
所定時間内の前記顔向き情報及び/又は視線方向情報に基づき、運転者散漫状態を特徴付けるための指標のパラメータ値を特定することと、
前記運転者散漫状態を特徴付けるための指標のパラメータ値に基づいて運転者散漫状態検出の結果を決定することと、を含み、
運転者散漫状態を特徴付けるための前記指標は、顔向きずれ程度、視線ずれ程度のいずれか一つ又は複数を含む。
【0011】
任意選択的に、上記各運転状態監視方法の実施例では、前記顔向きずれ程度のパラメータ値は、振り向き回数、振り向き持続時間、振り向き頻度のいずれか一つ又は複数を含み、及び/又は、
前記視線ずれ程度のパラメータ値は、視線方向ずれ角度、視線方向ずれ時間、視線方向ずれ頻度のいずれか一つ又は複数を含む。
【0012】
任意選択的に、上記各運転状態監視方法の実施例では、運転者画像について顔向き及び/又は視線方向を検出することは、
前記運転者画像の顔キーポイントを検出することと、
前記顔キーポイントに基づいて顔向き及び/又は視線方向を検出することと、を含む。
【0013】
任意選択的に、上記各運転状態監視方法の実施例では、前記顔キーポイントに基づいて顔向きを検出し、顔向き情報を取得するステップは、
前記顔キーポイントに基づいて頭部姿勢の特徴情報を取得することと、
前記頭部姿勢の特徴情報に基づいて顔向き情報を決定することと、を含む。
【0014】
任意選択的に、上記各運転状態監視方法の実施例では、前記顔キーポイントに基づいて頭部姿勢の特徴情報を取得し、前記頭部姿勢の特徴情報に基づいて顔向き情報を取得することは、
第一ニューラルネットワークを介して前記顔キーポイントに基づいて頭部姿勢の特徴情報を抽出することと、
第二ニューラルネットワークを介して前記頭部姿勢の特徴情報に基づいて顔向き推定を行い、顔向き情報を取得することと、を含む。
【0015】
任意選択的に、上記各運転状態監視方法の実施例では、前記顔キーポイントに基づいて視線方向を検出し、視線方向情報を取得することは、
前記顔キーポイントにおける目キーポイントにより位置決めされた目画像に基づいて瞳孔エッジ位置を特定し、且つ前記瞳孔エッジ位置に基づいて瞳孔中心位置を計算することと、
前記瞳孔中心位置及び目中心位置に基づいて前記視線方向情報を計算することと、を含む。
【0016】
任意選択的に、上記各運転状態監視方法の実施例では、前記顔キーポイントにおける目キーポイントにより位置決めされた目画像に基づいて瞳孔エッジ位置を特定することは、
第三ニューラルネットワークを介して前記顔キーポイントにより分割された前記画像中の目領域画像に基づいて瞳孔エッジ位置検出を行い、且つ第三ニューラルネットワークが出力した情報に基づいて瞳孔エッジ位置を取得することを含む。
【0017】
任意選択的に、上記各運転状態監視方法の実施例では、前記予定散漫動作は、喫煙動作、水飲み動作、食事動作、電話かけ動作、娯楽動作のいずれか一つ又は複数を含む。
【0018】
任意選択的に、上記各運転状態監視方法の実施例では、運転者画像について予定散漫動作検出を行うことは、
運転者画像について前記予定散漫動作に対応する目標対象の検出を行い、目標対象の検出ボックスを取得することと、
前記目標対象の検出ボックスに基づき、前記予定散漫動作が発生したか否かを決定することと、を含む。
【0019】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
散漫動作が発生した場合、所定時間内に前記予定散漫動作が発生したか否かを決定した結果を取得し、散漫程度を特徴付けるための指標のパラメータ値を取得することと、
散漫程度を特徴付けるための前記指標のパラメータ値に基づいて運転者の予定散漫動作検出の結果を決定することと、を含む。
【0020】
任意選択的に、上記各運転状態監視方法の実施例では、前記散漫程度のパラメータ値は、予定散漫動作の回数、予定散漫動作の持続時間、予定散漫動作の頻度のいずれか一つ又は複数を含む。
【0021】
任意選択的に、上記各運転状態監視方法の実施例では、前記予定散漫動作が喫煙動作である場合、運転者画像について前記予定散漫動作に対応する目標対象の検出を行い、目標対象の検出ボックスを取得し、前記目標対象の検出ボックスに基づいて、前記予定散漫動作が発生したか否かを決定するステップは、
第四ニューラルネットワークを介して前記運転者画像について顔検出を行い、顔検出ボックスを取得し、且つ前記顔検出ボックスの特徴情報を抽出することと、
前記第四ニューラルネットワークを介して前記顔検出ボックスの特徴情報に基づいて喫煙動作が発生したか否かを決定することと、を含む。
【0022】
任意選択的に、上記各運転状態監視方法の実施例では、前記予定散漫動作が食事動作、水飲み動作、電話かけ動作または娯楽動作動作である場合、運転者画像について前記予定散漫動作に対応する目標対象の検出を行い、目標対象の検出ボックスを取得し、前記目標対象の検出ボックスに基づき、前記予定散漫動作が発生したか否かを決定するステップは、
第五ニューラルネットワークを介して前記運転者画像について前記食事動作、水飲み動作、電話かけ動作または娯楽動作に対応する予め設定された目標対象の検出を行い、予め設定された目標対象の検出ボックスを取得することと、
前記予め設定された目標対象の検出ボックスに基づいて散漫動作の検出結果を決定することと、を含み、
前記予め設定された目標対象は手、口、目、目標物体を含み、前記目標物体は容器、食物、電子機器の一つ又は複数を含み、
前記散漫動作の検出結果は、食事動作、水飲み動作、電話かけ動作または娯楽動作が発生していないこと、食事動作が発生したこと、水飲み動作が発生したこと、電話かけ動作が発生したこと、娯楽動作が発生したことの一つを含む。
【0023】
任意選択的に、上記各運転状態監視方法の実施例では、前記予め設定された目標対象の検出ボックスに基づいて散漫動作の検出結果を決定することは、
手の検出ボックス、口の検出ボックス、目の検出ボックス及び目標物体の検出ボックスを検出したか否か、及び手の検出ボックスと目標物体の検出ボックスが重なるかどうか、前記目標物体のタイプ及び目標物体の検出ボックスと口の検出ボックス又は目の検出ボックスとの距離が予め設定された条件を満たすかどうかに基づき、予定散漫動作の検出結果を決定することを含む。
【0024】
任意選択的に、上記各運転状態監視方法の実施例では、手の検出ボックスと目標物体の検出ボックスが重なるかどうか、及び目標物体の検出ボックスと口の検出ボックス又は目の検出ボックスとの位置関係が予め設定された条件を満たすかどうかに基づき、散漫動作の検出結果を決定することは、
前記手の検出ボックスと前記目標物体の検出ボックスが重なり、前記目標物体のタイプが容器又は食物で、且つ前記目標物体の検出ボックスと口の検出ボックスが重なる場合、食事動作又は水飲み動作が発生したと決定し、及び/又は、
前記手の検出ボックスと前記目標物体の検出ボックスが重なり、前記目標物体のタイプが電子機器で、且つ前記目標物体の検出ボックスと口の検出ボックスとの最小距離が第一予め設定された距離より短いか、又は前記目標物体の検出ボックスと目の検出ボックスとの最小距離が第二予め設定された距離より短い場合、娯楽動作又は電話かけ動作が発生したと決定することを含む。
【0025】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
手の検出ボックス、口の検出ボックス及び任意の前記目標物体の検出ボックスを同時に検出しておらず、且つ手の検出ボックス、目の検出ボックス及び任意の前記目標物体の検出ボックスを同時に検出していない場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定し、及び/又は、
手の検出ボックスと前記目標物体の検出ボックスが重なりない場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定し、及び/又は、
前記目標物体のタイプが容器又は食物で、且つ前記目標物体の検出ボックスと口の検出ボックスが重ならず、及び/又は、前記目標物体のタイプが電子機器で、且つ前記目標物体の検出ボックスと口の検出ボックスとの最小距離が第一予め設定された距離以上であるか、又は前記目標物体の検出ボックスと目の検出ボックスとの最小距離が第二予め設定された距離以上である場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定することを含む。
【0026】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
運転者の予定散漫動作検出の結果は予定散漫動作を検出したことである場合、検出した散漫動作を提示することを含む。
【0027】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
運転者散漫状態検出の結果及び/又は運転者の予定散漫動作検出の結果に基づき、散漫提示情報を出力することを含む。
【0028】
任意選択的に、上記各運転状態監視方法の実施例では、運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力することは、
運転者疲労状態検出の結果、運転者散漫状態検出の結果及び運転者の予定散漫動作検出の結果が満たす予め設定された条件に基づいて運転状態のレベルを決定することと、
決定した運転状態レベルを運転状態監視結果とすることと、を含む。
【0029】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
前記運転状態監視結果に対応する制御動作を実行することを含む。
【0030】
任意選択的に、上記各運転状態監視方法の実施例では、前記運転状態監視結果に対応する制御動作を実行することは、
決定した前記運転状態監視結果が提示/警告予定条件を満たす場合、前記提示/警告予定条件に対応する提示/警告情報を出力すること、及び/又は、
決定した前記運転状態監視結果が予定運転モード切替条件を満たす場合、運転モードを自動運転モードに切り替えることの一つを含む。
【0031】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
前記運転者画像について顔認識を行うことと、
顔認識の結果に基づいて認証制御を行うことと、を含む。
【0032】
任意選択的に、上記各運転状態監視方法の実施例では、前記運転者画像について顔認識を行うことは、
第六ニューラルネットワークを介して前記運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得することと、
前記顔特徴をデータベース内の顔特徴テンプレートとマッチすることと、
前記データベースに前記顔特徴とマッチする顔特徴テンプレートが存在する場合、前記顔特徴とマッチする顔特徴テンプレートに対応する身分情報を出力することと、を含む。
【0033】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
前記データベースに前記顔特徴とマッチする顔特徴テンプレートが存在しない場合、運転者に登録するように促すことと、
受信した運転者の登録要求に応答し、第六ニューラルネットワークを介して収集した運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得することと、
前記顔特徴を前記運転者の顔特徴テンプレートとし、前記データベース内で前記運転者の顔特徴テンプレート及び前記運転者が入力した身分情報を含む前記運転者のユーザ情報を作成することと、を含む。
【0034】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
前記運転状態監視結果を前記データベース内の前記運転者のユーザ情報に記憶することを含む。
【0035】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
赤外線カメラによって画像を収集し、前記運転者画像を取得することを含む。
【0036】
任意選択的に、上記各運転状態監視方法の実施例では、赤外線カメラによって画像を収集することは、
車両内の少なくとも一つの位置に配置された前記赤外線カメラによって画像を収集することを含む。
【0037】
任意選択的に、上記各運転状態監視方法の実施例では、前記少なくとも一つの位置は、ダッシュボードの上方又は近傍位置、センタコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置のいずれか一つ又は複数を含む。
【0038】
任意選択的に、上記各運転状態監視方法の実施例では、更に、
前記運転者画像について運転者ジェスチャー検出を行うことと、
運転者ジェスチャー検出の結果に基づいて制御コマンドを生成することと、を含む。
【0039】
任意選択的に、上記各運転状態監視方法の実施例では、前記運転者画像に基づいて運転者ジェスチャー検出を行うことは、
現在フレームの運転者画像における手キーポイントを検出することと、
検出した手キーポイントに基づいて特定した静的ジェスチャーを前記運転者ジェスチャー検出の結果とすることと、を含む。
【0040】
任意選択的に、上記各運転状態監視方法の実施例では、前記運転者画像に基づいて運転者ジェスチャー検出を行うことは、
運転者動画における複数フレームの運転者画像における手キーポイントを検出することと、
検出した複数フレームの運転者画像における手キーポイントに基づいて特定した動的ジェスチャーを前記運転者ジェスチャー検出の結果とすることと、を含む。
【0041】
本出願の実施例の別の一態様によれば、運転状態監視装置を提供し、それは、
運転者画像について運転者状態検出を行うための状態検出モジュール、
運転者状態検出の結果に基づいて運転者の運転状態監視結果を出力するための出力モジュール、及び/又は
運転者状態検出の結果に基づいてスマート運転制御を行うためのスマート運転制御モジュールを含む。
【0042】
任意選択的に、上記各運転状態監視装置の実施例では、前記運転者状態検出は、運転者の疲労状態検出、運転者の散漫状態検出、運転者の予定散漫動作検出のいずれか一つ又は複数を含む。
【0043】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは運転者画像について運転者疲労状態を検出する時、
前記運転者画像における運転者の顔を少なくとも一部の領域を検出し、顔の少なくとも一部の領域の状態情報を取得し、
所定時間内の前記顔の少なくとも一部の領域の状態情報に基づき、運転者疲労状態を特徴付けるための指標のパラメータ値を取得し、
運転者疲労状態を特徴付けるための指標のパラメータ値に基づいて運転者疲労状態検出の結果を決定するために用いられ、
前記顔の少なくとも一部の領域の状態情報は、目開閉状態情報、口開閉状態情報のいずれか一つ又は複数を含む。
【0044】
任意選択的に、上記各運転状態監視装置の実施例では、運転者疲労状態を特徴付けるための前記指標は、閉目程度、欠伸程度のいずれか一つ又は複数を含む。
【0045】
任意選択的に、上記各運転状態監視装置の実施例では、前記閉目程度のパラメータ値は、閉目回数、閉目頻度、閉目持続時間、閉目幅、半閉目回数、半閉目頻度のいずれか一つ又は複数を含み、及び/又は、
前記欠伸程度のパラメータ値は、欠伸状態、欠伸回数、欠伸持続時間、欠伸頻度のいずれか一つ又は複数を含む。
【0046】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは運転者画像について運転者の散漫状態検出を行う時、
前記運転者画像における運転者の顔向き及び/又は視線方向を検出し、顔向き情報及び/又は視線方向情報を取得し、
所定時間内の前記顔向き情報及び/又は視線方向情報に基づき、運転者散漫状態を特徴付けるための指標のパラメータ値を特定し、
運転者散漫状態を特徴付けるための前記指標のパラメータ値に基づいて運転者散漫状態検出の結果を決定するために用いられ、
運転者散漫状態を特徴付けるための前記指標は、顔向きずれ程度、視線ずれ程度のいずれか一つ又は複数を含む。
【0047】
任意選択的に、上記各運転状態監視装置の実施例では、前記顔向きずれ程度のパラメータ値は、振り向き回数、振り向き持続時間、振り向き頻度のいずれか一つ又は複数を含み、及び/又は、
前記視線ずれ程度のパラメータ値は、視線方向ずれ角度、視線方向ずれ時間、視線方向ずれ頻度のいずれか一つ又は複数を含む。
【0048】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは運転者画像について顔向き及び/又は視線方向を検出する時、前記運転者画像の顔キーポイントを検出し、前記顔キーポイントに基づいて顔向き及び/又は視線方向を検出するために用いられる。
【0049】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは前記顔キーポイントに基づいて顔向きを検出する時、前記顔キーポイントに基づいて頭部姿勢の特徴情報を取得し、及び前記頭部姿勢の特徴情報に基づいて顔向き情報を決定するために用いられる。
【0050】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは前記顔キーポイントに基づいて頭部姿勢の特徴情報を取得し、前記頭部姿勢の特徴情報に基づいて顔向き情報を決定する時、第一ニューラルネットワークを介して前記顔キーポイントに基づいて頭部姿勢の特徴情報を抽出し、第二ニューラルネットワークを介して前記頭部姿勢の特徴情報に基づいて顔向き推定を行い、顔向き情報を取得するために用いられる。
【0051】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは前記顔キーポイントに基づいて視線方向を検出する時、前記顔キーポイントにおける目キーポイントにより位置決めされた目画像に基づいて瞳孔エッジ位置を特定し、且つ前記瞳孔エッジ位置に基づいて瞳孔中心位置を計算し、及び前記瞳孔中心位置及び目中心位置に基づいて前記視線方向情報を計算するために用いられる。
【0052】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは前記顔キーポイントにおける目キーポイントにより位置決めされた目画像に基づいて瞳孔エッジ位置を特定する時、第三ニューラルネットワークを介して前記顔キーポイントにより分割された前記画像中の目領域画像について瞳孔エッジ位置検出を行い、且つ第三ニューラルネットワークが出力した情報に基づいて瞳孔エッジ位置を取得するために用いられる。
【0053】
任意選択的に、上記各運転状態監視装置の実施例では、前記予定散漫動作は、喫煙動作、水飲み動作、食事動作、電話かけ動作、娯楽動作のいずれか一つ又は複数を含む。
【0054】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは運転者画像について予定散漫動作検出を行う時、運転者画像について前記予定散漫動作に対応する目標対象の検出を行い、目標対象の検出ボックスを取得し、及び前記目標対象の検出ボックスに基づき、前記予定散漫動作が発生したか否かを決定するために用いられる。
【0055】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは更に、予定散漫動作が発生した場合、所定時間内に前記予定散漫動作が発生したか否かを決定した結果に基づき、散漫程度を特徴付けるための指標のパラメータ値を取得し、及び散漫程度を特徴付けるための前記指標のパラメータ値に基づいて運転者の予定散漫動作検出の結果を決定するために用いられる。
【0056】
任意選択的に、上記各運転状態監視装置の実施例では、前記散漫程度のパラメータ値は、予定散漫動作の回数、予定散漫動作の持続時間、予定散漫動作の頻度のいずれか一つ又は複数を含む。
【0057】
任意選択的に、上記各運転状態監視装置の実施例では、前記予定散漫動作が喫煙動作である場合、前記状態検出モジュールは運転者画像について予定散漫動作検出を行う時、第四ニューラルネットワークを介して前記運転者画像について顔検出を行い、顔検出ボックスを取得し、且つ前記顔検出ボックスの特徴情報を抽出し、及び前記第四ニューラルネットワークを介して前記顔検出ボックスの特徴情報に基づいて喫煙動作が発生したか否かを決定するために用いられる。
【0058】
任意選択的に、上記各運転状態監視装置の実施例では、前記予定散漫動作が食事動作、水飲み動作、電話かけ動作または娯楽動作動作である場合、前記状態検出モジュールは運転者画像について予定散漫動作検出を行う時、第五ニューラルネットワークを介して前記運転者画像について前記食事動作、水飲み動作、電話かけ動作または娯楽動作に対応する予め設定された目標対象の検出を行い、予め設定された目標対象の検出ボックスを取得し、及び前記予め設定された目標対象の検出ボックスに基づいて散漫動作の検出結果を決定するために用いられ、前記予め設定された目標対象は手、口、目、目標物体を含み、前記目標物体は容器、食物、電子機器のいずれか一つ又は複数を含み、前記散漫動作の検出結果は、食事動作、水飲み動作、電話かけ動作または娯楽動作が発生していないこと、食事動作が発生したこと、水飲み動作が発生したこと、電話かけ動作が発生したこと、娯楽動作が発生ことの一つを含む。
【0059】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは前記予め設定された目標対象の検出ボックスに基づいて散漫動作の検出結果を決定する時、手の検出ボックス、口の検出ボックス、目の検出ボックス及び目標物体の検出ボックスを検出したか否か、及び手の検出ボックスと目標物体の検出ボックスが重なるかどうか、前記目標物体のタイプ及び目標物体の検出ボックスと口の検出ボックス又は目の検出ボックスとの距離が予め設定された条件を満たすかどうかに基づき、予定散漫動作の検出結果を決定するために用いられる。
【0060】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは手の検出ボックスと目標物体の検出ボックスが重なるかどうか、及び目標物体の検出ボックスと口の検出ボックス又は目の検出ボックスとの位置関係が予め設定された条件を満たすかどうかに基づき、散漫動作の検出結果を決定する時、
前記手の検出ボックスと前記目標物体の検出ボックスが重なり、前記目標物体のタイプが容器又は食物で、且つ前記目標物体の検出ボックスと口の検出ボックスが重なる場合、食事動作又は水飲み動作が発生したと決定し、及び/又は、
前記手の検出ボックスと前記目標物体の検出ボックスが重なり、前記目標物体のタイプが電子機器で、且つ前記目標物体の検出ボックスと口の検出ボックスとの最小距離が第一予め設定された距離より短いか、又は前記目標物体の検出ボックスと目の検出ボックスとの最小距離が第二予め設定された距離より短い場合、娯楽動作又は電話かけ動作が発生したと決定するために用いられる。
【0061】
任意選択的に、上記各運転状態監視装置の実施例では、前記状態検出モジュールは更に、
手の検出ボックス、口の検出ボックス及び任意の前記目標物体の検出ボックスを同時に検出しておらず、且つ手の検出ボックス、目の検出ボックス及び任意の前記目標物体の検出ボックスを同時に検出していない場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定し、及び/又は、
手の検出ボックスと前記目標物体の検出ボックスが重なりない場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定し、及び/又は、
前記目標物体のタイプが容器又は食物で、且つ前記目標物体の検出ボックスと口の検出ボックスが重ならず、及び/又は、前記目標物体のタイプが電子機器で、且つ前記目標物体の検出ボックスと口の検出ボックスとの最小距離が第一予め設定された距離以上であるか、又は前記目標物体の検出ボックスと目の検出ボックスとの最小距離が第二予め設定された距離以上である場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定するために用いられる。
【0062】
任意選択的に、上記各運転状態監視装置の実施例では、更に、
運転者の予定散漫動作検出の結果は予定散漫動作を検出したことである場合、検出した散漫動作を提示するための第一提示モジュールを含む。
【0063】
任意選択的に、上記各運転状態監視装置の実施例では、更に、
運転者散漫状態検出の結果及び/又は運転者の予定散漫動作検出の結果に基づき、散漫提示情報を出力するための第二提示モジュールを含む。
【0064】
任意選択的に、上記各運転状態監視装置の実施例では、前記出力モジュールは運転者状態検出の結果に基づいて運転者の運転状態監視結果を出力する時、運転者疲労状態検出の結果、運転者散漫状態検出の結果及び運転者の予定散漫動作検出の結果が満たす予め設定された条件に基づいて運転状態のレベルを決定し、及び決定した運転状態レベルを運転状態監視結果とするために用いられる。
【0065】
任意選択的に、上記各運転状態監視装置の実施例では、更に、
前記運転状態監視結果に対応する制御動作を実行するための第一制御モジュールを含む。
【0066】
任意選択的に、上記各運転状態監視装置の実施例では、前記第一制御モジュールは、
決定した前記運転状態監視結果が提示/警告予定条件を満たす場合、前記提示/警告予定条件に対応する提示/警告情報を出力し、及び/又は、
決定した前記運転状態監視結果が予定運転モード切替条件を満たす場合、運転モードを自動運転モードに切り替えるために用いられる。
【0067】
任意選択的に、上記各運転状態監視装置の実施例では、更に、
前記運転者画像について顔認識を行うための顔認識モジュールと、
顔認識の結果に基づいて認証制御を行うための第二制御モジュールと、を含む。
【0068】
任意選択的に、上記各運転状態監視装置の実施例では、前記顔認識モジュールは、第六ニューラルネットワークを介して前記運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得し、前記顔特徴をデータベース内の顔特徴テンプレートとマッチし、及び前記データベースに前記顔特徴とマッチする顔特徴テンプレートが存在する場合、前記顔特徴とマッチする顔特徴テンプレートに対応する身分情報を出力するために用いられる。
【0069】
任意選択的に、上記各運転状態監視装置の実施例では、前記第二制御モジュールは更に、
前記データベースに前記顔特徴とマッチする顔特徴テンプレートが存在しない場合、運転者に登録するように促し、及び前記顔認識モジュールが送信した顔特徴を前記運転者の顔特徴テンプレートとし、前記データベース内で前記運転者の顔特徴テンプレート及び前記運転者が入力した身分情報を含む前記運転者のユーザ情報を作成するために用いられ、
前記顔認識モジュールは更に、受信した運転者の登録要求に応答し、第六ニューラルネットワークを介して収集した運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得し且つ前記第二制御モジュールに送信するために用いられる。
【0070】
任意選択的に、上記各運転状態監視装置の実施例では、前記出力モジュールは更に、前記運転状態監視結果を前記データベース内の前記運転者のユーザ情報に記憶するために用いられる。
【0071】
任意選択的に、上記各運転状態監視装置の実施例では、更に、
車両内の少なくとも一つの対応する位置に配置され、画像を収集し、前記運転者画像を取得するための少なくとも一つの赤外線カメラを含む。
【0072】
任意選択的に、上記各運転状態監視装置の実施例では、前記少なくとも一つの位置は、ダッシュボードの上方又は近傍位置、センタコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置のいずれか一つ又は複数を含む。
【0073】
任意選択的に、上記各運転状態監視装置の実施例では、更に、
前記運転者画像に基づいて運転者ジェスチャー検出を行うためのジェスチャー検出モジュールと、
運転者ジェスチャー検出の結果に基づいて制御コマンドを生成するためのコマンド生成モジュールと、を含む。
【0074】
任意選択的に、上記各運転状態監視装置の実施例では、前記ジェスチャー検出モジュールは、現在フレームの運転者画像における手キーポイントを検出し、及び検出した手キーポイントに基づいて特定した静的ジェスチャーを前記運転者ジェスチャー検出の結果とするために用いられる。
【0075】
任意選択的に、上記各運転状態監視装置の実施例では、前記ジェスチャー検出モジュールは、運転者動画における複数フレームの運転者画像の手キーポイントを検出し、及び検出した複数フレームの運転者画像の手キーポイントに基づいて特定した動的ジェスチャーを前記運転者ジェスチャー検出の結果とするために用いられる。
【0076】
本出願の実施例の更に別の一態様によれば、運転者監視システムを提供し、それは、
運転者画像、及び運転者の運転状態監視結果を表示するための表示モジュールと、
前記運転者画像について運転者状態検出を行い、且つ運転者状態検出の結果に基づいて運転者の前記運転状態監視結果を出力するための運転者状態検出モジュールと、を含み、
前記運転者状態検出は、運転者の疲労状態検出、運転者の散漫状態検出、運転者の予定散漫動作検出のいずれか一つ又は複数を含む。
【0077】
任意選択的に、上記各運転者監視システムの実施例では、前記表示モジュールは、
運転者画像、及び前記運転状態監視結果に対応する提示/警告情報を表示するための第一表示領域と、
予定散漫動作を表示するための第二表示領域と、を含む。
【0078】
任意選択的に、上記各運転者監視システムの実施例では、前記運転者状態検出モジュールは更に、前記運転者画像について顔認識を行うために用いられ、
前記第一表示領域は更に、顔認識の結果を表示するために用いられる。
【0079】
任意選択的に、上記各運転者監視システムの実施例では、前記運転者状態検出モジュールは更に、前記運転者画像に基づいて運転者ジェスチャー検出を行うために用いられ、
前記表示モジュールは更に、静的ジェスチャー又は動的ジェスチャーを含むジェスチャー検出の結果を表示するための第三表示領域を含む。
【0080】
本出願の実施例の更に別の一態様によれば、電子機器を提供し、それは、
コンピュータプログラムを記憶するためのメモリと、
前記メモリに記憶されたコンピュータプログラムを実行し、且つ前記コンピュータプログラムが実行される時、本出願の上記いずれかの実施例に係る運転状態監視方法を実現するためのプロセッサと、を含む。
【0081】
本出願の実施例の更に別の一態様によれば、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を提供し、該コンピュータプログラムがプロセッサにより実行される時、本出願の上記いずれかの実施例に係る運転状態監視方法を実現する。
【0082】
本出願の実施例の更に別の一態様によれば、コンピュータコマンドを含むコンピュータプログラムを提供し、前記コンピュータコマンドが機器のプロセッサ内で動作する時、本出願の上記いずれかの実施例に係る運転状態監視方法を実現する。
【0083】
本出願の実施例の更に別の一態様によれば、中央制御システムを含む車両を提供し、それは更に、本出願の上記いずれかの実施例に記載の運転状態監視装置、又は本出願の上記いずれかの実施例に記載の運転者監視システムを含む。
【0084】
任意選択的に、上記各車両の実施例では、前記中央制御システムは、
前記運転状態監視装置又は前記運転者監視システムが出力した運転者状態検出の結果に基づき、スマート運転制御を行い、及び/又は、
前記運転状態監視装置又は前記運転者監視システムが出力した運転状態監視結果が予定運転モード切替条件を満たす場合、運転モードを自動運転モードに切り替え、且つ自動運転モードで前記車両への自動運転制御を行い、及び/又は、
運転状態監視結果が予め設定された提示/警告予定条件を満たす場合、前記車両内の娯楽システム又は前記車両に接続される娯楽システムを呼び出して前記提示/警告予定条件に対応する提示/警告情報を出力するために用いられる。
【0085】
任意選択的に、上記各車両の実施例では、前記中央制御システムは更に、前記運転状態監視装置又は前記運転者監視システムが出力したジェスチャー検出の結果による制御コマンドに従って、対応する制御を前記車両にかけるために用いられる。
【0086】
任意選択的に、上記各車両の実施例では、前記中央制御システムは更に、手動運転に切り替えるための運転コマンドを受信した時、運転モードを手動運転モードに切り替えるために用いられる。
【0087】
任意選択的に、上記各車両の実施例では、更に、
前記中央制御システムの制御コマンドに従って、前記提示/警告予定条件に対応する提示/警告情報を出力し、及び/又は、前記中央制御システムの制御コマンドに従って、提示/警告情報の警告効果、又は娯楽項目の再生効果を調整するための娯楽システムを含む。
【0088】
任意選択的に、上記各車両の実施例では、更に、
画像を収集するための少なくとも一つの赤外線カメラを含む。
【0089】
任意選択的に、上記各車両の実施例では、前記赤外線カメラが前記車両内の少なくとも一つの位置に配置され、前記少なくとも一つの位置は、ダッシュボードの上方又は近傍位置、センタコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置のいずれか一つ又は複数を含む。
【0090】
本出願の上記実施例が提供する運転状態監視方法及び装置、運転者監視システム、車両、電子機器、プログラム並びに媒体に基づき、運転者画像について運転者状態検出を行い、運転者状態検出の結果に基づいて運転者の運転状態監視結果を出力し、それにより運転者の運転状態に対するリアルタイム監視を実現し、更に運転者の運転状態が悪い時に対応する措置を適時に取り、運転安全を保証し、道路交通事故を回避することができる。
【0091】
以下に図面と実施例を関連付けて、本出願の技術的解決手段を更に詳細に記述する。
【図面の簡単な説明】
【0092】
明細書の一部を構成する図面は本出願の実施例を記述し、且つその記述と併せて本出願の原理を説明するために用いられる。
【0093】
図面を参照しながら、以下の詳細な記述に基づき、本出願をより明確に理解できる。
【0094】
図1】本出願に係る運転状態監視方法の一実施例のフローチャートである。
図2】本出願の実施例のうちの運転者画像について運転者疲労状態を検出する一実施例のフローチャートである。
図3】本出願の実施例のうちの運転者画像について運転者の散漫状態検出を行う一実施例のフローチャートである。
図4】本出願の実施例のうちの運転者画像について予定散漫動作検出を行う一実施例のフローチャートである。
図5】本出願に係る運転状態監視方法の別の実施例のフローチャートである。
図6】本出願に係る運転状態監視装置の一実施例の構成模式図である。
図7】本出願に係る運転状態監視装置の別の実施例の構成模式図である。
図8】本出願に係る運転者監視システムの一実施例の構成模式図である。
図9】本出願に係る運転者監視システムにおける表示モジュールの表示領域の一実施例の構成模式図である。
図10】本出願に係る車両の一実施例の構成模式図である。
図11】本出願に係る電子機器の一応用例の構成模式図である。
【発明を実施するための形態】
【0095】
以下に図面を参照しながら本出願の様々な例示的な実施例を詳細に記述する。注意すべきは、特に断らない限り、これらの実施例において記述した部品及びステップの相対的な配置、数式及び数値が本出願の範囲に限定されないということである。
【0096】
同時に、理解すべきは、説明の便宜上、図面に示す各部分の寸法が実際の比例関係に基づいて描画されるものではないということである。
【0097】
以下の少なくとも一つの例示的な実施例に対する記述は実際に説明的なものに過ぎず、本出願及びその応用又は使用を何ら限定するものではない。
【0098】
当業者に既知の技術、方法及び機器は詳細に検討しない場合があるが、適当な場合、前記技術、方法及び機器は明細書の一部と見なすべきである。
【0099】
注意すべきは、類似する記号及び文字が以下の図面において類似項を表し、従って、ある図面においていずれか一項が定義されると、後続の図面ではそれを更に検討する必要がないということである。
【0100】
本出願の実施例は端末機器、コンピュータシステム、サーバなどの電子機器に用いることができ、それは他の様々な汎用又は専用計算システム環境又は構成と共に動作可能である。端末機器、コンピュータシステム、サーバなどの電子機器との共用に適する端末機器、計算システム、環境及び/又は構成の例は、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、ファットクライアント、手持ち又はラップトップ機器、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費電子製品、ネットワークパーソナルコンピュータ、小型コンピュータシステム?大型コンピュータシステム及び上記あらゆるシステムを含む分散型クラウドコンピューティング技術環境などを含むが、これらに限定されない。
【0101】
端末機器、コンピュータシステム、サーバなどの電子機器はコンピュータシステムが実行するコンピュータシステム実行可能コマンド(例えばプログラムモジュール)の一般的なコンテキストで記述できる。通常、プログラムモジュールは、特定のタスク又は特定の抽象データタイプを実行するルーチン、プログラム、目標プログラム、コンポーネント、ロジック、データ構造などを含んでもよい。コンピュータシステム/サーバは、タスクが通信ネットワークにわたってリンクされる遠隔処理機器により実行される分散型クラウドコンピューティング環境で実施してもよい。分散型クラウドコンピューティング環境において、プログラムモジュールは記憶機器を含むローカル又は遠隔計算システム記憶媒体に存在してもよい。
【0102】
図1は本出願に係る運転状態監視方法の一実施例のフローチャートである。本出願の実施例に係る運転状態監視方法は装置(本出願の実施例では運転状態監視装置と称する)又はシステム(本出願の実施例では運転者監視システムと称する)によって実現可能である。図1に示すように、該実施例の運転状態監視方法は以下を含む。
【0103】
102、運転者画像について運転者状態検出を行う。
【0104】
任意選択的な一例では、該動作102はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される状態検出モジュールによって実行されてもよい。
【0105】
104、運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力し及び/又はスマート運転制御を行う。
【0106】
いくつかの実施形態では、該動作104で、運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力してもよい。
【0107】
いくつかの実施形態では、該動作104で、運転者状態検出の結果に基づき、車両に対するスマート運転制御を行ってもよい。
【0108】
いくつかの実施形態では、該動作104で、運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力するとともに車両に対するスマート運転制御を行うようにしてもよい。
【0109】
いくつかの実施形態では、該動作104で、運転者の運転状態監視結果を出力するステップは、ローカルで運転状態監視結果を出力し及び/又は遠隔で運転状態監視結果を出力することを含んでもよい。ここで、ローカルで運転状態監視結果を出力することは、即ち運転状態監視装置又は運転者監視システムによって運転状態監視結果を出力するか、又は車両内の中央制御システムへ運転状態監視結果を出力し、それによって車両は該運転状態監視結果に基づいて車両に対するスマート運転制御を行うことである。遠隔で運転状態監視結果を出力することは、例えばクラウドサーバ又は管理ノードへ運転状態監視結果を送信し、それによってクラウドサーバ又は管理ノードは運転者の運転状態監視結果を収集し、分析し及び/又は管理するか、又は該運転状態監視結果に基づいて車両に対する遠隔制御を行うことであってもよい。
【0110】
任意選択的な一例では、該動作104はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される出力モジュール及び/又はスマート運転制御モジュールによって実行してもよい。
【0111】
任意選択的な一例では、上記動作102−104はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される運転者状態検出モジュールによって実行してもよい。
【0112】
いくつかの実施形態では、運転者状態検出は、例えば運転者の疲労状態検出、運転者の散漫状態検出、運転者の予定散漫動作検出のいずれか一つ又は複数を含んでもよいが、これらに限定されない。それに応じて、運転者状態検出の結果は、運転者疲労状態検出の結果、運転者散漫状態検出の結果、運転者の予定散漫動作検出の結果のいずれか一つ又は複数を含むが、これらに限定されない。
【0113】
本出願の実施例における予定散漫動作は、例えば喫煙動作、水飲み動作、食事動作、電話かけ動作、娯楽動作などの運転者の注意力を分散させるいかなる散漫動作であってもよい。ここで、食事動作は例えば果物、スナックなどの食物を食べる動作で、娯楽動作は例えばメッセージを送信し、ゲームをプレイし、カラオケを歌うなどの電子機器によって実行する動作である。電子機器は例えば携帯電話端末、ポケットコンピュータ、ゲーム機などである。
【0114】
本出願の上記実施例が提供する運転状態監視方法に基づき、運転者画像について運転者状態検出を行い、運転者状態検出の結果に基づいて運転者の運転状態監視結果を出力し、それにより運転者の運転状態に対するリアルタイム監視を実現し、更に運転者の運転状態が悪い時に対応する措置を適時に取り、運転安全を保証し、道路交通事故を回避することができる。
【0115】
図2は本出願の実施例のうちの運転者画像について運転者疲労状態を検出する一実施例のフローチャートである。任意選択的な一例では、該図2が示す実施例はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される状態検出モジュールによって実行してもよい。図2に示すように、いくつかの実施形態では、運転者画像について運転者疲労状態を検出するステップは以下を含む。
【0116】
202、運転者画像における運転者の顔を少なくとも一部の領域を検出し、顔の少なくとも一部の領域の状態情報を取得する。
【0117】
任意選択的な一例では、上記顔の少なくとも一部の領域は、運転者顔の目領域、運転者顔の口領域及び運転者顔の全領域などの少なくとも一つを含んでもよい。ここで、該顔の少なくとも一部の領域の状態情報は、目開閉状態情報、口開閉状態情報のいずれか一つ又は複数を含んでもよい。
【0118】
上記目開閉状態情報は、例えば検出運転者が目を半分閉じているかどうか("半"は例えば居眠り状態での閉目など完全な閉目状態でないことを表す)、目を閉じているかどうか、閉目の回数、閉目幅など運転者の閉目を検出するために用いることができる。目開閉状態情報は任意選択的に目の開き高さを正規化処理した情報であってもよい。上記口開閉状態情報は例えば運転者が欠伸したか否か、欠伸の回数など運転者の欠伸を検出するために用いることができる。口開閉状態情報は任意選択的に口の開き高さを正規化処理した情報であってもよい。
【0119】
任意選択的な一例では、運転者画像について顔キーポイントを検出し、検出した顔キーポイントにおける目キーポイントを直接利用して計算し、それにより計算結果に基づいて目開閉状態情報を取得するようにしてもよい。
【0120】
任意選択的な一例では、まず顔キーポイントにおける目キーポイント(例えば、目キーポイントの運転者画像における座標情報)を利用して運転者画像における目を位置決めし、目画像を取得し、且つ該目画像を利用して上眼瞼線及び下眼瞼線を取得し、上眼瞼線と下眼瞼線との間隔を計算することで、目開閉状態情報を取得するようにしてもよい。
【0121】
任意選択的な一例では、顔キーポイントにおける口キーポイントを直接利用して計算し、それにより計算結果に基づいて口開閉状態情報を取得するようにしてもよい。
【0122】
任意選択的な一例では、まず顔キーポイントにおける口キーポイント(例えば、口キーポイントの運転者画像における座標情報)を利用して運転者画像における口を位置決めし、切取などの方式で口画像を取得し、且つ該口画像を利用して上唇線及び下唇線を取得し、上唇線と下唇線との間隔を計算することで、口開閉状態情報を取得するようにしてもよい。
【0123】
所定時間内に収集した複数フレームの運転者画像に動作202を実行し、該所定時間内の複数の顔の少なくとも一部の領域の状態情報を取得する。
【0124】
204、所定時間内の顔の少なくとも一部の領域の状態情報に基づき、運転者疲労状態を特徴付けるための指標のパラメータ値を取得する。
【0125】
いくつかの任意選択的な例では、運転者疲労状態を特徴付けるための指標は例えば閉目程度、欠伸程度のいずれか一つ又は複数を含んでもよいが、これらに限定されない。
【0126】
ここで、閉目程度のパラメータ値は例えば閉目回数、閉目頻度、閉目持続時間、閉目幅、半閉目回数、半閉目頻度のいずれか一つ又は複数を含んでもよいが、これらに限定されず、及び/又は、欠伸程度のパラメータ値は例えば欠伸状態、欠伸回数、欠伸持続時間、欠伸頻度のいずれか一つ又は複数を含んでもよいが、これらに限定されない。
【0127】
206、上記運転者疲労状態を特徴付けるための指標のパラメータ値に基づいて運転者疲労状態検出の結果を決定する。
【0128】
上記運転者疲労状態検出の結果は、疲労状態及び疲労運転状態を検出していないことを含んでもよい。又は、上記運転者疲労状態検出の結果は疲労運転程度であってもよく、ここで、疲労運転程度は正常運転レベル(非疲労運転レベルと称してもよい)及び疲労運転レベルを含んでもよく、疲労運転レベルは一つのレベルであってもよく、複数の異なるレベルに分けてもよく、例えば、上記疲労運転レベルは疲労運転提示レベル(軽度疲労運転レベルと称してもよい)及び疲労運転警告レベル(重度疲労運転レベルと称してもよい)に分けてもよく、当然、疲労運転程度は例えば、軽度疲労運転レベル、中度疲労運転レベル及び重度疲労運転レベルなどより多くのレベルに分けてもよい。本出願は疲労運転程度が含む様々なレベルを限定しない。
【0129】
任意選択的な一例では、疲労運転程度が含む各レベルは予め設定された条件にそれぞれ対応し、運転者疲労状態を特徴付けるための指標のパラメータ値が満たす予め設定された条件に対応するレベルを疲労運転程度として決定できる。
【0130】
任意選択的な一例では、正常運転レベル(非疲労運転レベルと称してもよい)に対応する予め設定された条件は、
半閉目及び閉目の現象が存在しない条件20aと、
欠伸の現象が存在しない条件20bと、を含んでもよく、
上記条件20a、条件20bを同時に満たす場合、運転者は現在正常運転レベル(非疲労運転レベルと称してもよい)にある。
【0131】
任意選択的な一例では、疲労運転提示レベルに対応する予め設定された条件は、
半閉目の現象が存在する条件20cと、
欠伸の現象が存在する条件20dと、を含んでもよく、
上記条件20c、条件20dのいずれかを満たす場合、運転者は現在疲労運転提示レベルにある。
【0132】
任意選択的な一例では、疲労運転警告レベルに対応する予め設定された条件は、
閉目の現象が存在するか又は所定時間内の閉目回数が予め設定された回数に達するか又は所定時間内の閉目時間が予め設定された時間に達する条件20dと、
所定時間内の欠伸回数が予め設定された回数に達する条件20eと、を含んでもよく、
上記条件20d、条件20eのいずれかを満たす場合、運転者は現在疲労運転警告レベルにある。
【0133】
図3は本出願の実施例のうちの運転者画像について運転者の散漫状態検出を行う一実施例のフローチャートである。任意選択的な一例では、該図3が示す実施例はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される状態検出モジュールによって実行してもよい。図3に示すように、いくつかの実施形態では、運転者画像について運転者の散漫状態検出を行うステップは以下を含んでもよい。
【0134】
302、運転者画像について顔向き及び/又は視線方向を検出し、顔向き情報及び/又は視線方向情報を取得する。
【0135】
ここで、顔向き情報は例えば運転者が顔を横に向けるかどうか又は振り返るかどうかなど運転者の顔方向が正常であるかどうかを決定するために用いることができる。顔向き情報は任意選択的に運転者顔の正面前方と運転者が運転する車両の正面前方との夾角であってもよい。上記視線方向情報は例えば運転者が前方を見ているかどうかなど運転者の視線方向が正常であるかどうか、及び運転者の視線がずれたかどうかを決定するために用いることができる。視線方向情報は任意選択的に運転者の視線と運転者が運転する車両の正面前方との夾角であってもよい。
【0136】
304、所定時間内の運転者の顔向き情報及び/又は視線方向情報に基づき、運転者散漫状態を特徴付けるための指標のパラメータ値を特定する。
【0137】
ここで、運転者の散漫状態を特徴付けるための指標は、例えば顔向きずれ程度、視線ずれ程度のいずれか一つ又は複数を含んでもよいが、これらに限定されない。いくつかの任意選択的な例では、顔向きずれ程度のパラメータ値は例えば振り向き回数、振り向き持続時間、振り向き頻度のいずれか一つ又は複数を含んでもよいが、これらに限定されず、及び/又は、視線ずれ程度のパラメータ値は例えば視線方向ずれ角度、視線方向ずれ時間、視線方向ずれ頻度のいずれか一つ又は複数を含んでもよいが、これらに限定されない。
【0138】
上記視線ずれ程度は例えば、視線がずれたかどうか及び視線が大幅にずれたかどうかなどの少なくとも一つを含んでもよく、上記顔向きずれ程度(顔を横に向ける程度又は振り返る程度と称してもよい)は例えば、振り向いたかどうか、短時間振り向いたかどうか及び長時間振り向いたかどうかの少なくとも一つを含んでもよい。
【0139】
任意選択的な一例では、顔向き情報が第一向きより大きく、且つ第一向きより大きいという現象がN1フレーム(例えば、9フレーム又は10フレーム持続したなど)持続したと決定した場合、運転者に長時間大角度の振り向き現象が一回発生したと決定し、それを一回の長時間大角度の振り向きとして記録してもよく、また今回の振り向き時間を記録してもよく、顔向き情報が第一向き以下で、第二向きより大きく、且つ第一向き以下で、第二向きより大きいという現象がN1フレーム(例えば、9フレーム又は10フレーム持続したなど)持続したと決定した場合、運転者に長時間小角度の振り向き現象が一回発生した決定し、それを一回の小角度振り向きずれとして記録してもよく、また今回の振り向き時間を記録してもよい。
【0140】
任意選択的な一例では、視線方向情報と自動車の正面前方との夾角が第一夾角より大きく、且つ第一夾角より大きいという現象がN2フレーム(例えば、8フレーム又は9フレーム持続したなど)持続したと決定した場合、運転者に視線の大幅ずれ現象が一回発生したと決定し、それを一回の視線大幅ずれとして記録してもよく、また今回の視線大幅ずれ時間を記録してもよく、視線方向情報と自動車の正面前方との夾角が第一夾角以下で、第二夾角より大きく、且つ第一夾角以下で、第二夾角より大きいという現象がN2フレーム(例えば、9フレーム又は10フレーム持続したなど)持続したと決定した場合、運転者に視線ずれ現象が一回発生したと決定し、それを一回の視線ずれとして記録してもよく、また今回の視線ずれ時間を記録してもよい。
【0141】
任意選択的な一例では、上記第一向き、第二向き、第一夾角、第二夾角、N1及びN2の値は実際の状況に応じて設定してもよく、本出願は値の大きさを限定しない。
【0142】
306、運転者散漫状態を特徴付けるための指標のパラメータ値に基づいて運転者散漫状態検出の結果を決定する。
【0143】
ここで、運転者散漫状態検出の結果は例えば、運転者の注意力が集中していること(運転者の注意力が分散していない)、運転者の注意力が分散していることを含んでもよく、又は、運転者散漫状態検出の結果は運転者の注意力分散レベルにしてもよく、例えば運転者の注意力が集中していること(運転者の注意力が分散していない)、運転者の注意力が軽度で分散していること、運転者の注意力が中度で分散していること、運転者の注意力が重度で分散していることなどを含んでもよい。運転者の注意力分散レベルは運転者散漫状態を特徴付けるための指標のパラメータ値が満たす予め設定された条件に基づいて特定できる。例えば、視線方向ずれ角度及び顔向きずれ角度が第一予め設定された角度より小さい場合、運転者の注意力分散レベルは運転者の注意力が集中しているレベルとなり、視線方向ずれ角度及び顔向きずれ角度のいずれかが予め設定された角度以上で、且つ持続時間が第一予め設定された時間以下で、且つ第二予め設定された時間より短い場合には、運転者の注意力が軽度で分散しているレベルとなり、視線方向ずれ角度及び顔向きずれ角度のいずれかが予め設定された角度以上で、且つ持続時間が第二予め設定された時間以下で、且つ第三予め設定された時間より短い場合には、運転者の注意力が中度で分散しているレベルとなり、視線方向ずれ角度及び顔向きずれ角度のいずれかが予め設定された角度以上で、且つ持続時間が第三予め設定された時間以上である場合には、運転者の注意力が重度で分散しているレベルとなる。
【0144】
本実施例は運転者画像の顔向き及び/又は視線方向を検出することで運転者散漫状態を特徴付けるための指標のパラメータ値を特定し、且つこれに基づいて運転者散漫状態検出の結果を決定し、更に運転者が運転に集中しているかどうかを決定し、運転者散漫状態の指標を数値化することで、運転集中程度を視線ずれ程度及び振り向き程度の指標の少なくとも一つとして数値化し、運転者の運転集中状態の適時且つ客観的な評価に寄与する。
【0145】
いくつかの実施形態では、動作302で運転者画像について顔向き及び/又は視線方向を検出するステップは、
運転者画像の顔キーポイントを検出することと、
顔キーポイントに基づいて顔向き及び/又は視線方向を検出することと、を含んでもよい。
【0146】
顔キーポイントに通常頭部姿勢特徴情報が含まれるため、いくつかの任意選択的な例では、顔キーポイントに基づいて顔向きを検出し、顔向き情報を取得するステップは、顔キーポイントに基づいて頭部姿勢の特徴情報を取得し、頭部姿勢の特徴情報に基づいて顔向き(頭部姿勢と称してもよい)情報を特定することを含み、ここでの顔向き情報は例えば顔の回転方向及び角度を表すものであってもよく、回転方向は左回転、右回転、下回転及び/又は上回転などであってもよい。
【0147】
任意選択的な一例では、顔向きに基づいて運転者が運転に集中しているかどうかを決定してもよい。顔向き(頭部姿勢)は(yaw,pitch)として表してもよく、ここで、yawは頭部の正規化球座標(カメラが存在するカメラ座標系)における水平偏向角度(ヨー角)及び垂直偏向角度(ピッチ角)をそれぞれ表す。水平偏向角及び/又は垂直偏向角が一つの予め設定された角度閾値より大きく、且つ持続時間が一つの予め設定された時間閾値より長い場合、運転者散漫状態検出の結果は注意力が集中していないことであると決定できる。
【0148】
任意選択的な一例では、対応するニューラルネットワークを利用して各運転者画像の顔向き情報を取得してよい。例えば、上記検出した顔キーポイントを第一ニューラルネットワークに入力し、第一ニューラルネットワークを介して受信した顔キーポイントに基づいて頭部姿勢の特徴情報を抽出し且つ第二ニューラルネットワークに入力し、第二ニューラルネットワークを介して該頭部姿勢の特徴情報に基づいて頭部姿勢を推定し、顔向き情報を取得するようにしてもよい。
【0149】
従来の比較的成熟した、高いリアルタイム性を有する、頭部姿勢の特徴情報を抽出するためのニューラルネットワーク及び顔向きを推定するためのニューラルネットワークを採用して顔向き情報を取得する場合、カメラが撮影した動画について、動画における各画像フレーム(即ち各運転者画像)に対応する顔向き情報を正確且つ適時に検出することができ、それにより運転者の注意力程度を決定する正確性の向上に寄与する。
【0150】
いくつかの任意選択的な例では、顔キーポイントに基づいて視線方向を検出し、視線方向情報を取得するステップは、顔キーポイントにおける目キーポイントにより位置決めされた目画像に基づいて瞳孔エッジ位置を特定し、且つ瞳孔エッジ位置に基づいて瞳孔中心位置を計算し、瞳孔中心位置及び目中心位置に基づいて視線方向情報を計算することを含む。例えば、瞳孔中心位置及び目画像における目中心位置のベクトルを計算すると、該ベクトルを視線方向情報とすることができる。
【0151】
任意選択的な一例では、視線方向に基づいて運転者が運転に集中しているかどうかを決定してもよい。視線方向は(yaw,pitch)として表してもよく、ここで、yawは視線の正規化球座標(カメラが存在するカメラ座標系)における水平偏向角度(ヨー角)及び垂直偏向角度(ピッチ角)をそれぞれ表す。水平偏向角及び/又は垂直偏向角が一つの予め設定された角度閾値より大きく、且つ持続時間が一つの予め設定された時間閾値より長い場合、運転者散漫状態検出の結果は注意力が集中していないことであると決定できる。
【0152】
ここで、顔キーポイントにおける目キーポイントにより位置決めされた目画像に基づいて瞳孔エッジ位置を特定するステップは、該第三ニューラルネットワークを介して顔キーポイントに基づいて分割した画像における目領域画像の瞳孔エッジ位置検出を行い、且つ第三ニューラルネットワークが出力した情報に基づいて瞳孔エッジ位置を取得するという方式で実現できる。
【0153】
任意選択的な一例として、運転者画像から目画像を切り取り且つ拡大させ、且つ該切取拡大後の目画像を瞳孔位置決め用の第三ニューラルネットワークに提供して瞳孔キーポイントを検出させ、検出した瞳孔キーポイントを出力し、第三ニューラルネットワークが出力した瞳孔キーポイントに基づいて瞳孔エッジ位置を取得するようにしてもよく、瞳孔エッジ位置を計算する(例えば、円心位置を計算する)ことで、瞳孔中心位置を取得できる。
【0154】
任意選択的な一例として、上記上眼瞼線及び下眼瞼線に基づいて目中心位置を取得し、例えば、上眼瞼線と下眼瞼線の全てのキーポイントの座標情報を加算し、且つ上眼瞼線と下眼瞼線の全てのキーポイント数で除算し、除算によって取得した座標情報を目中心位置とするようにしてもよい。当然、他の方式で目中心位置を取得し、例えば、検出した顔キーポイントにおける目キーポイントに基づいて計算し、それにより目中心位置を取得するようにしてもよく、本出願は目中心位置を取得する実現方式を限定しない。
【0155】
本実施例は瞳孔キーポイントでの検出に基づいて瞳孔中心位置を取得し、より正確な瞳孔中心位置を取得でき、眼瞼線での位置決めに基づいて目中心位置を取得し、より正確な目中心位置を取得でき、それにより瞳孔中心位置及び目中心位置を利用して視線方向を特定する時、より正確な視線方向情報を取得できる。また、瞳孔キーポイント検出の方式で瞳孔中心位置を位置決めし、且つ瞳孔中心位置及び目中心位置を利用して視線方向を特定することで、視線方向を特定する実現方式に正確性を付与し、同時に実現しやすいという特徴をも有するようにする。
【0156】
任意選択的な一例では、本出願は従来のニューラルネットワークを採用して瞳孔エッジ位置の検出及び目中心位置の検出を実現してもよい。
【0157】
図4は本出願の実施例のうちの運転者画像について予定散漫動作検出を行う一実施例のフローチャートである。任意選択的な一例では、該図4が示す実施例はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される状態検出モジュールによって実行してもよい。図4に示すように、いくつかの実施形態では、運転者画像について予定散漫動作検出を行うステップは以下を含む。
【0158】
402、運転者画像について予定散漫動作に対応する目標対象の検出を行い、目標対象の検出ボックスを取得する。
【0159】
404、上記目標対象の検出ボックスに基づき、予定散漫動作が発生したか否かを決定する。
【0160】
本実施例は運転者の予定散漫動作検出を行う実現手段を提供し、予定散漫動作に対応する目標対象を検出することで、検出した目標対象の検出ボックスに基づいて散漫動作が発生したか否かを決定し、それにより運転者に散漫が発生したか否かを決定し、運転者の予定散漫動作検出の正確な結果の取得に寄与し、それにより運転状態監視結果の正確性の向上に寄与する。
【0161】
例えば、予定散漫動作が喫煙動作である場合、上記動作402〜404は、第四ニューラルネットワークを介して運転者画像について顔検出を行い、顔検出ボックスを取得し、且つ顔検出ボックスの特徴情報を抽出し、第四ニューラルネットワークを介して顔検出ボックスの特徴情報に基づいて喫煙動作が発生したか否かを決定することを含んでもよい。
【0162】
また、例えば予定散漫動作が食事動作、水飲み動作、電話かけ動作または娯楽動作(即ち食事動作及び/又は水飲み動作及び/又は電話かけ動作及び/又は娯楽動作)の場合、上記動作402〜404は、第五ニューラルネットワークを介して運転者画像について食事動作、水飲み動作、電話かけ動作または娯楽動作に対応する予め設定された目標対象の検出を行い、予め設定された目標対象の検出ボックスを取得し、予め設定された目標対象の検出ボックスに基づいて予定散漫動作の検出結果を決定することを含んでもよく、ここでの予め設定された目標対象は手、口、目、目標物体を含み、目標物体は例えば容器、食物、電子機器のいずれか一つ又は複数を含んでもよいが、これらに限定されず、該予定散漫動作の検出結果は、食事動作、水飲み動作、電話かけ動作または娯楽動作が発生していないこと、食事動作が発生したこと、水飲み動作が発生したこと、電話かけ動作が発生したこと、娯楽動作が発生したことの一つを含んでもよい。
【0163】
いくつかの任意選択的な例では、予定散漫動作が食事動作、水飲み動作、電話かけ動作または娯楽動作(即ち食事動作及び/又は水飲み動作及び/又は電話かけ動作及び/又は娯楽動作)の場合、予め設定された目標対象の検出ボックスに基づいて予定散漫動作の検出結果を決定するステップは、手の検出ボックス、口の検出ボックス、目の検出ボックス及び目標物体の検出ボックスを検出したか否か、及び手の検出ボックスと目標物体の検出ボックスが重なるかどうか、目標物体のタイプ及び目標物体の検出ボックスと口の検出ボックス又は目の検出ボックスとの距離が予め設定された条件を満たすかどうかに基づき、予定危険動作の検出結果を決定することを含んでもよい。
【0164】
任意選択的に、手の検出ボックスと目標物体の検出ボックスが重なり、目標物体のタイプが容器又は食物で、且つ目標物体の検出ボックスと口の検出ボックスが重なる場合、食事動作又は水飲み動作が発生したと決定し、及び/又は、手の検出ボックスと目標物体の検出ボックスが重なり、目標物体のタイプが電子機器で、且つ目標物体の検出ボックスと口の検出ボックスとの最小距離が第一予め設定された距離より短いか、又は目標物体の検出ボックスと目の検出ボックスとの最小距離が第二予め設定された距離より短い場合、娯楽動作又は電話かけ動作が発生したと決定する。
【0165】
また、手の検出ボックス、口の検出ボックス及び任意の目標物体の検出ボックスを同時に検出しておらず、且つ手の検出ボックス、目の検出ボックス及び任意の目標物体の検出ボックスを同時に検出していない場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定し、及び/又は、手の検出ボックスと目標物体の検出ボックスが重なりない場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定し、及び/又は、目標物体のタイプが容器又は食物で、且つ目標物体の検出ボックスと口の検出ボックスが重ならず、及び/又は、目標物体のタイプが電子機器で、且つ目標物体の検出ボックスと口の検出ボックスとの最小距離が第一予め設定された距離以上であるか、又は目標物体の検出ボックスと目の検出ボックスとの最小距離が第二予め設定された距離以上である場合、散漫動作の検出結果は食事動作、水飲み動作、電話かけ動作及び娯楽動作が検出されなかったことであると決定する。
【0166】
また、上記運転者画像について予定散漫動作検出を行う実施例では、更に、運転者散漫状態検出の結果は予定散漫動作を検出したことである場合、検出した散漫動作を提示すること、例えば、喫煙動作を検出した場合、喫煙を検出したと提示し、水飲み動作を検出した場合、水飲みを検出したと提示し、電話かけ動作を検出した場合、電話かけを検出したと提示することを含んでもよい。
【0167】
任意選択的な一例では、検出した散漫動作を提示する上記動作はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される第一提示モジュールによって実行してもよい。
【0168】
また、図4を再度参照すると、運転者画像について運転者の予定散漫動作検出を行う別の実施例では、更に以下を選択的に含んでもよい。
【0169】
406、予定散漫動作が発生した場合、所定時間内に予定散漫動作が発生したか否かを決定した結果に基づき、運転者散漫程度を特徴付けるための指標のパラメータ値を取得する。ここで、運転者散漫程度を特徴付けるための指標は例えば、予定散漫動作の回数、予定散漫動作の持続時間、予定散漫動作の頻度、例えば喫煙動作の回数や持続時間や頻度、水飲み動作の回数や持続時間や頻度、電話かけ動作の回数や持続時間や頻度などのいずれか一つ又は複数を含んでもよいが、これらに限定されない。
【0170】
408、散漫程度を特徴付けるための指標のパラメータ値基づいて運転者の予定散漫動作検出の結果を決定する。
【0171】
上記運転者の予定散漫動作検出の結果は、予定散漫動作を検出していないこと、予定散漫動作を検出したことを含んでもよい。また、上記運転者の予定散漫動作検出の結果は散漫レベルにしてもよく、例えば、上記散漫レベルは例えば、非散漫レベル(集中運転レベルと称してもよい)、散漫運転提示レベル(軽度散漫運転レベルと称してもよい)及び散漫運転警告レベル(重度疲労運転レベルと称してもよい)に分けてもよく、当然、散漫レベルは例えば非散漫運転レベル、軽度散漫運転レベル、中度散漫運転レベル及び重度散漫運転レベルなどより多くのレベルに分けてもよい。当然、本出願の各実施例に係る散漫レベルは他の状況に応じて分けてもよく、上記レベル分けに限定されない。
【0172】
ここでの散漫レベルは散漫程度を特徴付けるための指標のパラメータ値が満たす予め設定された条件に基づいて決定できる。例えば、予定散漫動作を検出していない場合、散漫レベルは非散漫レベル(集中運転レベルと称してもよい)となり、予定散漫動作の持続時間が第一予め設定された時間より短く、且つ頻度が第一予め設定された頻度より低いと検出した場合、散漫レベルは軽度散漫運転レベルとなり、予定散漫動作の持続時間が第一予め設定された時間より長く、及び/又は頻度が第一予め設定された頻度より高いと検出した場合、散漫レベルは重度散漫運転レベルとなる。
【0173】
また、本出願に係る運転状態監視方法の別の実施例では、更に、運転者散漫状態検出の結果及び/又は運転者の予定散漫動作検出の結果に基づき、散漫提示情報を出力することを含んでもよい。
【0174】
運転者散漫状態検出の結果は運転者の注意力が分散していること又は運転者が注意力分散レベルにあることである場合、及び/又は運転者の予定散漫動作検出の結果は予定散漫動作を検出したことである場合、散漫提示情報を出力し、運転者に運転に集中するように促すことができる。
【0175】
任意選択的な一例では、運転者散漫状態検出の結果及び/又は運転者の予定散漫動作検出の結果に基づき、散漫提示情報を出力する上記動作はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される第二提示モジュールによって実行してもよい。
【0176】
図5を参照すると、本出願に係る運転状態監視方法の別の実施例は以下を含む。
【0177】
502、運転者画像について運転者疲労状態を検出し、運転者散漫状態を検出し且つ運転者の予定散漫動作を検出し、運転者疲労状態検出の結果、運転者散漫状態検出の結果、運転者の予定散漫動作検出の結果を取得する。
【0178】
504、運転者疲労状態検出の結果、運転者散漫状態検出の結果及び運転者の予定散漫動作検出の結果が満たす予め設定された条件に基づいて運転状態レベルを決定する。
【0179】
506、決定した運転状態レベルを運転状態監視結果とする。
【0180】
任意選択的な一例では、各運転状態レベルに対応する予め設定された条件があり、運転者疲労状態検出の結果、運転者散漫状態検出の結果及び運転者の予定散漫動作検出の結果が満たす予め設定された条件をリアルタイムに決定でき、満たされる予め設定された条件に対応する運転状態レベルを運転者の運転状態監視結果として決定できる。ここでの運転状態レベルは例えば、正常運転状態(集中運転レベルと称してもよい)、提示運転状態(運転状態が悪い)、警告運転状態(運転状態が非常に悪い)を含んでもよい。
【0181】
任意選択的な一例では、上記図5が示す実施例はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される出力モジュールによって実行してもよい。
【0182】
例えば、任意選択的な一例では、正常運転状態(集中運転レベルと称してもよい)に対応する予め設定された条件は、
運転者疲労状態検出の結果は疲労状態を検出していないこと又は非疲労運転レベルである条件1と、
運転者散漫状態検出の結果は運転者の注意力が集中していることである条件2と、
運転者の予定散漫動作検出の結果は予定散漫動作を検出していないこと又は非散漫レベルである条件3と、を含んでもよい。
【0183】
上記条件1、条件2、条件3をいずれも満たす場合、運転状態レベルは正常運転状態(集中運転レベルと称してもよい)となる。
【0184】
例えば、任意選択的な一例では、提示運転状態(運転状態が悪い)に対応する予め設定された条件は、
運転者疲労状態検出の結果は疲労運転提示レベル(軽度疲労運転レベルと称してもよい)である条件11と、
運転者散漫状態検出の結果は運転者の注意力が軽度で分散していることである条件22と、
運転者の予定散漫動作検出の結果は散漫運転提示レベル(軽度散漫運転レベルと称してもよい)である条件33と、を含んでもよい。
【0185】
上記条件11、条件22、条件33のいずれかを満たし、他の条件での結果がより深刻な疲労運転レベル、注意力分散レベル、散漫レベルに対応する予め設定された条件に達していない場合、運転状態レベルは提示運転状態(運転状態が悪い)となる。
【0186】
例えば、任意選択的な一例では、警告運転状態(運転状態が非常に悪い)に対応する予め設定された条件は、
運転者疲労状態検出の結果は疲労運転警告レベル(重度疲労運転レベルと称してもよい)である条件111と、
運転者散漫状態検出の結果は運転者の注意力が過度に分散していることである条件222と、
運転者の予定散漫動作検出の結果は散漫運転警告レベル(重度疲労運転レベルと称してもよい)である条件333と、を含んでもよい。
【0187】
上記条件111、条件222、条件333のいずれかを満たす場合、運転状態レベルは警告運転状態(運転状態が非常に悪い)となる。
【0188】
更に、本出願に係る運転状態監視方法の更に別の実施例では、更に以下を含んでもよい。
【0189】
508、運転状態監視結果に対応する制御動作を実行する。
【0190】
任意選択的な一例では、上記動作508はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される第一制御モジュールによって実行してもよい。
【0191】
いくつかの任意選択的な例では、動作508は、
運転状態監視結果は提示/警告予定条件、例えば提示運転状態(運転状態が悪い)に対応する予め設定された条件又は運転状態レベルが提示運転状態(運転状態が悪い)であるなどを満たす場合、該提示/警告予定条件に対応する提示/警告情報を出力し、例えば声(ボイス又はリング音など)/光(点灯又は点滅など)/振動などの方式で運転者に提示し、それによって運転者に注意を促し、運転者に分散している注意力を運転に集中させるか又は運転者を休息させるなど、安全運転を実現し、道路交通事故を回避すること、
及び/又は、運転状態監視結果は予定運転モード切替条件、警告運転状態(運転状態が非常に悪い)に対応する予め設定された条件又は運転状態レベルが散漫運転警告レベル(重度疲労運転レベルと称してもよい)であるなどを満たす場合、運転モードを自動運転モードに切り替え、それによって安全運転を実現し、道路交通事故を回避すること、同時に、声(ボイス又はリング音など)/光(点灯又は点滅など)/振動などの方式で運転者に提示し、それによって運転者に注意を促し、運転者に分散している注意力を運転に集中させるか又は運転者を休息させることの少なくとも一つを含んでもよい。
【0192】
また、本出願に係る運転状態監視方法の更に別の実施例では、更に、赤外線カメラ、例えば、車両内の少なくとも一つの位置に配置された赤外線カメラによって画像を収集し、運転者画像を取得することを含んでもよい。
【0193】
本出願の実施例における運転者画像は通常赤外線カメラ(近赤外線カメラなどを含む)によって運転室について撮影した動画における画像フレームである。
【0194】
ここでの赤外線カメラの波長は940nm又は850numを含んでもよい。赤外線カメラは車両運転室内の運転者を撮影可能な任意の位置に設置してもよく、例えば、赤外線カメラはダッシュボードの上方又は近傍位置、センタコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置の一つ又は複数に配置してもよい。例えば、いくつかの任意選択的な例では、赤外線カメラはダッシュボードの上方(真上位置)に設置し、正面前方位置に向かわせるか、又はセンタコンソールの上方(例えば真中位置)に設置し、正面前方位置に向かわせるか、又はAピラーに設置し(例えばAピラーに近接するガラスに貼り付ける)、運転者の顔に向かわせるか、又はバックミラーに設置し(例えばバックミラー上方のガラスに貼り付ける)、運転者の顔に向かわせるようにしてもよい。ここで、赤外線カメラはダッシュボードの上方、センタコンソールの上方位置に設置する場合、カメラの視野角及び運転者の位置に基づいてその具体的な位置を決定してもよく、例えばダッシュボードの上方位置に設置する場合、赤外線カメラを運転者に向かわせ、カメラの視野角がハンドルに遮られないようにしてもよく、センタコンソールの上方位置に設置する場合、カメラの視野角が十分に広ければ、後方に向かわせ、運転者がカメラの視野角内にいるようにすればよく、視野角が狭ければ、運転者に向かわせ、運転者が赤外線カメラの視野角に現れるようにすればよい。
【0195】
運転者がいる領域(車内又は運転室など)の光線は複雑である場合が多く、赤外線カメラが撮影した運転者画像の品質は一般的なカメラが撮影した運転者画像の品質より高くなりやすく、特に夜又は曇天又はトンネル内などの外部光線が暗い環境で、赤外線カメラが撮影した運転者画像は一般的なカメラが撮影した運転者画像より品質が明らかに高い場合が多いため、運転者散漫状態検出及び散漫動作検出の正確性の向上に寄与し、更に運転状態監視の正確性の向上に寄与する。
【0196】
任意選択的に、実用上、カメラが取得した元画像は様々な条件に制限され且つランダムに干渉を受け、直接使用できない場合が多いため、本出願のいくつかの任意選択的な例では、赤外線カメラが撮影した運転者画像にグレースケール化処理を施し、赤緑青(RGB)の3チャネルの画像をグレースケール画像に変換させ、更に運転者の身分認証、散漫状態検出及び散漫動作検出などの動作を行い、それによって身分認証、散漫状態検出及び散漫動作検出の正確性を向上させるようにしてもよい。
【0197】
また、本出願の上記各実施例では、更に、運転者画像に基づいて運転者のジェスチャーを検出し、運転者ジェスチャー検出の結果に基づいて制御コマンドを生成することを含んでもよい。
【0198】
任意選択的な一例では、運転者画像に基づいて運転者ジェスチャー検出を行う上記動作はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用されるジェスチャー検出モジュールによって実行してもよい。任意選択的な一例では、運転者ジェスチャー検出の結果に基づいて制御コマンドを生成する上記動作はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用されるコマンド生成モジュールによって実行してもよい。
【0199】
いくつかの実施形態では、運転者画像に基づいて運転者ジェスチャー検出を行うステップは、現在フレームの運転者画像における手キーポイントを検出し、検出した手キーポイントに基づいて特定した静的ジェスチャーを運転者ジェスチャー検出の結果とし、即ち、このとき検出した運転者ジェスチャーは静的ジェスチャーであることを含んでもよい。
【0200】
いくつかの実施形態では、運転者画像に基づいて運転者ジェスチャー検出を行うステップは、赤外線カメラが収集した運転者動画における複数フレームの運転者画像の手キーポイントを検出し、検出した複数フレームの運転者画像の手キーポイントに基づいて特定した動的ジェスチャーを運転者ジェスチャー検出の結果とし、即ち、このとき検出した運転者ジェスチャーは動的ジェスチャーであることを含んでもよい。
【0201】
運転者ジェスチャー検出の結果に基づいて生成した制御コマンドは、車両又は車両における部品又はアプリケーションなどの状態、作動状態、例えば窓の開閉、ボリュームの調整、エアコンの起動、エアコンの停止、エアコンの温度調整、電話かけ、電話受け、アプリケーション(例えば音楽、ラジオ、ブルートゥース(登録商標))の起動及び停止などを制御するために用いることができる。
【0202】
また、本出願の上記各実施例では、更に、運転者画像について顔を認識し、顔認識の結果に基づいて認証制御を行うことを含んでもよい。
【0203】
任意選択的な一例では、運転者画像について顔認識を行う上記動作はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される顔認識モジュールによって実行してもよい。顔認識の結果に基づいて認証制御を行う上記動作はメモリに記憶された対応するコマンドをプロセッサによって呼び出すように実行してもよく、またプロセッサに運用される第二制御モジュールによって実行してもよい。
【0204】
いくつかの実施形態では、運転者画像について顔認識を行うステップは、
第六ニューラルネットワークを介して運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得し、例えば、第六ニューラルネットワークは入力した各運転者画像について顔の位置を検出し、顔検出ボックスを出力し、且つ該顔検出ボックスにおける顔の特徴を抽出するようにしてもよいこと、
該顔特徴をデータベース内の顔特徴テンプレートとマッチし、例えば、予め閾値を設定し、抽出した顔特徴とデータベースに記憶された顔特徴テンプレートとを検索によってマッチするようにしてもよく、抽出した顔特徴とデータベース内のある顔特徴テンプレートとの類似度が前記予め設定された閾値を超える場合、両者がマッチすると認め、これは該運転者が登録ユーザで、データベースに該運転者の顔特徴テンプレート及び身分情報(例えば氏名、ログイン名など)を含むユーザ情報が存在することを示し、抽出した顔特徴とデータベース内のいずれの顔特徴テンプレートとの類似度も前記予め設定された閾値を超えない場合、データベースに上記顔特徴とマッチする顔特徴テンプレートが存在しないと認め、これは該運転者が未登録ユーザであることを示すこと、
データベースに顔特徴とマッチする顔特徴テンプレートが存在する場合、顔特徴とマッチする顔特徴テンプレートに対応する身分情報を出力すること、
及び/又は、データベースに上記顔特徴とマッチする顔特徴テンプレートが存在しない場合、運転者に登録するように促してもよいこと、受信した運転者の登録要求に応答し、第六ニューラルネットワークを介して収集した運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得し、該顔特徴を運転者の顔特徴テンプレートとし、データベース内で運転者の顔特徴テンプレート及び運転者が入力した身分情報を含む運転者のユーザ情報を作成すること、を含んでもよい。
【0205】
更に、上記実施例では、更に、運転状態監視結果をデータベース内の該運転者のユーザ情報に記憶し、該運転者の運転状態監視結果を記録し、それによって後続の運転者の運転状態監視結果の閲覧、又は運転者の運転行動習慣の分析、統計などを容易にすることを含んでもよい。
【0206】
本実施例は顔認識によって運転者の身分認証及び登録を実現し、運転者の身分情報を認識し、運転者の運転状態監視結果を記録及び分析することができ、運転者の運転行動習慣の把握などに寄与する。
【0207】
いくつかの応用場面では、運転者が車両を起動し、運転監視装置又は運転者監視システムを起動する時、赤外線カメラが収集した運転者画像についての顔認識を開始し、該運転者が登録ユーザであるかどうかを決定した顔認識結果に基づき、対応する認証制御動作を行うようにしてもよく、例えば該運転者が登録ユーザである場合のみ、車両の起動、運転監視装置又は運転者監視システムへのアクセスを許可する。
【0208】
又は、別のいくつかの応用場面では、運転者がジェスチャー制御機能の使用を要求する時、赤外線カメラが収集した運転者画像についての顔認識を開始し、該運転者が登録ユーザであるかどうかを決定した顔認識結果に基づき、対応する認証制御動作を行うようにしてもよく、例えば該運転者が登録ユーザである場合のみ、運転者画像に基づいて運転者のジェスチャーを検出し、且つ運転者ジェスチャー検出の結果に基づいて制御コマンドを生成する。
【0209】
本出願の上記実施例に係る運転状態監視方法は、赤外(近赤外を含む)カメラによって画像を収集して運転者画像を取得してから、ニューラルネットワークをロード可能なワンチップマイコン、FPGA、ARM、CPU、GPU、マイクロプロセッサ、スマート携帯電話、ノート型コンピュータ、タブレット(PAD)、卓上コンピュータ又はサーバなどの電子機器に送信することで実現でき、該電子機器はフラッシュメモリ、キャッシュメモリ、ハードディスク又は光ディスクなどのコンピュータ読み取り可能な記憶媒体に記憶可能なコンピュータプログラム(プログラムコードと称してもよい)を運用できる。
【0210】
本出願の実施例が提供するいずれの運転状態監視方法も、データ処理能力を有する任意の適切な機器によって実行でき、前記機器は端末機器及びサーバなどを含むが、これらに限定されない。又は、本出願の実施例が提供するいずれの運転状態監視方法もプロセッサによって実行でき、例えば、プロセッサはメモリに記憶された対応するコマンドによって本出願の実施例に係る任意の運転状態監視方法をも実行できる。以下では説明を省略する。
【0211】
当業者であれば、上記方法の実施例を実現する全て又は一部のステップはプログラムコマンドに関連するハードウェアによって完了でき、前述のプログラムはコンピュータ読み取り可能な記憶媒体に記憶でき、該プログラムは実行される時、上記方法の実施例を含むステップを実行し、前述の記憶媒体はROM、RAM、磁気ディスク又は光ディスクなどのプログラムコードを記憶できる様々な媒体を含むということを理解できる。
【0212】
図6は本出願に係る運転状態監視装置の一実施例の構成模式図である。該実施例に係る運転状態監視装置は本出願の上記各運転状態監視方法の実施例を実現するために用いることができる。図6に示すように、該実施例に係る運転状態監視装置は状態検出モジュール、出力モジュール及び/又はスマート運転制御モジュールを含む。そのうち、
【0213】
状態検出モジュールは運転者画像について運転者状態検出を行うために用いられる。
【0214】
本実施例における状態検出モジュールが運転者画像について運転者状態検出を行う任意選択的な実現手段は、本出願の上記いずれかの実施例に係る運転状態監視方法での対応する動作を参照すればよく、ここでは説明を省略する。
【0215】
出力モジュールは、運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力するために用いられる。
【0216】
本実施例における出力モジュールが運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力する任意選択的な実現手段は、本出願の上記いずれかの実施例に係る運転状態監視方法での対応する動作を参照すればよく、ここでは説明を省略する。
【0217】
スマート運転制御モジュールは、運転者状態検出の結果に基づき、車両に対するスマート運転制御を行うために用いられる。
【0218】
いくつかの実施形態では、運転者状態検出は例えば、運転者の疲労状態検出、運転者の散漫状態検出、運転者の予定散漫動作検出のいずれか一つ又は複数を含んでもよいが、これらに限定されない。それに応じて運転者状態検出の結果は、運転者疲労状態検出の結果、運転者散漫状態検出の結果、運転者の予定散漫動作検出の結果のいずれか一つ又は複数を含んでもよいが、これらに限定されない。
【0219】
いくつかの実施形態では、出力モジュールは運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力する時、運転者疲労状態検出の結果、運転者散漫状態検出の結果及び運転者の予定散漫動作検出の結果が満たす予め設定された条件に基づいて運転状態レベルを決定し、及び決定した運転状態レベルを運転状態監視結果とするために用いられる。
【0220】
本出願の実施例における予定散漫動作は、例えば喫煙動作、水飲み動作、食事動作、電話かけ動作、娯楽動作などの運転者の注意力を分散させる可能性がある任意の散漫動作であってもよい。ここで、食事動作は例えば果物、スナックなどの食物を食べる動作であり、娯楽動作は例えばメッセージを送信し、ゲームをプレイし、カラオケを歌うなどの電子機器によって実行する動作である。電子機器は例えば携帯電話端末、ポケットコンピュータ、ゲーム機などである。
【0221】
本出願の上記実施例が提供する運転状態監視装置に基づき、運転者画像について運転者状態検出を行い、運転者状態検出の結果に基づいて運転者の運転状態監視結果を出力し、それにより運転者の運転状態に対するリアルタイム監視を実現し、更に運転者の運転状態が悪い時に対応する措置を適時に取り、運転安全を保証し、道路交通事故を回避することができる。
【0222】
図7は本出願に係る運転状態監視装置の別の実施例の構成模式図である。図7に示すように、図6に示す実施例と比べ、該実施例の運転状態監視装置は更に、運転者の予定散漫動作検出の結果は予定散漫動作を検出したことである場合、検出した散漫動作を提示するための第一提示モジュールを含む。
【0223】
図7を再度参照すると、本出願に係る運転状態監視装置の別の実施例では、更に、運転者散漫状態検出の結果及び/又は運転者の予定散漫動作検出の結果に基づき、散漫提示情報を出力するための第二提示モジュールを含んでもよい。
【0224】
また、図7を再度参照すると、本出願に係る運転状態監視装置の更に別の実施例では、更に、運転状態監視結果に対応する制御動作を実行するための第一制御モジュールを含んでもよい。
【0225】
いくつかの実施形態では、第一制御モジュールは、決定した運転状態監視結果が提示/警告予定条件を満たす場合、提示/警告予定条件に対応する提示/警告情報を出力し、及び/又は、決定した運転状態監視結果が予定運転モード切替条件を満たす場合、運転モードを自動運転モードに切り替えるために用いられる。
【0226】
また、本出願に係る運転状態監視装置の更に別の実施例では、更に、運転者画像について顔認識を行うための顔認識モジュール、顔認識の結果に基づいて認証制御を行うための第二制御モジュールを含んでもよい。
【0227】
いくつかの実施形態では、顔認識モジュールは、第六ニューラルネットワークを介して運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得し、顔特徴をデータベース内の顔特徴テンプレートとマッチし、及びデータベースに顔特徴とマッチする顔特徴テンプレートが存在する場合、顔特徴とマッチする顔特徴テンプレートに対応する身分情報を出力するために用いられる。
【0228】
別のいくつかの実施形態では、第二制御モジュールは更に、データベースに顔特徴とマッチする顔特徴テンプレートが存在しない場合、運転者に登録するように促し、及び顔認識モジュールが送信した顔特徴を運転者の顔特徴テンプレートとし、データベース内で運転者の顔特徴テンプレート及び運転者が入力した身分情報を含む運転者のユーザ情報を作成するために用いられてもよく、それに応じて、顔認識モジュールは更に、受信した運転者の登録要求に応答し、第六ニューラルネットワークを介して収集した運転者画像について顔検出を行い、且つ検出した顔の特徴を抽出し、顔特徴を取得し且つ第二制御モジュールに送信するために用いられてもよい。
【0229】
別のいくつかの実施形態では、出力モジュールは更に、運転状態監視結果をデータベース内の運転者のユーザ情報に記憶するために用いられてもよい。
【0230】
また、図7を再度参照すると、本出願に係る運転状態監視装置の更に別の実施例では、更に、車両内の少なくとも一つの対応する位置に配置され、画像を収集し、運転者画像を取得するための少なくとも一つの赤外線カメラを含んでもよい。
【0231】
ここでの少なくとも一つの位置は例えば、ダッシュボードの上方又は近傍位置、センタコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置のいずれか一つ又は複数を含んでもよいが、これらに限定されない。
【0232】
また、本出願に係る運転状態監視装置の更に別の実施例では、更に、運転者画像に基づいて運転者ジェスチャー検出を行うためのジェスチャー検出モジュール、運転者ジェスチャー検出の結果に基づいて制御コマンドを生成するためのコマンド生成モジュールを含んでもよい。
【0233】
いくつかの実施形態では、ジェスチャー検出モジュールは現在フレームの運転者画像における手キーポイントを検出し、及び検出した手キーポイントに基づいて特定した静的ジェスチャーを運転者ジェスチャー検出の結果とするために用いられる。
【0234】
いくつかの実施形態では、ジェスチャー検出モジュールは運転者動画における複数フレームの運転者画像の手キーポイントを検出し、及び検出した複数フレームの運転者画像の手キーポイントに基づいて特定した動的ジェスチャーを運転者ジェスチャー検出の結果とするために用いられる。
【0235】
図8は本出願に係る運転者監視システムの一実施例の構成模式図である。該実施例に係る運転者監視システムは本出願の上記各運転状態監視方法の実施例を実現するために用いることができる。図8に示すように、該実施例に係る運転者監視システムは、表示モジュール及び運転者状態検出モジュールを含む。そのうち、
【0236】
表示モジュールは、運転者画像、及び運転者の運転状態監視結果を表示するために用いられる。
【0237】
運転者状態検出モジュールは、運転者画像について運転者状態検出を行い、且つ運転者状態検出の結果に基づいて運転者の運転状態監視結果を出力するために用いられる。
【0238】
ここでの運転者状態検出は、運転者の疲労状態検出、運転者の散漫状態検出、運転者の予定散漫動作検出のいずれか一つ又は複数を含んでもよいが、これらに限定されない。
【0239】
本出願の上記実施例が提供する運転者監視システムに基づき、運転者画像について運転者状態検出を行い、運転者状態検出の結果に基づいて運転者の運転状態監視結果を出力し、それにより運転者の運転状態に対するリアルタイム監視を実現し、更に運転者の運転状態が悪い時に対応する措置を適時に取り、運転安全を保証し、道路交通事故を回避することができる。
【0240】
いくつかの実施形態では、表示モジュールは、運転者画像、及び運転状態監視結果に対応する提示/警告情報を表示するための第一表示領域、予定散漫動作を表示するための第二表示領域を含む。
【0241】
いくつかの実施形態では、運転者状態検出モジュールは更に、運転者画像について顔認識を行うために用いられてもよい。それに応じて、第一表示領域は更に、顔認識の結果を表示するために用いられてもよい。
【0242】
いくつかの実施形態では、運転者状態検出モジュールは更に、運転者画像に基づいて運転者ジェスチャー検出を行うために用いられてもよい。それに応じて、表示モジュールは更に、静的ジェスチャー又は動的ジェスチャーを含むジェスチャー検出の結果を表示するための第三表示領域を含む。
【0243】
図9は、本出願に係る運転者監視システムにおける表示モジュールの表示領域の一実施例の構成模式図である。
【0244】
図10は本出願に係る車両の一実施例の構成模式図である。図10に示すように、該実施例に係る車両は中央制御システムを含み、更に、本出願の上記いずれかの実施例に記載の運転状態監視装置又は運転者監視システムを含む。
【0245】
いくつかの実施形態では、中央制御システムは、運転状態監視装置又は運転者監視システムが出力した運転者状態検出の結果に基づき、スマート運転制御を行い、及び/又は、運転状態監視装置又は運転者監視システムが出力した運転状態監視結果が予定運転モード切替条件を満たす場合、運転モードを自動運転モードに切り替え、且つ自動運転モードで車両に対する自動運転制御を行い、及び/又は、運転状態監視結果が予め設定された提示/警告予定条件を満たす場合、車両内の娯楽システム(例えばスピーカー、ブザー、照明機器など)又は車両に接続される娯楽システム(例えばスピーカー、ブザー、照明機器など)を呼び出して提示/警告予定条件に対応する提示/警告情報を出力するために用いられる。
【0246】
別のいくつかの実施形態では、中央制御システムは更に、運転状態監視装置又は運転者監視システムが出力したジェスチャー検出の結果による制御コマンドに従って、車両又は車両における部品(例えば窓、エアコン、プレーヤーなど)、アプリケーション(例えば音楽、ラジオ、ブルートゥース)などに対応する制御をかけるために用いられてもよい。
【0247】
別のいくつかの実施形態では、中央制御システムは更に、手動運転に切り替えるための運転コマンドを受信した時、運転モードを手動運転モードに切り替えるために用いられてもよい。
【0248】
図10を再度参照すると、上記実施例に係る車両は更に、中央制御システムの制御コマンドに従って、提示/警告予定条件に対応する提示/警告情報を出力し、及び/又は、中央制御システムの制御コマンドに従って、提示/警告情報の警告効果、又は娯楽項目の再生効果を調整するための娯楽システムを含んでもよい。
【0249】
ここでの娯楽システムは例えばスピーカー、ブザー、照明機器などを含んでもよい。
【0250】
図10を再度参照すると、上記実施例に係る車両は更に、画像を収集するための少なくとも一つの赤外線カメラを含んでもよい。
【0251】
いくつかの実施形態では、車両における赤外線カメラは車両内の少なくとも一つの位置、例えばダッシュボードの上方又は近傍位置、センタコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置などのいずれか一つ又は複数に配置してもよい。
【0252】
図11は本出願に係る電子機器の一応用例の構成模式図である。図11を参照すると、それは本出願の実施例に係る端末機器又はサーバを実現するために適する電子機器の構成模式図を示す。図11に示すように、該電子機器は一つ以上のプロセッサ、通信部などを含み、前記一つ以上のプロセッサは例えば、一つ以上の中央処理装置(CPU)、及び/又は一つ以上の画像処理装置(GPU)などであり、プロセッサは読み取り専用メモリ(ROM)に記憶された実行可能コマンド又は記憶部分からランダムアクセスメモリ(RAM)にロードされた実行可能コマンドに従って様々な適切の動作及び処理を実行できる。通信部はネットワークカードを含んでもよいが、これに限定されず、前記ネットワークカードはIB(Infiniband)ネットワークカードを含んでもよいが、これに限定されず、プロセッサは読み取り専用メモリ及び/又はランダムアクセスメモリと通信して実行可能コマンドを実行し、バスによって通信部と接続し、且つ通信部によって他の対象機器と通信し、それにより本出願の実施例が提供するいずれかの方法に対応する動作、例えば、運転者画像について運転者状態検出を行い、運転者状態検出の結果に基づき、運転者の運転状態監視結果を出力し及び/又はスマート運転制御を行うなどを完了することができる。
【0253】
また、RAMに、更に装置の動作に必要の様々なプログラム及びデータが記憶されてもよい。CPU、ROM及びRAMはバスによって互いに接続される。RAMが存在する場合、ROMは任意選択的なモジュールとなる。RAMは実行可能コマンドを記憶するか、又は動作時にROMに実行可能コマンドを書き込み、実行可能コマンドによってプロセッサは本出願の上記いずれかの方法に対応する動作を実行する。入力/出力(I/O)インタフェースもバスに接続される。通信部は統合設置してもよく、また複数のサブモジュール(例えば複数のIBネットワークカード)を有するように設置してもよく、且つバスリンクに存在する。
【0254】
キーボード、マウスなどを含む入力部分、陰極線管(CRT)、液晶ディスプレイ(LCD)など及びスピーカーなどを含む出力部分、ハードディスクなどを含む記憶部分、及びLANカード、モデムなどのネットワークインタフェースカードを含む通信部分などの部品は、I/Oインタフェースに接続される。通信部分はインターネットなどのネットワークによって通信処理を実行する。ドライバも必要に応じてI/Oインタフェースに接続される。取り外し可能な媒体、例えば磁気ディスク、光ディスク、磁気光ディスク、半導体メモリなどは、必要に応じてドライバに取り付けられ、それによってそこから読み出されたコンピュータプログラムが必要に応じて記憶部分にインストールされる。
【0255】
説明すべきは、図11示すアーキテクチャは任意選択的な一実現形態に過ぎず、具体的な実践では、実際の必要に応じて上記図11の部品数及びタイプを選択し、減少させ、増加させるか又は交換することができ、異なる機能部品の設置上でも、分離設置又は統合設置などの実現形態を採用でき、例えばGPUとCPUは分離設置するか又はGPUをCPUに統合するようにしてもよく、通信部は分離設置してもよく、またCPU又はGPUに統合してもよいなどである。これらの置換可能な実施形態はいずれも本出願が開示する保護範囲に属する。
【0256】
特に、本開示の実施例によれば、上記参照フローチャートが記述したプロセスはコンピュータソフトウェアプログラムとして実現できる。例えば、本開示の実施例はコンピュータプログラム製品を含み、それは機械可読媒体に有形に具現化された、フローチャートに示す方法を実行するためのプログラムコードを含むコンピュータプログラムを含み、プログラムコードは本出願のいずれかの実施例が提供する運転状態監視方法を実行するステップに対応するコマンドを含んでもよい。このような実施例では、該コンピュータプログラムは通信部分によってネットワークからダウンロード及びインストールでき、及び/又は取り外し可能な媒体からインストールできる。該コンピュータプログラムはCPUに実行される時、本出願の方法に限定される上記機能を実行する。
【0257】
また、本出願の実施例は更に、機器のプロセッサ内で動作する時に本出願の上記いずれかの実施例に係る運転状態監視方法を実現するコンピュータコマンドを含むコンピュータプログラムを提供する。
【0258】
また、本出願の実施例は更に、プロセッサに実行される時に本出願の上記いずれかの実施例に係る運転状態監視方法を実現するコンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を提供する。
【0259】
本明細書における各実施例は漸進の方式を採用して記述し、各実施例では他の実施例との相違点を重点に説明し、各実施例間の同じ又は類似部分は互いに参照すればよい。システムの実施例は、方法の実施例に基本的に対応するため、記述したものが比較的簡単で、その関連部分は方法の実施例の一部の説明を参照すればよい。
【0260】
本出願の方法、装置、システム及び機器は様々な方式で実現し得る。例えば、ソフトウェア、ハードウェア、ファームウェア又はソフトウェア、ハードウェア、ファームウェアの任意の組み合わせで本出願の方法、装置、システム及び機器を実現できる。前記方法のステップに付けられる上記順序は説明するためのものに過ぎず、本出願の方法のステップは、特に断らない限り、以上に記述した順序に限定されない。また、いくつかの実施例では、本出願を記録媒体に記録されるプログラムとして実施してもよく、これらのプログラムは本出願に係る方法を実現するための機械可読コマンドを含む。従って、本出願は本出願に係る方法を実行するためのプログラムを記憶する記録媒体をも含む。
【0261】
本出願の記述は例示及び説明のためのもので、漏れがないもの又は開示した形式に本出願を限定するものではない。様々な修正及び変形について、当業者が自明である。選択及び記述した実施例は、本出願の原理及び実際の応用をより効果的に説明し、且つ当業者に本出願を理解させて特定の用途に適する様々な修正付きの様々な実施例を設計するためのものである。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11