IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アイシン精機株式会社の特許一覧

特許7661805車両用操作検出装置及び車両用操作検出方法
<>
  • 特許-車両用操作検出装置及び車両用操作検出方法 図1
  • 特許-車両用操作検出装置及び車両用操作検出方法 図2
  • 特許-車両用操作検出装置及び車両用操作検出方法 図3
  • 特許-車両用操作検出装置及び車両用操作検出方法 図4
  • 特許-車両用操作検出装置及び車両用操作検出方法 図5
  • 特許-車両用操作検出装置及び車両用操作検出方法 図6
  • 特許-車両用操作検出装置及び車両用操作検出方法 図7
  • 特許-車両用操作検出装置及び車両用操作検出方法 図8
  • 特許-車両用操作検出装置及び車両用操作検出方法 図9
  • 特許-車両用操作検出装置及び車両用操作検出方法 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-04-07
(45)【発行日】2025-04-15
(54)【発明の名称】車両用操作検出装置及び車両用操作検出方法
(51)【国際特許分類】
   E05F 15/74 20150101AFI20250408BHJP
   B60R 11/02 20060101ALI20250408BHJP
   G06T 7/20 20170101ALI20250408BHJP
【FI】
E05F15/74
B60R11/02 Z
G06T7/20 300A
【請求項の数】 7
(21)【出願番号】P 2021105507
(22)【出願日】2021-06-25
(65)【公開番号】P2023004045
(43)【公開日】2023-01-17
【審査請求日】2024-04-03
(73)【特許権者】
【識別番号】000000011
【氏名又は名称】株式会社アイシン
(74)【代理人】
【識別番号】100105957
【弁理士】
【氏名又は名称】恩田 誠
(74)【代理人】
【識別番号】100068755
【弁理士】
【氏名又は名称】恩田 博宣
(72)【発明者】
【氏名】田村 拓也
【審査官】河本 明彦
(56)【参考文献】
【文献】国際公開第2014/041955(WO,A1)
【文献】特開2020-118024(JP,A)
【文献】特開2011-179314(JP,A)
【文献】特開2020-027372(JP,A)
【文献】米国特許出願公開第2020/0208460(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
E05F 15/00 - 15/79
E05B 1/00 - 85/28
G06T 7/20
B60R 11/02
(57)【特許請求の範囲】
【請求項1】
開口部を有する車体と、前記開口部を開閉する開閉体と、前記開閉体を開閉作動させる駆動部と、前記開口部の周辺の画像を撮影するカメラと、を備える車両に適用され、前記開閉体の開閉作動を開始させる契機としてのユーザのジェスチャを検出する車両用操作検出装置であって、
事前に撮影された前記画像と前記ユーザの前記ジェスチャに用いる身体部位とを対応付けた教師データを用いて機械学習した学習済みモデルを記憶する記憶部と、
新たに撮影された前記画像を前記学習済みモデルに入力することで得られる当該画像中の前記身体部位の位置に基づき、前記カメラの撮影エリア内に設定される認識エリア内に、前記身体部位が進入したか否かを判定する進入判定部と、
前記身体部位が前記認識エリア内に進入したと判定された後に時間をあけて撮影された複数の前記画像に基づいて、前記身体部位の変位ベクトルを算出し、前記変位ベクトルの向きが設定されたジェスチャパターン通りに変化したか否かに応じて、前記ジェスチャが実施されたか否かを判定するジェスチャ判定部と、を備える
車両用操作検出装置。
【請求項2】
時間をあけて撮影された複数の前記画像のうち、前記身体部位の位置を特定できている画像を特定画像とし、前記身体部位の位置を特定できていない画像を未特定画像としたとき、
前記ジェスチャ判定部は、前記未特定画像に対して、前記特定画像中の前記身体部位の位置を含むエリアの特徴量のマッチングを行うことで、前記未特定画像中の前記身体部位の位置を特定し、前記特定画像及び前記未特定画像における前記身体部位の位置に基づいて、前記変位ベクトルを算出する
請求項1に記載の車両用操作検出装置。
【請求項3】
前記ジェスチャ判定部は、時間をあけて撮影された複数の前記画像を前記学習済みモデルに入力することで得られる複数の前記画像ごとの前記身体部位の位置に基づいて、前記変位ベクトルを算出する
請求項1に記載の車両用操作検出装置。
【請求項4】
前記ジェスチャ判定部は、前記変位ベクトルの大きさが下限判定値未満の場合、前記ジェスチャの判定を中止する
請求項1~請求項3の何れか一項に記載の車両用操作検出装置。
【請求項5】
前記ジェスチャ判定部は、前記変位ベクトルの大きさが前記下限判定値未満の場合であっても、前記変位ベクトルの大きさが前記下限判定値未満となる回数が停止判定回数未満の場合には、前記ジェスチャの判定を中止しない
請求項4に記載の車両用操作検出装置。
【請求項6】
前記ジェスチャ判定部は、前記変位ベクトルの大きさが上限判定値以上の場合、前記ジェスチャの判定を中止する
請求項1~請求項5の何れか一項に記載の車両用操作検出装置。
【請求項7】
開口部を有する車体と、前記開口部を開閉する開閉体と、前記開閉体を開閉作動させる駆動部と、前記開口部の周辺の画像を撮影するカメラと、を備える車両に適用され、前記開閉体の開閉作動を開始させる契機としてのユーザのジェスチャを検出する車両用操作検出方法であって、
事前に撮影された前記画像と前記ユーザの前記ジェスチャに用いる身体部位とを対応付けた教師データを用いて機械学習した学習済みモデルに、新たに撮影された前記画像を入力することで当該画像中の前記身体部位の位置を取得する工程と、
取得した前記身体部位の位置に基づき、前記カメラの撮影エリア内に設定される認識エリア内に前記身体部位が進入したか否かを判定する工程と、
前記身体部位が前記認識エリア内に進入したと判定された後に時間をあけて撮影された複数の前記画像に基づいて、前記身体部位の変位ベクトルを算出する工程と、
前記変位ベクトルの向きが設定されたジェスチャパターン通りに変化したか否かに応じて、前記ジェスチャが実施されたか否かを判定する工程と、を備える
車両用操作検出方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両用操作検出装置及び車両用操作検出方法に関する。
【背景技術】
【0002】
特許文献1には、開口部が設けられる車体と、開口部を開閉する車両用ゲートと、車両用ゲートを駆動するゲートアクチュエータと、車両の周辺を撮影するカメラと、ゲートアクチュエータを制御する車両用操作検出装置と、を備える車両が記載されている。車両用操作検出装置は、カメラが撮影した画像に基づいて、ユーザが予め定められたジェスチャを実施したと判断したときに、ゲートアクチュエータにより車両用ゲートを開作動させる。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2016-196798号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記のような車両用操作検出装置は、ユーザのジェスチャを精度良く検出する点において、改善の余地が残されていた。
【課題を解決するための手段】
【0005】
以下、上記課題を解決するための手段及びその作用効果について記載する。
上記課題を解決する車両用操作検出装置は、開口部を有する車体と、前記開口部を開閉する開閉体と、前記開閉体を開閉作動させる駆動部と、前記開口部の周辺の画像を撮影するカメラと、を備える車両に適用され、前記開閉体の開閉作動を開始させる契機としてのユーザのジェスチャを検出する車両用操作検出装置であって、事前に撮影された前記画像と前記ユーザの前記ジェスチャに用いる身体部位とを対応付けた教師データを用いて機械学習した学習済みモデルを記憶する記憶部と、新たに撮影された前記画像を前記学習済みモデルに入力することで得られる当該画像中の前記身体部位の位置に基づき、前記カメラの撮影エリア内に設定される認識エリア内に、前記身体部位が進入したか否かを判定する進入判定部と、前記身体部位が前記認識エリア内に進入したと判定された後に時間をあけて撮影された複数の前記画像に基づいて、前記身体部位の変位ベクトルを算出し、前記変位ベクトルの向きが設定されたジェスチャパターン通りに変化したか否かに応じて、前記ジェスチャが実施されたか否かを判定するジェスチャ判定部と、を備える。
【0006】
上記構成の車両用操作検出装置は、認識エリア内にユーザの身体部位が進入した場合に、当該身体部位を用いたジェスチャが実施されたか否かを判定する。ここで、車両用操作検出装置は、カメラが撮影した画像と学習済みモデルとを用いて、認識エリア内にユーザの身体部位が進入したか否かを判定する。このため、認識エリア内にユーザの身体部位が進入したことを精度良く判定できる。こうして、車両用操作検出装置は、ユーザのジェスチャの検出精度を高めることができる。
【0007】
上記車両用操作検出装置において、時間をあけて撮影された複数の前記画像のうち、前記身体部位の位置を特定できている画像を特定画像とし、前記身体部位の位置を特定できていない画像を未特定画像としたとき、前記ジェスチャ判定部は、前記未特定画像に対して、前記特定画像中の前記身体部位の位置を含むエリアの特徴量のマッチングを行うことで、前記未特定画像中の前記身体部位の位置を特定し、前記特定画像及び前記未特定画像における前記身体部位の位置に基づいて、前記変位ベクトルを算出することが好ましい。
【0008】
車両用操作検出装置は、変位ベクトルを算出する際の算出負荷を低減できる。
上記車両用操作検出装置において、前記ジェスチャ判定部は、時間をあけて撮影された複数の前記画像を前記学習済みモデルに入力することで得られる複数の前記画像ごとの前記身体部位の位置に基づいて、前記変位ベクトルを算出することが好ましい。
【0009】
車両用操作検出装置は、身体部位の変位ベクトルを精度良く算出できる。
上記車両用操作検出装置において、前記ジェスチャ判定部は、前記変位ベクトルの大きさが下限判定値未満の場合、前記ジェスチャの判定を中止することが好ましい。
【0010】
例えば、ユーザが認識エリアで停止している場合など、ユーザがジェスチャを実施しない場合には、ユーザの身体部位の単位時間あたりの移動量が「0」又は「0」に近い値を取りやすい。この点、上記構成の車両用操作検出装置は、身体部位の変位ベクトルの大きさが下限判定値未満の場合、ジェスチャの判定を中止する。このため、車両用操作検出装置は、ユーザのジェスチャを誤判定するおそれを低減できる。
【0011】
上記車両用操作検出装置において、前記ジェスチャ判定部は、前記変位ベクトルの大きさが前記下限判定値未満の場合であっても、前記変位ベクトルの大きさが前記下限判定値未満となる回数が停止判定回数未満の場合には、前記ジェスチャの判定を中止しないことが好ましい。
【0012】
ユーザがジェスチャを実施するときの状態によっては、ユーザの身体部位の変位速度が一時的に低下することで、身体部位の単位時間あたりの移動量が一時的に「0」又は「0」に近い値になる可能性がある。また、身体部位の変位ベクトルの向きが反転するようなジェスチャをユーザが実施する場合には、身体部位の単位時間あたりの移動量が一時的に「0」又は「0」に近い値になる可能性がある。この点、上記構成の車両用操作検出装置は、身体部位の変位ベクトルの大きさが下限判定値未満となる回数が停止判定回数未満の場合には、ジェスチャの判定を中止しない。つまり、車両用操作検出装置は、ユーザの状態及びジェスチャの内容などに起因して、ジェスチャの判定を中止しにくくなる。このため、車両用操作検出装置は、ジェスチャの判定精度が低下することを抑制できる。
【0013】
上記車両用操作検出装置において、前記ジェスチャ判定部は、前記変位ベクトルの大きさが上限判定値以上の場合、前記ジェスチャの判定を中止することが好ましい。
ユーザがジェスチャを実施する場合には、身体部位の変位速度に限界がある。言い換えれば、身体部位の単位時間あたりの移動量が過度に大きい場合には、変位ベクトルの算出対象がユーザの身体部位でない可能性が高い。この点、上記構成の車両用操作検出装置は、身体部位の変位ベクトルの大きさが上限判定値以上の場合、ジェスチャの判定を中止する。このため、車両用操作検出装置は、ジェスチャを誤判定するおそれを低減できる。
【0014】
上記課題を解決する車両操作検出方法は、開口部を有する車体と、前記開口部を開閉する開閉体と、前記開閉体を開閉作動させる駆動部と、前記開口部の周辺の画像を撮影するカメラと、を備える車両に適用され、前記開閉体の開閉作動を開始させる契機としてのユーザのジェスチャを検出する車両用操作検出方法であって、事前に撮影された前記画像と前記ユーザの前記ジェスチャに用いる身体部位とを対応付けた教師データを用いて機械学習した学習済みモデルに、新たに撮影された前記画像を入力することで当該画像中の前記身体部位の位置を取得する工程と、取得した前記身体部位の位置に基づき、前記カメラの撮影エリア内に設定される認識エリア内に前記身体部位が進入したか否かを判定する工程と、前記身体部位が前記認識エリア内に進入したと判定された後に時間をあけて撮影された複数の前記画像に基づいて、前記身体部位の変位ベクトルを算出する工程と、前記変位ベクトルの向きが設定されたジェスチャパターン通りに変化したか否かに応じて、前記ジェスチャが実施されたか否かを判定する工程と、を備える。
【0015】
上記構成の車両操作検出方法は、上述した車両操作検出装置と同等の作用効果を得ることができる。
【発明の効果】
【0016】
上記車両用操作検出装置は、ユーザのジェスチャの検出精度を高めることができる。
【図面の簡単な説明】
【0017】
図1】一実施形態に係る操作検出装置を備える車両の模式図。
図2】カメラが撮影する画像であって、教師データの一例を示す図。
図3】認識エリアに進入したユーザがジェスチャを実施する様子を示す模式図。
図4】認識エリアに進入したユーザがジェスチャを実施する様子を示す模式図。
図5図3のユーザの向きに対応するジェスチャパターンを示す図。
図6図4のユーザの向きに対応するジェスチャパターンを示す図。
図7】ユーザのジェスチャを検出するために操作検出装置が実施する処理の流れを示すフローチャート。
図8】ユーザの認識エリアに対する進入を判定するために操作検出装置が実施する処理の流れを示すフローチャート。
図9】ユーザがジェスチャを実施したか否かを判定するために操作検出装置が実施する処理の流れを示すフローチャート。
図10】変更例に係る操作検出装置が実施する処理の流れを示すフローチャート。
【発明を実施するための形態】
【0018】
以下、車両用操作検出装置(以下、「操作検出装置」ともいう。)及び車両用操作検出方法(以下、「操作検出方法」ともいう。)の一実施形態について図面を参照しつつ説明する。以降の説明では、車両の幅方向を「幅方向」ともいい、車両の前後方向を「前後方向」ともいい、車両の上下方向を「上下方向」ともいう。図中では、幅方向に延びる軸をX軸で示し、前後方向に延びる軸をY軸で示し、上下方向に延びる軸をZ軸で示す。
【0019】
図1に示すように、車両10は、車体20と、フロントドア30と、スライドドア40と、サイドミラー50と、ロック機構60と、を備える。また、車両10は、ドアアクチュエータ71と、ドアロックアクチュエータ72と、カメラ80と、無線通信装置90と、ドア制御装置100と、操作検出装置200と、を備える。
【0020】
車体20は、フロントドア30に開閉されるドア開口部21と、スライドドア40に開閉されるドア開口部22と、を有する。ドア開口部21,22は、ユーザが車両10の内外を行き来する際に通過する部位である。ドア開口部22は「開口部」の一例に相当する。
【0021】
フロントドア30は、車体20に対して、上下方向に延びる軸線回りに揺動することで、ドア開口部21を全閉する全閉位置及びドア開口部21を全開する全開位置の間を変位する。フロントドア30の前端寄りの部位には、サイドミラー50が取り付けられている。
【0022】
スライドドア40は、車体20に対して、前後方向にスライドすることで、ドア開口部22を全閉する全閉位置及びドア開口部22を全開する全開位置の間を変位する。スライドドア40の開方向は後方であり、スライドドア40の閉方向は前方である。スライドドア40は、ドアアクチュエータ71により、全閉位置及び全開位置の間で開閉作動される。スライドドア40は「開閉体」の一例に相当し、ドアアクチュエータ71は「駆動部」の一例に相当する。
【0023】
ロック機構60は、全閉位置に配置されるスライドドア40を車体20に拘束するフルラッチ状態と、全閉位置での車体20に対するスライドドア40の拘束を解除するアンラッチ状態と、に切り替わる。ロック機構60は、ドアロックアクチュエータ72により、フルラッチ状態からアンラッチ状態に移行されたり、アンラッチ状態からフルラッチ状態に移行されたりする。以降の説明では、ロック機構60がフルラッチ状態からアンラッチ状態に移行することを「アンラッチ作動」ともいい、ロック機構60がアンラッチ状態からフルラッチ状態に移行することを「フルラッチ作動」ともいう。ドアロックアクチュエータ72は「駆動部」の一例に相当する。
【0024】
カメラ80は、下方且つ後方を向くようにサイドミラー50に設置されている。図1では、左側のサイドミラー50に設置されるカメラ80のみが図示されているが、右側のサイドミラー50にもカメラ80が設置されている。図1に示すように、カメラ80の撮影エリアA2は、ドア開口部22の周辺の領域を含む。カメラ80の画角は、広角であることが好ましい。カメラ80は、撮影した画像をフレーム毎に操作検出装置200に出力する。
【0025】
携帯機300は、スライドドア40を開閉作動させたり停止させたりする際に操作されるスイッチを有する。携帯機300は、いわゆる電子キーでもよいし、スマートフォンでもよいし、他の通信端末でもよい。無線通信装置90は、車両10の周辺に位置する携帯機300と相互に無線通信を行うことにより、当該携帯機300が車両10と対応付いた携帯機300であるか否かを判定する。この点で、無線通信装置90は、車両10の周辺に設定される通信エリアA1内に携帯機300を所持したユーザが存在しているか否かを判定できる。通信エリアA1は、撮影エリアA2よりも一回り大きなエリアである。
【0026】
携帯機300において、スライドドア40を作動させるためのスイッチが操作された場合、無線通信装置90は、操作されたスイッチに応じて、開作動指令信号、閉作動指令信号及び停止指令信号をドア制御装置100に出力する。開作動指令信号は、スライドドア40を開作動させるための指令信号であり、閉作動指令信号は、スライドドア40を閉作動させるための指令信号である。停止指令信号は、開閉作動中のスライドドア40を停止させるための指令信号である。また、無線通信装置90は、通信エリアA1内に携帯機300が存在している場合、その旨を示す信号を操作検出装置200に出力する。
【0027】
ドア制御装置100は、入力される指令信号の内容に基づいて、ドアアクチュエータ71及びドアロックアクチュエータ72を制御する。詳しくは、ドア制御装置100は、開作動指令信号が入力される場合、ロック機構60をアンラッチ作動させた後、スライドドア40を開作動させる。ドア制御装置100は、閉作動指令信号が入力される場合、スライドドア40を全閉位置の付近まで閉作動させた後、ロック機構60をフルラッチ作動させる。ドア制御装置100は、停止指令信号が入力される場合、作動中のスライドドア40を停止させる。
【0028】
次に、操作検出装置200について説明する。
操作検出装置200は、ユーザの足部Fの爪先T(以下、「ユーザの爪先T」ともいう。)を用いたジェスチャを検出したときに、当該ジェスチャに対応する指令信号をドア制御装置100に出力する。つまり、ユーザのジェスチャは、スライドドア40の開閉作動の契機であり、操作検出装置200は、ユーザのスライドドア40の作動要求を検出する。本実施形態において、ユーザの爪先Tは、ユーザのジェスチャに用いる「身体部位」の一例に相当する。
【0029】
図1に示すように、操作検出装置200は、記憶部210と、進入判定部220と、ジェスチャ判定部230と、を備える。
記憶部210は、事前に撮影された画像とユーザの爪先Tとを対応付けた教師データを用いて機械学習した学習済みモデルを記憶する。つまり、学習済みモデルは、カメラ80が撮影した画像を入力とし、当該画像中におけるユーザの爪先位置を出力するモデルである。また、学習済みモデルは、例えば、車両10の設計時に作成され、車両10の製造時に記憶部210に書き込まれる。
【0030】
以下、学習済みモデルの生成方法について説明する。学習済みモデルの生成方法は、図2に示すような教師データを準備する準備工程と、教師データに基づき機械学習を行う学習工程と、を有する。
【0031】
準備工程は、様々な条件下でユーザを撮影エリアA2に立たせた状態で撮影した画像を取得する取得工程と、取得工程で取得される複数の画像中のユーザの爪先位置を指定する指定工程と、を含む。
【0032】
取得工程は、例えば、実際の車両10と対応付けた試験車両を用いて実施される。取得工程は、ユーザに関する条件及び車両10の周囲の環境に関する条件を変更することで撮影される多くの画像を取得することが好ましい。取得工程は、ユーザの車両10に対する向きが異なるときの画像、ユーザの体格が異なるときの画像、ユーザの履物及び服装が異なるときの画像、ユーザの持ち物が異なるときの画像及びユーザの影のできる方向が異なるときの画像などを取得することが好ましい。また、取得工程は、昼間及び夜間など車両10の周囲の明るさが異なるときの画像、晴天時及び雨天時など天候が異なるときの画像及び舗装の有無など車両10が停止する地面の種類が異なるときの画像などを取得することが好ましい。これにより、様々な状況に適応可能な学習済みモデル、言い換えれば、汎用性の高い学習済みモデルを得ることが可能となる。
【0033】
指定工程は、図2に破線矢印で示すように、取得した画像に対して、ユーザの爪先Tの位置を指定する。位置の指定には、例えば、画像におけるピクセルを用いた座標を使用すればよい。その結果、図2に示すような教師データが生成される。
【0034】
学習工程は、複数の教師データを学習データとした機械学習によりモデルを生成する。機械学習の手法は、色々な手法を選択できるが、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)である。学習済みモデルは、撮影された画像が入力されることで、ユーザの爪先位置を出力する。
【0035】
次に、進入判定部220について説明する。進入判定部220は、進入判定処理と、方向特定処理と、を実施する。
<進入判定処理>
進入判定部220は、進入判定処理において、カメラ80の撮影エリアA2内に設定される認識エリアA3内にユーザが進入したか否かを判定する。詳しくは、進入判定部220は、時間をあけて撮影される画像を学習済みモデルに入力することで、当該画像中におけるユーザの爪先位置を取得する。続いて、進入判定部220は、取得した爪先位置が認識エリアA3内に存在しているか否かを判定する。学習済みモデルは両足の爪先位置を出力するため、進入判定部220は両足の爪先位置が認識エリアA3内に存在しているか否かを判定する。
【0036】
そして、進入判定部220は、出力されるユーザの爪先位置が認識エリアA3内に存在している場合、認識エリアA3内にユーザの爪先Tが進入していると判定する。一方、進入判定部220は、ユーザの爪先位置が出力されない場合及び出力されるユーザの爪先位置が認識エリアA3外に存在する場合、認識エリアA3内にユーザの爪先Tが進入していないと判定する。以降の説明では、認識エリアA3に対するユーザの爪先Tの進入判定が肯定判定されたときに、学習済みモデルに入力された画像を「第1基準画像」という。言い換えれば、第1基準画像は、進入判定処理が完了したときのユーザの爪先Tを撮影した画像であるといえる。
【0037】
図3及び図4は、一点鎖線で示すユーザの爪先Tが認識エリアA3に進入した様子を図示している。進入判定部220は、進入判定処理を実施することで、ユーザの車両10に対する接近方向に関わらず、ユーザの爪先Tが認識エリアA3に進入したことを検出できる。
【0038】
なお、サイドミラー50が展開されている場合及び畳まれている場合では、カメラ80の向きが変化する。このため、操作検出装置200は、サイドミラー50が展開されているか畳まれているかによって、認識エリアA3の位置を調整することが好ましい。もしくは、操作検出装置200は、サイドミラー50が展開されているか畳まれているかに関わらず、カメラ80が同方向を向くようにカメラ80の向き及び位置を調整できるようにしてもよい。
【0039】
また、以降の説明にも共通するが、学習済みモデルの性能によっては、学習済みモデルが出力する位置は、ユーザの爪先位置であるとは限らない。言い換えれば、学習済みモデルは、ユーザの爪先Tではない動体の位置を出力する可能性もある。ただし、本明細書中では、説明理解の容易のために、ユーザの爪先位置が撮影エリアA2内に存在する場合には、学習済みモデルがユーザの爪先位置を出力できるものとした。
【0040】
<方向特定処理>
進入判定部220は、方向特定処理において、認識エリアA3におけるユーザの向きDuを特定する。詳しくは、進入判定部220は、第1基準画像中のユーザの爪先位置から、第1基準画像よりも後に撮影された画像中のユーザの爪先位置に、向かう方向をユーザの向きDuとする。進入判定部220は、第1基準画像よりも後に撮影された画像に対して、第1基準画像中のユーザの爪先位置を含むエリアの特徴量のマッチングを行うことで、第1基準画像よりも後に撮影された画像中のユーザの爪先位置を特定する。第1基準画像中には右足爪先TR及び左足爪先TLの2つの爪先位置が存在するため、右足の爪先位置を含むエリア及び左足の爪先位置を含むエリアの両エリアの特徴量のマッチングが行われる。こうした2つの画像間における特徴量のマッチングには、オープンソースのコンピュータビジョンライブラリであるOpenCVを用いることができる。
【0041】
図3及び図4は、認識エリアA3を進んだユーザの足部Fを実線で示し、ユーザの向きDuを実線の直線矢印で示している。言い換えれば、認識エリアA3を進んだユーザの爪先Tの移動方向を実線の直線矢印で示している。進入判定部220は、方向特定処理を実施することで、ユーザの車両10に対する接近方向に関わらず、ユーザの向きDuを特定できる。詳しくは、図3に示すように、ユーザが車両10に接近する場合のユーザの向きDuは、幅方向に沿う方向となる。一方、図4に示すように、ユーザが車両10に接近する場合のユーザの向きDuは、幅方向及び前後方向の両方向と交差する方向となる。右足爪先TRの移動方向及び左足爪先TLの移動方向が異なる方向を向いている場合、双方の移動方向を足し合わせた方向をユーザの向きDuとすればよい。
【0042】
なお、進入判定部220は、第1基準画像及び第1基準画像よりも後に撮影された1枚の画像に基づいてユーザの向きDuを算出してもよいし、第1基準画像及び第1基準画像よりも後に撮影された複数の画像に基づいてユーザの向きDuを算出してもよい。また、以降の説明では、ユーザの向きDuの算出に使用された画像のうち、最後に撮影された画像を「第2基準画像」という。言い換えれば、第2基準画像は、方向特定処理が完了したときのユーザの爪先Tを撮影した画像であるといえる。
【0043】
次に、ジェスチャ判定部230について説明する。
ジェスチャ判定部230は、ジェスチャ設定処理と、変位ベクトル算出処理と、ジェスチャ判定処理と、中止判定処理と、を実施する。これらの処理は、ユーザの爪先Tが認識エリアA3内に進入したと判定された後に実施される処理である。
【0044】
<ジェスチャ設定処理>
ジェスチャ判定部230は、ジェスチャ設定処理において、ユーザの向きDuと対応付いたジェスチャパターンを設定する。以下、ユーザの向きDuとジェスチャパターンとの関係について説明する。
【0045】
図3及び図4に実線の曲線矢印で示すように、スライドドア40を開作動させるためのジェスチャは、右足爪先TRが弧を描くように右足爪先TRを振る動作である。言い換えれば、ジェスチャは、左足に対し右足踵の位置を変えずに右足爪先TRを開いて閉じる動作である。
【0046】
ユーザの向きDuが図3に示す方向の場合、ジェスチャ判定部230は、ユーザの右足爪先TRの移動方向が、図5に示す方向D1~D8の順に切り替わる場合に、ユーザがジェスチャを実施したと判定する。一方、ユーザの向きDuが図4に示す方向の場合、ジェスチャ判定部230は、ユーザの右足爪先TRの移動方向が、図6に示す方向D1~D8の順に切り替わる場合に、ユーザがジェスチャを実施したと判定する。
【0047】
図3及び図4に示すように、ユーザの向きDuが異なる場合、車両10との関係、言い換えれば、X軸及びY軸との関係において、図5に示す方向D1~D8及び図6に示す方向D1~D8はそれぞれ異なる方向である。一例として、図5における方向D1は、前後方向に延びる方向であるのに対し、図6における方向D1は、幅方向及び前後方向の両方向と交差する方向である。これに対し、ユーザの向きDuを基準としたとき、図5に示す方向D1~D8及び図6に示す方向D1~D8はそれぞれ同じ方向である。例えば、図5における方向D1及び図6における方向D1は、ともに、ユーザの向きDuに対して時計方向に90度傾いた方向である。
【0048】
こうして、ジェスチャ判定部230は、図3及び図4に示すようなユーザの向きDuと対応付けて、図5及び図6に示すようなジェスチャパターンを設定する。なお、図5及び図6に示すジェスチャパターンは、一例である。このため、実際には、図5及び図6に示すジェスチャパターンよりも詳細であってもよいし、簡素であってもよい。
【0049】
<変位ベクトル算出処理>
ジェスチャ判定部230は、変位ベクトル算出処理において、時間をあけて撮影された複数の画像に基づいて、ユーザの爪先Tの変位ベクトルvdを算出する。変位ベクトルvdの向きはユーザの爪先Tの移動方向を示し、変位ベクトルvdの大きさはユーザの爪先Tの移動量を示す。変位ベクトル算出処理は、進入判定部220によってユーザの向きDuが特定された後に実施される。
【0050】
ジェスチャ判定部230は、第2基準画像中のユーザの爪先位置から、第2基準画像の次に撮影された画像(以下、「第Nの画像」ともいう。)中のユーザの爪先位置に向かう変位ベクトルvdを算出する。ジェスチャ判定部230は、第Nの画像に対して、第2基準画像中のユーザの爪先位置を含むエリアの特徴量のマッチングを行うことで、第Nの画像中のユーザの爪先位置を特定する。そして、ジェスチャ判定部230は、両画像におけるユーザの爪先位置に基づいて、変位ベクトルvdを算出する。ここで、第2基準画像は爪先位置が特定済みの「特定画像」に相当し、第Nの画像は爪先位置が未特定の「未特定画像」に相当する。
【0051】
第2基準画像中には、右足爪先TR及び左足爪先TLの2つの爪先位置が存在するため、右足の爪先位置を含むエリア及び左足の爪先位置を含むエリアの両エリアに対して、特徴量のマッチングが行われる。つまり、ジェスチャ判定部230は、ユーザの右足爪先TRの変位ベクトルvd及びユーザの左足爪先TLの変位ベクトルvdを算出する。ここで、ユーザがジェスチャを実施する場合には、ユーザの右足爪先TRが移動する一方で、ユーザの左足爪先TLが移動しない。このため、ジェスチャ判定部230が算出する2つの変位ベクトルvdのうち、大きさの大きい変位ベクトルvdがユーザの右足爪先TRに対応し、大きさの小さい変位ベクトルvdがユーザの左足爪先TLに対応する。したがって、ジェスチャ判定部230は、以後、左足爪先TLと想定される爪先Tの変位ベクトルvdの算出を行わなくてもよい。
【0052】
第2基準画像及び第Nの画像間におけるユーザの爪先位置の変位ベクトルvdの算出が終わると、ジェスチャ判定部230は、第Nの画像中のユーザの爪先位置から、第Nの画像の次に撮影された画像(以下、「第N+1の画像」ともいう。)中のユーザの爪先位置に向かう変位ベクトルvdを算出する。ジェスチャ判定部230は、第N+1の画像に対して、第Nの画像中のユーザの爪先位置を含むエリアの特徴量のマッチングを行うことで、第N+1の画像中のユーザの爪先位置を特定する。この場合、第Nの画像が「特定画像」に相当し、第N+1の画像が「未特定画像」に相当する。こうして、ジェスチャ判定部230は、カメラ80から次の画像を取得する度に、所定の周期で撮影される2つの画像間におけるユーザの爪先Tの変位ベクトルvdを繰り返し算出する。つまり、「特定画像」及び「未特定画像」は順に切り替わる。
【0053】
ジェスチャ判定部230は、カメラ80から出力される1フレーム毎の画像を用いて変位ベクトルvdを算出してもよいし、カメラ80から出力される2フレーム毎の画像を用いて変位ベクトルvdを算出してもよい。つまり、ジェスチャ判定部230は、カメラ80が撮影する全ての画像を使用して変位ベクトルvdを算出する必要はない。また、一定の時間経過に対する変位ベクトルvdが算出される点で、変位ベクトルvdの大きさは、単位時間あたりのユーザの爪先Tの移動量、言い換えれば、ユーザの爪先Tの変位速度を表しているといえる。
【0054】
<ジェスチャ判定処理>
ジェスチャ判定部230は、ジェスチャ判定処理において、ユーザの爪先Tの変位ベクトルvdの向きが、設定されたジェスチャパターン通りに変化した場合に、ジェスチャが実施されたと判定する。つまり、ジェスチャ判定部230は、ドア制御装置100に各種の指令信号を出力する。
【0055】
ジェスチャ判定部230は、変位ベクトル算出処理及びジェスチャ判定処理を同時に実施してもよいし、順番に実施してもよい。前者の場合、ジェスチャ判定部230は、1つの変位ベクトルvdが算出されるたびに、当該変位ベクトルvdの向きがジェスチャパターンに対応する方向であるか否かを判定する。後者の場合、ジェスチャ判定部230は、まとまった数の変位ベクトルvdが算出された後に、複数の変位ベクトルvdの向きがジェスチャパターンに対応する方向に変化するか否かを判定する。
【0056】
<中止判定処理>
ジェスチャ判定部230は、中止判定処理において、ジェスチャの判定を継続したり中止したりする。中止判定処理は、ジェスチャ判定処理と並行して実施される処理である。
【0057】
例えば、ユーザが認識エリアA3で停止している場合など、ユーザがジェスチャを実施しない場合には、ユーザの爪先Tの単位時間あたりの移動量が「0」又は「0」に近い値を取りやすい。そこで、ジェスチャ判定部230は、爪先Tの変位ベクトルvdの大きさが所定の下限判定値vdth1未満の場合、ジェスチャの判定を中止する。
【0058】
ただし、ユーザがジェスチャを実施するときの状態によっては、ユーザの爪先Tの変位速度が一時的に低下することで、爪先Tの単位時間あたりの移動量が一時的に「0」又は「0」に近い値になる可能性がある。また、爪先Tの変位ベクトルvdの向きが反転する際には、爪先Tの単位時間あたりの移動量が一時的に「0」又は「0」に近い値になる可能性がある。そこで、ジェスチャ判定部230は、爪先Tの変位ベクトルvdの大きさが下限判定値vdth1未満となる回数が所定の停止判定回数cntth未満の場合には、ジェスチャの判定を中止しない。言い換えれば、ジェスチャ判定部230は、爪先Tの変位ベクトルvdの大きさが下限判定値vdth1未満となる回数が停止判定回数cntth以上の場合には、ジェスチャの判定を中止する。
【0059】
ユーザがジェスチャを実施する場合には、爪先Tの変位速度に限界がある。言い換えれば、爪先Tの単位時間あたりの移動量が過度に大きい場合には、変位ベクトルvdの算出対象がユーザの爪先Tでない可能性が高い。そこで、ジェスチャ判定部230は、爪先Tの変位ベクトルvdの大きさが上限判定値vdth2以上の場合、ジェスチャの判定を中止する。
【0060】
なお、下限判定値vdth1及び上限判定値vdth2並びに停止判定回数cntthは、シミュレーション及び実験などから事前に設定されることが好ましい。例えば、複数のユーザが複数の条件でジェスチャを実施するときの爪先Tの変位速度の測定結果に基づき、変位速度の平均μ及び標準偏差σを計算することが考えられる。この場合、下限判定値vdth1を「μ-3σ」に相当する値としたり、上限判定値vdth2を「μ+3σ」に相当する値としたりすればよい。
【0061】
以下、図7図9に示すフローチャートを参照して、ユーザのジェスチャを検出するために操作検出装置200が実施する処理の流れ、言い換えれば、操作検出方法について説明する。以降の処理は、車両10が駐車中に所定の制御サイクルで実施される処理である。
【0062】
図7に示すように、操作検出装置200は、無線通信装置90から出力される信号に基づいて、携帯機300が通信エリアA1に存在しているか否かを判定する(S11)。携帯機300が通信エリアA1に存在していない場合(S11:NO)、言い換えれば、ユーザが通信エリアA1内に存在していない場合、操作検出装置200は、本処理を終了する。
【0063】
一方、携帯機300が通信エリアA1に存在している場合(S11:YES)、言い換えれば、ユーザが通信エリアA1に存在している場合、操作検出装置200は、カメラ80を起動する(S12)。ステップS12において、携帯機300が車両10の右側及び左側の何れの通信エリアA1に存在しているかを判別できる場合には、携帯機300が存在している通信エリアA1に対応するカメラ80が起動される。例えば、車両10の右側の通信エリアA1に携帯機300が存在している場合、右側のサイドミラー50に設けられるカメラ80が起動される。
【0064】
続いて、操作検出装置200は、認識エリアA3内へのユーザの進入を判定するための処理と、ユーザのジェスチャを検出するための処理と、を実施する(S13,S14)。その後、操作検出装置200は、カメラ80を停止し(S15)、本処理を終了する。
【0065】
次に、図8に示すフローチャートを参照して、認識エリアA3内へユーザの進入を判定する処理内容について説明する。
図8に示すように、操作検出装置200は、カメラ80が撮影した画像を取得する(S21)。続いて、操作検出装置200は、取得した画像を学習済みモデルに入力することで、当該画像内におけるユーザの爪先位置を取得する(S22,S23)。続いて、操作検出装置200は、ユーザの爪先位置が認識エリアA3内に存在しているか否かを判定する(S24)。ユーザの爪先位置が認識エリアA3内に存在していない場合(S24:NO)、操作検出装置200は、ステップS21に処理を移行する。この場合、操作検出装置200は、次の画像に対してステップS22,S23の処理を実施する。こうして、操作検出装置200は、ユーザの爪先Tが認識エリアA3に進入するのを待機する。
【0066】
一方、ユーザの爪先位置が認識エリアA3内に存在している場合(S24:YES)、操作検出装置200は、次の画像を取得する(S25)。ここで、ステップS24の処理が肯定判定されるときに、判定の対象となっていた画像は第1基準画像に相当する。
【0067】
続いて、操作検出装置200は、第1基準画像及びステップS25で取得した画像の両画像間で、特徴量のマッチングを行う(S26)。続いて、操作検出装置200は、第1基準画像中のユーザの爪先位置を含むエリアの特徴量とマッチングするエリアが、ステップS25で取得した画像の中に含まれているか否かを判定する(S27)。
【0068】
マッチングするエリアがステップS25で取得した画像の中に含まれていない場合(S27:NO)、操作検出装置200は、ステップS25に処理を移行する。一方、マッチングするエリアがステップS25で取得した画像の中に含まれている場合(S27:YES)、操作検出装置200は、両画像間におけるユーザの爪先Tの移動方向を算出する(S28)。ステップS27において、ユーザの爪先Tの移動方向の算出に使用される画像のうち、第1基準画像でない方の画像が第2基準画像に相当する。その後、操作検出装置200は、算出したユーザの爪先Tの移動方向を認識エリアA3内におけるユーザの向きDuとして確定する(S29)。
【0069】
次に、図9に示すフローチャートを参照して、ユーザがジェスチャを実施したか否かを判定するための処理内容について説明する。
図9に示すように、操作検出装置200は、ユーザの向きDuに応じたジェスチャパターンを設定する(S31)。例えば、ユーザの向きDuが図3に示す方向である場合、図5に示すジェスチャパターンが設定され、ユーザの向きDuが図4に示す方向である場合、図6に示すジェスチャパターンが設定される。
【0070】
続いて、操作検出装置200は、次の画像を取得する(S32)。そして、操作検出装置200は、前回取得した画像及びステップS32で今回取得した画像の両画像間で、特徴量のマッチングを行う(S33)。なお、ステップS33が初めて実施される場合、前回取得した画像は第2基準画像となる。
【0071】
続いて、操作検出装置200は、前回取得した画像中のユーザの爪先位置を含むエリアの特徴量とマッチングするエリアが、今回取得した画像の中に含まれているか否かを判定する(S34)。マッチングするエリアが、今回取得した画像中の認識エリアA3内に含まれていない場合(S34)、操作検出装置200は、ステップS15に処理を移行する。
【0072】
一方、マッチングするエリアが、今回取得した画像中の認識エリアA3内に含まれている場合(S34:YES)、操作検出装置200は、ユーザの爪先Tの変位ベクトルvdを算出する(S35)。続いて、操作検出装置200は、変位ベクトルvdの大きさが上限判定値vdth2以上か否かを判定する(S36)。変位ベクトルvdの大きさが上限判定値vdth2以上の場合(S36:YES)、言い換えれば、2つの画像間を変位する動体がジェスチャの検出対象として適当でない可能性が高い場合、操作検出装置200は、ステップS15に処理を移行する。
【0073】
一方、変位ベクトルvdの大きさが上限判定値vdth2未満の場合(S36:NO)、操作検出装置200は、変位ベクトルvdの大きさが下限判定値vdth1以上か否かを判定する(S37)。変位ベクトルvdの大きさが下限判定値vdth1未満の場合(S37:YES)、言い換えれば、2つの画像間を変位する動体がジェスチャの検出対象として適当でない可能性がある場合、操作検出装置200は、停止カウンタcntをインクリメントする。停止カウンタcntは、変位ベクトルvdの大きさが下限判定値vdth1未満となった回数をカウントするための変数である。停止カウンタcntは、本処理を開始する際に「0」に初期化される。
【0074】
続いて、操作検出装置200は、停止カウンタcntが停止判定回数cntth以上か否かを判定する(S39)。停止カウンタcntが停止判定回数cntth以上の場合(S39:YES)、例えば、ユーザがジェスチャを実施することなく認識エリアA3内に長期間にわたって留まっている場合、操作検出装置200は、ステップS15に処理を移行する。一方、停止カウンタcntが停止判定回数cntth未満の場合(S39:NO)、例えば、ユーザがごく短期間だけジェスチャの実施を中止した場合、操作検出装置200は、ステップS32に処理を移行する。この場合、操作検出装置200は、ユーザがジェスチャの続きを判定する。
【0075】
ステップS37において、変位ベクトルvdの大きさが下限判定値vdth1以上の場合(S37:NO)、操作検出装置200は、変位ベクトルvdの向きがジェスチャパターンに合致しているか否かを判定する(S40)。変位ベクトルvdの向きがジェスチャパターンに合致していない場合(S40:NO)、操作検出装置200は、ステップS15に処理を移行する。一方、変位ベクトルvdの向きがジェスチャパターンに合致している場合(S40:YES)、操作検出装置200は、ジェスチャの照合が完了したか否かを判定する(S41)。ジェスチャの照合が完了していない場合(S41:NO)、操作検出装置200は、ステップS32に処理を移行する。一方、ジェスチャの照合が完了した場合(S41:YES)、操作検出装置200は、ドア制御装置100に対して開作動指令信号を出力する(S42)。
【0076】
なお、操作検出装置200は、携帯機300が通信エリアA1内に入った後であっても(S11:YES)、次のような場合には一連の処理を終了することが好ましい。例えば、操作検出装置200は、携帯機300が通信エリアA1外に移動した場合、スライドドア40が開作動し始めた場合、ACC電源及びIG電源がオンになった場合、所定のタイムアウト条件が成立した場合などには、本処理を終了することが好ましい。
【0077】
本実施形態の作用について説明する。
例えば、両手に荷物を持ったユーザが車両10に乗車しようとする場合を想定する。この場合、ユーザは、車両10のスライドドア40の正面まで移動した後、左足を軸足とし、右足の爪先Tを振る。すると、スライドドア40が開作動し、ユーザは、両手に持った荷物を後部座席に置くことが可能となる。ここで、ユーザの車両10に対する接近方向は、車両10の前後方向でもよいし、車両10の幅方向でもよいし、車両10の前後方向及び幅方向の両方向と交差する方向でもよい。つまり、ユーザは、車両10に対する接近方向に関わらず、一定のジェスチャを行うことでスライドドア40を開作動することができる。
【0078】
本実施形態の効果について説明する。
(1)操作検出装置200は、認識エリアA3内にユーザの爪先Tが進入した場合に、ユーザの爪先Tを用いたジェスチャが実施されたか否かを判定する。ここで、操作検出装置200は、カメラ80が撮影した画像と学習済みモデルとを用いて、認識エリアA3内にユーザの爪先Tが進入したか否かを判定する。このため、認識エリアA3内にユーザの爪先Tが進入したことを精度良く判定できる。こうして、操作検出装置200は、ユーザのジェスチャの検出精度を高めることができる。
【0079】
(2)操作検出装置200は、変位ベクトル算出処理において、爪先位置を含むエリアの特徴量のマッチングを行うことで、複数の画像間における爪先位置の変位ベクトルvdを算出する。このため、操作検出装置200は、変位ベクトルvdを算出する際の算出負荷を低減できる。
【0080】
(3)操作検出装置200は、ユーザの爪先Tの変位ベクトルvdの大きさが下限判定値vdth1未満の場合、ジェスチャの判定を中止する。このため、操作検出装置200は、ユーザのジェスチャを誤判定するおそれを低減できる。
【0081】
(4)操作検出装置200は、ユーザの爪先Tの変位ベクトルvdの大きさが下限判定値vdth1未満となる回数が停止判定回数cntth未満の場合には、ジェスチャの判定を中止しない。つまり、操作検出装置200は、ユーザの状態及びジェスチャの内容などに起因して、ジェスチャの判定を中止しにくくなる。このため、操作検出装置200は、ジェスチャの判定精度が低下することを抑制できる。
【0082】
(5)操作検出装置200は、ユーザの爪先Tの変位ベクトルvdの大きさが上限判定値vdth2以上の場合、ジェスチャの判定を中止する。このため、操作検出装置200は、ジェスチャを誤判定するおそれを低減できる。
【0083】
(6)操作検出装置200は、ユーザの両足の爪先位置の2つの変位ベクトルvdのうち、大きさの大きい変位ベクトルvdの爪先Tがジェスチャを実施する爪先Tであると判定する。このため、操作検出装置200は、ユーザが右足爪先TRではなく左足爪先TLでジェスチャを行う場合でも、ユーザがジェスチャを実施したと判定できる。
【0084】
本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・ジェスチャ判定部230は、変位ベクトル算出処理において、時間をあけて撮影された複数の画像を学習済みモデルに入力することで得られる複数の画像ごとのユーザの爪先位置に基づいて、変位ベクトルvdを算出してもよい。具体的には、ジェスチャ判定部230は、先に取得した画像を学習済みモデルに入力することで得られるユーザの爪先位置及び後に取得したの画像を学習済みモデルに入力することで得られるユーザの爪先位置に基づき、変位ベクトルvdを算出してもよい。以下、図10に示すフローチャートを参照して簡単に説明する。図10に示すフローチャートは、図9に示すフローチャートと相違する部分を示している。
【0085】
図10に示すように、操作検出装置200は、画像を取得する(S32)。続いて、操作検出装置200は、取得した画像を学習済みモデルに入力することにより、ユーザの爪先位置を取得する(S51,S52)。その後、操作検出装置200は、ユーザの爪先位置が認識エリアA3内に存在しているか否かを判定する(S53)。ユーザの爪先位置が認識エリアA3外に存在していない場合(S53:NO)、操作検出装置200は、ステップS15に処理を移行する。一方、ユーザの爪先位置が認識エリアA3内に存在している場合(S53:YES)、操作検出装置200は、先に取得した画像の爪先位置及び後に取得した爪先位置に基づき、変位ベクトルvdを算出する(S33)。
【0086】
このように、ジェスチャ判定部230は、新たに取得した画像を学習済みモデルに入力することで、当該画像中のユーザの爪先位置を特定できる。これによれば、操作検出装置200は、ユーザの爪先Tの変位ベクトルvdを精度良く算出できる。なお、進入判定部220が方向特定処理を実施する場合(S26,S27)についても同様に処理することもできる。
【0087】
・操作検出装置200は、ユーザの爪先位置を取得するために、上記実施形態及び上記変更例を合わせて利用してもよい。
・学習済みモデルは、カメラ80が撮影した画像を入力として、ユーザの右足爪先TRの位置を出力するモデルとしてもよい。この場合、教師データは、ユーザの右足爪先TRの位置のみを指定した画像データとなる。また、学習済みモデルは、ユーザの右足爪先TRの位置を出力するモデルと、ユーザの左足爪先TLの位置を出力するモデルと、を含んでもよい。
【0088】
・ユーザのジェスチャは、足部Fを除く身体部位を利用したジェスチャであってもよい。例えば、身体部位を頭部としたとき、ユーザのジェスチャは、頭部を上下又は左右に振る動作であってもよい。また、身体部位を手又は腕部としたとき、ユーザのジェスチャは、手又は腕部を上下又は左右に振る動作であってもよい。また、身体部位を瞼としたとき、ユーザのジェスチャは、片目を瞬きする動作であってもよい。
【0089】
・操作検出装置200は、ユーザが車両10を使用するのに合わせて、機械学習を進めてもよい。これによれば、学習済みモデルをユーザの実際の車両10の使用環境に適合させたモデルとすることができる。
【0090】
・操作検出装置200は、スライドドア40を閉作動させるためのユーザのジェスチャを検出してもよい。この場合、スライドドア40を開作動させるためのジェスチャ及びスライドドア40を閉作動させるためのジェスチャは、同一であってもよいし、異なっていてもよい。
【0091】
・ドア制御装置100は、操作検出装置200から開作動指令信号が入力されたとき、ロック機構60をアンラッチ作動させるだけに留めてもよい。
・カメラ80は、サイドミラー50に設置しなくてもよい。例えば、カメラ80は、ドア開口部22の上端に設置してもよいし、スライドドア40に設置してもよい。
【0092】
・「開閉体」は、フロントドア30としてもよいし、バックドアとしてもよいし、サンルーフ装置の可動パネルとしてもよい。
・ドア制御装置100及び操作検出装置200は、コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサとして構成し得る。また、ドア制御装置100及び操作検出装置200は、各種処理のうち少なくとも一部の処理を実行する専用のハードウェア(特定用途向け集積回路:ASIC)等の1つ以上の専用のハードウェア回路として構成し得る。さらに、ドア制御装置100及び操作検出装置200は、これらの組み合わせを含む回路として構成し得る。プロセッサは、CPU並びに、RAM及びROM等のメモリを含んでいる。メモリは、処理をCPUに実行させるように構成されたプログラムコードまたは指令を格納している。メモリ、すなわち記憶媒体は、汎用または専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
【符号の説明】
【0093】
10…車両
20…車体
22…ドア開口部(開口部の一例)
40…スライドドア(開閉体の一例)
71…ドアアクチュエータ(駆動部の一例)
80…カメラ
100…ドア制御装置
200…車両用操作検出装置
210…記憶部
220…進入判定部
230…ジェスチャ判定部
300…携帯機
A1…通信エリア
A2…撮影エリア
A3…認識エリア
T(TR,TL)…爪先
vd…変位ベクトル
vdth1…下限判定値
vdth2…上限判定値
cntth…停止判定回数
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10