IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 三菱電機株式会社の特許一覧

特許7592159位置検出装置、体格検出システム、および、位置検出方法
<>
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図1
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図2
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図3
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図4
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図5
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図6
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図7
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図8
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図9
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図10
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図11
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図12
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図13
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図14
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図15
  • 特許-位置検出装置、体格検出システム、および、位置検出方法 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-21
(45)【発行日】2024-11-29
(54)【発明の名称】位置検出装置、体格検出システム、および、位置検出方法
(51)【国際特許分類】
   G01S 13/86 20060101AFI20241122BHJP
   G01B 11/00 20060101ALI20241122BHJP
【FI】
G01S13/86
G01B11/00 H
【請求項の数】 7
(21)【出願番号】P 2023520572
(86)(22)【出願日】2021-05-10
(86)【国際出願番号】 JP2021017626
(87)【国際公開番号】W WO2022239048
(87)【国際公開日】2022-11-17
【審査請求日】2023-05-08
(73)【特許権者】
【識別番号】000006013
【氏名又は名称】三菱電機株式会社
(74)【代理人】
【識別番号】110003166
【氏名又は名称】弁理士法人山王内外特許事務所
(72)【発明者】
【氏名】林 弥生
(72)【発明者】
【氏名】武井 匠
【審査官】藤脇 昌也
(56)【参考文献】
【文献】国際公開第2017/222072(WO,A1)
【文献】特開2020-044153(JP,A)
【文献】特開2017-181209(JP,A)
【文献】米国特許出願公開第2016/224858(US,A1)
【文献】国際公開第2016/23075(WO,A1)
【文献】中国特許出願公開第108710367(CN,A)
【文献】国際公開第2020/217878(WO,A1)
【文献】米国特許出願公開第2016/349051(US,A1)
【文献】米国特許出願公開第2018/313956(US,A1)
【文献】米国特許出願公開第2019/265714(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G01S 7/00 - 7/51
13/00 - 13/95
17/00 - 17/95
G01B 11/00 - 11/30
G06T 1/00 - 19/20
(57)【特許請求の範囲】
【請求項1】
カメラが撮像した撮像画像に基づいて、当該撮像画像における、人の体の部位に対応する対象特徴点を検出する特徴点検出部と、
前記特徴点検出部が検出した前記対象特徴点の前記撮像画像上の位置に基づき、前記カメラと前記対象特徴点を結ぶ直線の前記カメラの撮像軸に対する角度を示す、特徴点位置角度を算出する角度算出部と、
測距センサが取得したセンサ情報に基づいて、前記測距センサから前記対象特徴点までの第1距離を検出する距離検出部と、
前記角度算出部が算出した前記特徴点位置角度と、前記距離検出部が検出した前記第1距離とに基づき、前記対象特徴点の三次元位置を特定する位置特定部
とを備えた位置検出装置。
【請求項2】
前記測距センサは電波センサであり、
前記特徴点検出部は、前記対象特徴点を含む複数個の特徴点を検出し、
前記特徴点検出部が検出した前記複数個の特徴点に基づいて、前記カメラから前記対象特徴点までの第2距離を推定する距離推定部を備え、
前記位置特定部は、前記距離検出部が検出した前記第1距離と、前記距離推定部が推定した前記第2距離とに基づいて、前記電波センサから前記対象特徴点までの判定後距離を判定し、前記角度算出部が算出した前記特徴点位置角度と前記判定後距離とに基づき、前記対象特徴点の前記三次元位置を特定する
ことを特徴とする請求項1記載の位置検出装置。
【請求項3】
前記撮像画像に基づいて前記人が着用している装着物を検出する装着物検出部を備え、
前記位置特定部は、前記装着物検出部が前記装着物を検出した場合は、前記特徴点位置角度と前記第1距離とに基づき前記対象特徴点の前記三次元位置を特定し、
前記装着物検出部が前記装着物を検出しなかった場合は、前記特徴点位置角度と前記判定後距離とに基づき前記対象特徴点の前記三次元位置を特定する
ことを特徴とする請求項2記載の位置検出装置。
【請求項4】
前記距離推定部は、前記特徴点検出部が検出した前記複数個の特徴点のうちの距離算出用特徴点間の距離である特徴点間距離と基準特徴点間距離とに基づき、前記カメラから前記対象特徴点までの前記第2距離を推定し、
前記基準特徴点間距離は、前記特徴点間距離と、前記距離検出部が検出した前記第1距離とに基づいて設定されている
ことを特徴とする請求項2記載の位置検出装置。
【請求項5】
前記特徴点検出部は、前記測距センサと三次元空間における横方向の位置、高さ方向の位置、奥行方向の位置、および、設置傾きのうちの少なくとも一つが同じに設置され、かつ、前記対象特徴点が存在すると想定される実空間を撮像可能な向きに設置されている前記カメラ、が撮像した前記撮像画像に基づいて前記対象特徴点を検出し、
前記距離検出部は、前記カメラと三次元空間における横方向の位置、高さ方向の位置、奥行方向の位置、および、設置傾きのうちの少なくとも一つが同じに設置され、かつ、前記対象特徴点が存在すると想定される実空間をセンシング可能な向きに設置されている前記測距センサ、がセンシングした前記センサ情報に基づいて前記第1距離を検出する
ことを特徴とする請求項1記載の位置検出装置。
【請求項6】
請求項1から請求項5のうちのいずれか1項記載の位置検出装置と、
前記位置特定部が特定した前記対象特徴点の前記三次元位置に関する位置情報を取得する位置情報取得部と、
前記位置情報取得部が取得した前記位置情報に基づき、前記人の体格を判定する体格判定部を備え、
前記体格判定部は、前記位置特定部が特定した前記対象特徴点の前記三次元位置が、前記人が正規着座状態である場合に前記対象特徴点が存在すると想定される実空間上の基準特徴点領域内にある場合に、前記人の体格を判定する
ことを特徴とする体格検出システム。
【請求項7】
特徴点検出部が、カメラが撮像した撮像画像に基づいて、当該撮像画像における、人の体の部位に対応する対象特徴点を検出するステップと、
角度算出部が、前記特徴点検出部が検出した前記対象特徴点の前記撮像画像上の位置に基づき、前記カメラと前記対象特徴点を結ぶ直線の前記カメラの撮像軸に対する角度を示す、特徴点位置角度を算出するステップと、
距離検出部が、測距センサが取得したセンサ情報に基づいて、前記測距センサから前記対象特徴点までの第1距離を検出するステップと、
位置特定部が、前記角度算出部が算出した前記特徴点位置角度と、前記距離検出部が検出した前記第1距離とに基づき、前記対象特徴点の三次元位置を特定するステップ
とを備えた位置検出方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、位置検出装置、体格検出システム、および、位置検知方法に関する。
【背景技術】
【0002】
従来、人を含む領域が撮像された画像における特徴点を検出し、当該検出された特徴点に基づき、人の三次元位置を特定する技術が知られている。
例えば、特許文献1には、車両において、乗員の顔に対応する領域が撮像された画像における顔に対する領域中の特徴点を抽出し、当該抽出された特徴点に基づく特徴点間距離と基準特徴点間距離とに基づいて、乗員の頭部の三次元位置を推定する方法が開示されている。当該方法では、基準特徴点間距離の値を、複数人の人間に対する実測値の統計値に基づいて設定された値、乗員が搭乗した際に当該乗員の頭部の位置を所定の位置に誘導して算出した値、または、乗員の頭部の位置が所定の位置にある蓋然性が高いタイミングで算出した値としている。
【先行技術文献】
【特許文献】
【0003】
【文献】国際公開第2019/163124号
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に開示されているような従来技術における人の三次元位置の推定方法では、当該三次元位置を推定するのに基準特徴点間距離が必須であり、当該基準特徴点間距離が適切に設定されていない場合、人の三次元位置を誤推定する可能性があるという課題があった。
【0005】
本開示は、上記のような課題を解決するためになされたものであり、基準特徴点間距離を必須として人の三次元位置を推定する従来技術よりも高精度に人の三次元位置を特定できる位置検出装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示の位置検出装置は、カメラが撮像した撮像画像に基づいて、当該撮像画像における、人の体の部位に対応する対象特徴点を検出する特徴点検出部と、特徴点検出部が検出した対象特徴点の撮像画像上の位置に基づき、カメラと対象特徴点を結ぶ直線のカメラの撮像軸に対する角度を示す、特徴点位置角度を算出する角度算出部と、測距センサが取得したセンサ情報に基づいて、測距センサから対象特徴点までの第1距離を検出する距離検出部と、角度算出部が算出した特徴点位置角度と、距離検出部が検出した第1距離とに基づき、対象特徴点の三次元位置を特定する位置特定部とを備える。
【発明の効果】
【0007】
本開示によれば、位置検出装置は、上記のように構成したので、基準特徴点間距離を必須として人の三次元位置を推定する従来技術よりも高精度に人の三次元位置を特定できる。
【図面の簡単な説明】
【0008】
図1】実施の形態1に係る位置検出装置の構成例を示す図である。
図2】実施の形態1において、車両に搭載されるカメラの設置位置および向きの一例と、車両に搭載される測距センサの設置位置および向きの一例を示す図である。
図3】実施の形態1において、車両に搭載されるカメラの設置位置および向きのその他の一例と、車両に搭載される測距センサの設置位置および向きのその他の一例を示す図である。
図4】実施の形態1において、角度算出部が算出する特徴点位置角度、および、角度算出部による特徴点位置角度の算出方法の一例を説明するための図であって、図4Aは、水平方向に対するカメラの撮像画角および特徴点位置角度の一例を説明するための図であり、図4Bは、鉛直方向に対するカメラの撮像画角および特徴点位置角度の一例を説明するための図であり、図4Cは、カメラが撮像した撮像画像を示す図である。
図5】実施の形態1において、位置特定部による、対象特徴点の三次元位置の特定方法の一例について説明するための図であって、図5Aは、車室内を上部から見た、カメラの撮像状況および測距センサの動体検出状況を示す図であり、図5Bは、車室内を左側面から見た、カメラの撮像状況および測距センサの動体検出状況を示す図である。
図6】実施の形態1に係る位置検出装置の動作について説明するためのフローチャートである。
図7図7A図7Bは、実施の形態1に係る位置検出装置のハードウェア構成の一例を示す図である。
図8】実施の形態2に係る位置検出装置の構成例を示す図である。
図9】実施の形態2において、位置特定部が判定後距離を判定する方法の一例について説明するための図であって、図9Aは、電波センサの検出結果と距離分解能の関係性について示す図であり、図9B図9C、および、図9Dは、第2距離を用いて位置特定部が判定した判定後距離を示す図である。
図10】実施の形態2に係る位置検出装置の動作について説明するためのフローチャートである。
図11】実施の形態3に係る位置検出装置の構成例を示す図である。
図12】実施の形態3に係る位置検出装置の動作について説明するためのフローチャートである。
図13】実施の形態4に係る位置検出装置の構成例を示す図である。
図14図14Aおよび図14Bは、実施の形態4において、距離推定部が基準特徴点間距離を設定し、設定した基準特徴点間距離を用いて第2距離を推定する方法の一例について説明するための図である。
図15】実施の形態4に係る位置検出装置の動作について説明するためのフローチャートである。
図16】実施の形態1~実施の形態4に係る体格検出システムにおいて、乗員が正規着座状態であると判定した場合に体格判定を行うようにした場合の体格検出装置の動作について説明するためのフローチャートである。
【発明を実施するための形態】
【0009】
以下、本開示を実施するための形態について、添付の図面に従って説明する。
【0010】
実施の形態1.
実施の形態1に係る位置検出装置は、カメラが撮像した撮像画像と測距センサがセンシングした情報とに基づいて、人の三次元位置を特定する。実施の形態1において、人の位置は、予め決められた、人の体の部位の位置であらわされる。人の体の部位は、当該部位に対応付けられている特徴点であらわされる。すなわち、人の三次元位置は、人の体の部位に対応する特徴点の三次元位置であらわされる。実施の形態1では、一例として、人の位置は当該人の頭の位置で示される。人の頭のどの点を当該人の頭の位置に対応する特徴点とするかは、予め決まっている。
実施の形態1において、人の位置をあらわす当該人の体の部位に対応付けられている特徴点を、「対象特徴点」という。
また、以下の実施の形態1では、一例として、位置検出装置が三次元位置を特定する対象となる人は、車両の運転席または助手席に着座している乗員とする。以下の実施の形態1において、運転席または助手席の乗員を、単に「乗員」ともいう。
【0011】
図1は、実施の形態1に係る位置検出装置1の構成例を示す図である。
位置検出装置1は、車両1000に搭載され、カメラ2、測距センサ3、および、体格検出装置4に接続される。
カメラ2は、車両1000に搭載された可視光カメラまたは赤外線カメラにより構成されている。カメラ2は、例えば、いわゆる「ドライバーモニタリングシステム(Driver Monitoring System,DMS)」と共用のものであってもよい。カメラ2は、車両1000の運転席または助手席のうちの少なくとも一方(以下「前部座席」という。)に着座している乗員を含む範囲を撮像可能な撮像画角を有している。なお、撮像画角の単位は度である。
カメラ2は、撮像した画像(以下「撮像画像」という。)を、位置検出装置1に出力する。
【0012】
測距センサ3は、例えば、車両1000に搭載されたTOF(Time Of Flight)センサ、電波センサ、または、超音波センサ等、動体までの距離が測定可能な測距センサにより構成されている。測距センサ3は、車室内に存在する動体までの距離に関する情報(以下「センサ情報」という。)を取得する。測距センサ3は、取得したセンサ情報を位置検出装置1に出力する。
【0013】
ここで、図2は、実施の形態1において、車両1000に搭載されるカメラ2の設置位置および向きの一例と、車両1000に搭載される測距センサ3の設置位置および向きの一例を示す図である。
なお、図2は、車両1000を当該車両1000の進行方向に対して左側から見た図とし、前部座席を501、後部座席を502で示している。
図2に示すように、カメラ2は、例えば、ダッシュボードに、前部座席に着座している乗員が存在すると想定される実空間、すなわち、対象特徴点が存在すると想定される実空間を撮像可能な向きで設置される。
実施の形態1において、カメラ2の位置は、レンズ表面と撮像軸とが交わる点であらわされるものとする。実施の形態1において、撮像軸とは、撮像部、すなわち、カメラ2における光学系の光軸のことをいう。
図2では、カメラ2の位置を、便宜上、2aに示す位置としている。
【0014】
また、測距センサ3は、例えば、オーバーヘッドコンソールに、前部座席に着座している乗員が存在すると想定される実空間、すなわち、対象特徴点が存在すると想定される実空間をセンシング可能な向きで設置される。測距センサ3は、オーバーヘッドコンソールに設置されることで、マルチパスノイズの影響を抑えることができ、より高い精度で乗員(図2において201で示す)を検出することができる。
実施の形態1において、測距センサ3の位置は、当該測距センサ3のセンシング範囲との関係で決まる当該測距センサ3の中心であらわされるものとする。
図2では、測距センサ3の位置を、便宜上、3aに示す位置としている。
【0015】
カメラ2と測距センサ3とは、それぞれ、カメラ2の撮像範囲(図2においてF101にて示す)と、測距センサ3のセンシング範囲(図2においてF102にて示す)とが重なるように設置される。なお、図2では、カメラ2の撮像範囲と測距センサ3のセンシング範囲とが重なる領域をF103で示している。
実施の形態1において、カメラ2の三次元空間における座標系と測距センサ3の三次元空間における座標系は、同じ座標系であらわされる。つまり、カメラ2の座標系におけるX軸、Y軸、および、Z軸と、測距センサ3の座標系におけるX軸、Y軸、および、Z軸とは共通である。実施の形態1では、カメラ2および測距センサ3で共通の、三次元空間における座標系において、カメラ2の位置の座標を(0,0,0)とする。
【0016】
以下の実施の形態1では、一例として、カメラ2および測距センサ3は、それぞれ、図3に示すような位置に設置されているものとする。
図3は、図2同様、車両1000を当該車両1000の進行方向に対して左側から見た図とし、前部座席を501、後部座席を502で示している。また、図3において、乗員を201で示している。また、便宜上、図3では、カメラ2の位置を2aに示す位置とし、測距センサ3の位置を3aに示す位置としている。
図3において、測距センサ3は、乗員の体の部位のうち当該乗員の頭が最も測距センサ3に近い位置となるよう設置されている。また、カメラ2はダッシュボード上に設置されている。
カメラ2と測距センサ3とは、左右、上下、および、前後方向の設置軸と、左右および前後方向の設置座標とが互いに等しい。カメラ2と測距センサ3とは、上下方向の設置座標が異なる。具体的には、測距センサ3が、カメラ2よりもα[m]だけ上部になるよう設置されている。
【0017】
カメラ2および測距センサ3は、それぞれ、互いの向きが一致し、かつ、互いの位置が一致するように設置されることで、位置検出装置1において対象特徴点の三次元位置を特定する際の処理の演算量を減らすことができる。すなわち、カメラ2および測距センサ3が、互いの向きが一致し、かつ、互いの位置が一致するように設置されているとき、カメラ2および測距センサ3は、位置検出装置1において対象特徴点の三次元位置を特定する際の処理の演算量を最小限にできる最適な位置に設置されていると言える。位置検出装置1の詳細については後述する。
なお、実施の形態1において、カメラ2および測距センサ3が互いの位置が一致するように設置されるとは、カメラ2と測距センサ3とが、互いに、三次元空間における横方向(X軸方向)の位置、高さ方向(Y軸方向)の位置、奥行方向(Z軸方向)の位置、および、設置傾きの全てが一致するように設置されることをいう。
ここで、上述の、位置検出装置1において対象特徴点の三次元位置を特定する際の処理の演算量を最小限にできる、カメラ2および測距センサ3の最適な設置位置において、カメラ2の位置と測距センサ3の位置は、完全に一致している必要はなく、予め決められている許容範囲内で略一致していればよい。また、上述の、位置検出装置1において対象特徴点の三次元位置を特定する際の処理の演算量を最小限にできる、カメラ2および測距センサ3の最適な設置位置において、カメラ2の向きと測距センサ3の向きは、完全に一致している必要はなく、予め決められている許容範囲内で略一致していればよい。
なお、図2および図3では、カメラ2の位置と測距センサ3の位置とは一致していない。
実施の形態1において、カメラ2と測距センサ3とは、互いに、三次元空間における横方向(X軸方向)の位置、高さ方向(Y軸方向)の位置、奥行方向(Z軸方向)の位置、および、設置傾きのうちの少なくとも一つが同じに設置されていればよい。
【0018】
位置検出装置1は、カメラ2が撮像した撮像画像と測距センサ3が取得したセンサ情報とに基づいて、対象特徴点の三次元位置を特定する。すなわち、位置検出装置1が対象特徴点の三次元位置を特定することで、乗員の三次元位置が特定される。
位置検出装置1は、対象特徴点の三次元位置を特定すると、当該対象特徴点の三次元位置に関する情報(以下「位置情報」という。)を、体格検出装置4に出力する。
【0019】
体格検出装置4は、車両1000に搭載され、位置検出装置1から出力された位置情報に基づき、乗員の体格を判定する。
体格検出装置4は、位置情報取得部41および体格判定部42を備える。
位置情報取得部41は、位置検出装置1から位置情報を取得する。
体格判定部42は、位置情報取得部41が取得した位置情報に基づき、乗員の体格を判定する。
体格判定部42は、人の位置を示す情報から当該人の体格を判定する周知の技術を用いて乗員の体格を判定すればよいため、体格判定部42が乗員の体格を判定する方法の詳細な説明を省略する。
位置検出装置1と体格検出装置4とで、体格検出システム100が構成される。
【0020】
体格検出装置4が判定した乗員の体格に関する情報は、車両1000に搭載されている衝突安全装置5に出力される。
衝突安全装置5は、体格検出装置4が判定した乗員の体格にあわせて、車両1000に搭載されているエアバッグ(図示省略)またはシートベルト・プリテンショナ(図示省略)等の制御を行う。
エアバッグまたはシートベルト・プリテンショナ等は、乗員の体格を考慮して制御される必要がある。例えば、エアバッグは、当該エアバッグの作動時に、乗員の体格に対応した乗員と当該エアバッグとの距離に基づき、当該エアバッグの爆発力で乗員を傷つけることがないよう、制御される必要がある。また、例えば、シートベルト・プリテンショナは、当該シートベルト・プリテンショナ作動時に、シートベルトが乗員の首を絞めることがないよう、乗員の体格に応じた首の位置を考慮して制御される必要がある。そのため、衝突安全装置5が、エアバッグまたはシートベルト・プリテンショナ等の制御機能を適切に作動させるよう、体格検出装置4は、乗員の体格を適切に判定することが求められる。すなわち、位置検出装置1は、乗員の体格の判定のもととなる乗員の位置を精度よく特定することが求められる。実施の形態1に係る位置検出装置1は、乗員の位置を高精度に特定することを可能とする。
なお、衝突安全装置5は、位置検出装置1が出力した乗員の位置情報を取得して、エアバッグまたはシートベルト・プリテンショナ等の制御を行ってもよい。
【0021】
実施の形態1に係る位置検出装置1について説明する。
図1に示すように位置検出装置1は、特徴点検出部11、角度算出部12、距離検出部13、および、位置特定部14を備える。
【0022】
特徴点検出部11は、カメラ2から撮像画像を取得し、カメラ2が撮像した撮像画像に基づいて、当該撮像画像における対象特徴点を検出する。ここでは、特徴点検出部11は、撮像画像における、乗員の頭に対応する対象特徴点を検出する。
なお、特徴点検出部11は、複数個の特徴点を検出することができる。例えば、特徴点検出部11は、目および鼻といった顔のパーツを示す特徴点をあわせて検出してもよいし、首および肩といった体のパーツを示す特徴点をあわせて検出してもよい。
特徴点検出部11は、撮像画像から人の特徴点を検出する周知の技術を用いて撮像画像における特徴点を検出すればよいため、特徴点検出部11が特徴点を検出する方法の詳細な説明は省略する。撮像画像における特徴点は、撮像画像上の座標であらわされる。
特徴点検出部11は、検出した対象特徴点に関する情報(以下「対象特徴点情報」という。)を、角度算出部12に出力する。
【0023】
角度算出部12は、特徴点検出部11が検出した対象特徴点の撮像画像上の位置に基づき、カメラ2と対象特徴点を結ぶ直線のカメラ2の撮像軸に対する角度を示す「特徴点位置角度」を算出する。
より詳細には、角度算出部12は、カメラ2の撮像軸の方向に対する、カメラ2から対象特徴点の三次元位置に向かう方向の角度を示す特徴点位置角度を算出する。
【0024】
ここで、上述の特徴点検出部11が検出する対象特徴点、および、角度算出部12が算出する特徴点位置角度について、図面を用いて説明する。
図4は、実施の形態1において、角度算出部12が算出する特徴点位置角度θcx,θcy、および、角度算出部12による特徴点位置角度θcx,θcyの算出方法の一例を説明するための図である。
図4において、乗員は201で示し、乗員の頭位置、すなわち、乗員の頭に対応する特徴点の位置を202で示している。
図4Aは、水平方向に対するカメラ2の撮像画角θxおよび特徴点位置角度θcxの一例を説明するための図であり、図4Bは、鉛直方向に対するカメラ2の撮像画角θyおよび特徴点位置角度θcyの一例を説明するための図であり、図4Cは、カメラ2が撮像した撮像画像を示す図である。
【0025】
上述のとおり、カメラ2は、撮像画角θx,θyを有している。
ここで、図4Aに示すように、θxは、水平方向(図4中、x軸およびz軸により規定される仮想的な平面に沿う方向)に対する撮像画角である。
図4Aの左側の図に示すように、θcxは水平方向に対する特徴点位置角度である。なお、θcxのわかりやすさのため、図4Aの左側の図を示したが、ここでは、例えば、図4Aの右側の図のように、特徴点位置角度θcx=0[度]とする。つまり、カメラ2と対象特徴点を結ぶ直線と、カメラ2の撮像軸(図4においてIAで示す)との水平方向の向きが一致しているものとする。
図4Bに示すように、θyは、鉛直方向(図4中、y軸およびz軸により規定される仮想的な平面に沿う方向)に対する撮像画角である。
図4Bに示すように、θcyは鉛直方向に対する特徴点位置角度である。
なお、特徴点位置角度θcx,θcyの単位は度である。
【0026】
特徴点位置角度θcx,θcyが図4Aの右側の図および図4Bに示すような角度となる位置に対象特徴点がある場合、当該対象特徴点像された撮像画像は、図4Cにおいて21で示す撮像画像のようになる。
特徴点検出部11は、図4Cにおいて21で示すような撮像画像上で、対象特徴点を検出する。ここでは、特徴点検出部11が検出した対象特徴点は、例えば、座標(Xc,Yc)であらわされるとする。
【0027】
角度算出部12は、特徴点検出部11が検出した、座標(Xc,Yc)であらわされる対象特徴点の撮像画像上の位置に基づき、カメラ2の撮像軸に対する特徴点位置角度θcx,θcyを算出する。特徴点位置角度θcx,θcyを算出する際、角度算出部12は、図4Cに示すように、撮像画像において、カメラ2の撮像軸に対応する位置の座標、すなわち、撮像画像における中心部の位置座標が(0,0)に設定されているとする。
具体的には、角度算出部12には撮像画角θx,θyの値と、撮像画像における第1軸方向(図4におけるx軸方向)に対する解像度の値(図4Cにおいてmで示す)と、撮像画像における第2軸方向(図4におけるy軸方向)に対する解像度の値(図4Cにおいてnで示す)とが予め記憶されている。なお、解像度の単位はピクセル(px)である。
【0028】
角度算出部12は、特徴点検出部11により検出された対象特徴点の位置の座標(Xc,Yc)に基づいて、以下の式(1)および式(2)により、特徴点位置角度θcx,θcyを算出する。
Xc:tanθcx=(m/2):tan(θx/2) ・・・(1)
Yc:tanθcy=(n/2):tan(θy/2) ・・・(2)
対象特徴点の三次元位置座標は、以下の式(3)の直線上にあると言える。

なお、ここでは、撮像画像上の座標(Xc,Yc)=(0,Yc)であり、特徴点位置角度θcx=0(度)である。
【0029】
角度算出部12は、算出した特徴点位置角度に関する情報、より詳細には、算出した特徴点位置角度から求まる上記式(3)の情報を、位置特定部14に出力する。
【0030】
距離検出部13は、測距センサ3からセンサ情報を取得し、取得したセンサ情報に基づき、乗員を検出する。具体的には、距離検出部13は、センサ情報に基づき、測距センサ3から対象特徴点までの距離(以下「第1距離」という。)を検出する。なお、距離検出部13は、センサ情報から動体を検出する周知の技術を用いて乗員を検出すればよいため、距離検出部13が乗員を検出する方法の詳細な説明は省略する。
距離検出部13は、検出した第1距離に関する情報(以下「センサ距離情報」という。)を、位置特定部14に出力する。
【0031】
位置特定部14は、角度算出部12が算出した特徴点位置角度に関する情報、言い換えれば、上記式(3)の情報と、距離検出部13が検出した第1距離とに基づき、対象特徴点の三次元位置を特定する。
【0032】
ここで、図5は、実施の形態1において、位置特定部14による、対象特徴点の三次元位置の特定方法の一例について説明するための図である。図5Aは、車室内を上部から見た、カメラ2の撮像状況および測距センサ3の動体検出状況を示す図であり、図5Bは、車室内を左側面から見た、カメラ2の撮像状況および測距センサ3の動体検出状況を示す図である。なお、カメラ2および測距センサ3は、図3に示した設置位置に設置されている。図5Bの2aおよび3aは、それぞれ、カメラ2の位置および測距センサ3の位置を示し、図5BのIAは、カメラ2の撮像軸を示す。また、図5では、前部座席501、および、後部座席502を簡略化して示している。
また、カメラ2と対象特徴点との位置関係は、図4Aの右側の図および図5Bに示した位置関係とする。
【0033】
今、測距センサ3は、当該測距センサ3から見て、乗員の体の部位のうち、乗員の頭の位置が最も近くなるように設置されているので、図5において202で示す点が、乗員の頭部を示す点、言い換えれば、対象特徴点である。距離検出部13は、図5において202で示す点を、対象特徴点として検出する。そして、距離検出部13は、測距センサ3から対象特徴点までの距離を検出する。ここでは、距離検出部13が検出した対象特徴点までの第1距離は、例えば、D[m]であったとする。
【0034】
位置特定部14には、角度算出部12から、上記式(3)の情報が出力される。
また、位置特定部14には、距離検出部13から、第1距離に関するセンサ距離情報が出力される。ここでは、位置特定部14には、第1距離=D[m]の情報が出力される。
【0035】
距離検出部13が検出した第1距離はD[m]であるため、対象特徴点は、測距センサ3の位置を中心とし、半径D[m]の球上にあることになる。すなわち、中心を(X0,Y0,Z0)とすると、対象特徴点の三次元位置の座標(X,Y,Z)は、(X-X0)^2+(Y-Y0)^2+(Z―Z0)^2=D^2とあらわされる。
ここで、実施の形態1では、カメラ2および測距センサ3で共通の、三次元空間における座標系において、カメラ2の位置の座標を(0,0,0)としているので、測距センサ3の位置の座標は(0,α,0)となる。
そうすると、座標(X,Y,Z)であらわされる対象特徴点の三次元位置は、X^2+(Y-α)^2+Z^2=D^2の球上にあることになる。
【0036】
位置特定部14は、上記式(3)であらわされる直線と、X^2+(Y-α)^2+Z^2=D^2の球の交点を求めることで、対象特徴点の三次元位置の座標(X,Y,Z)を算出することができる。この対象特徴点の三次元位置の座標(X,Y,Z)は、乗員の三次元位置を示す座標となる。
測距センサ3が複数の受信素子を有するセンサである場合、距離検出部13は、物体までの距離だけでなく、当該物体が存在する方向(角度)も検出できるようになる。そのため、カメラ2が撮像した特徴点の角度方向にある物体までの距離を測距センサで検出できる。
この場合、位置特定部14は、上記式(3)であらわされる直線と、距離検出部13が検出した、特徴点の角度方向にある物体までの距離を示す線分を含む直線の2直線の交点から、対象特徴点の三次元位置の座標(X,Y,Z)を算出すればよい。具体的には、位置特定部14は、上記2直線の交点までの距離であって、かつ、距離検出部13によって検出されている距離を、対象特徴点までの距離とし、対象特徴点の三次元位置の座標(X,Y,Z)を算出すればよい。
よって、測距センサ3が複数の受信素子を有するセンサである場合、対象特徴点(ここでは乗員の頭部)が最も近くなるように測距センサ3が設置されていなくても、対象特徴点の三次元位置の座標(X,Y,Z)を算出できる。
【0037】
また、ここでは、対象特徴点とカメラ2と測距センサ3との位置関係が、図3図4、および、図5に示すような位置関係にある場合に、位置特定部14が当該対象特徴点の三次元位置を算出する方法を説明したが、これは一例に過ぎない。
対象特徴点とカメラ2と測距センサ3との位置関係が上述の例のような位置関係以外の位置関係である場合も、位置特定部14は、カメラ2の位置と対象特徴点とを通る直線の式と、測距センサ3の位置を中心とし第1距離を半径とする球面の式とから、同様に、対象特徴点の三次元位置を算出することができる。
【0038】
位置特定部14は、特定した乗員の三次元位置に関する位置情報を、体格検出装置4に出力する。
【0039】
実施の形態1に係る位置検出装置1の動作について説明する。
図6は、実施の形態1に係る位置検出装置1の動作について説明するためのフローチャートである。
【0040】
特徴点検出部11は、カメラ2から撮像画像を取得し、カメラ2が撮像した撮像画像に基づいて、当該撮像画像において、対象特徴点を検出する(ステップST1)。
特徴点検出部11は、対象特徴点情報を、角度算出部12に出力する。
【0041】
角度算出部12は、ステップST1にて特徴点検出部11が検出した対象特徴点の撮像画像上の位置に基づき、特徴点位置角度を算出する(ステップST2)。
角度算出部12は、算出した特徴点位置角度に関する情報を、位置特定部14に出力する。
【0042】
距離検出部13は、測距センサ3からセンサ情報を取得し、取得したセンサ情報に基づき、乗員を検出する。具体的には、距離検出部13は、センサ情報に基づき、第1距離を検出する(ステップST3)。
距離検出部13は、センサ距離情報を、位置特定部14に出力する。
【0043】
位置特定部14は、ステップST2にて角度算出部12が算出した特徴点位置角度に関する情報と、ステップST3にて距離検出部13が検出した第1距離とに基づき、対象特徴点の三次元位置を特定する(ステップST4)。
位置特定部14は、特定した対象乗員の三次元位置に関する位置情報を、体格検出装置4に出力する。
【0044】
なお、図6に示すフローチャートでは、位置検出装置1は、ステップST1、ステップST2、ステップST3の順で処理を行うものとしているが、これは一例に過ぎない。
例えば、位置検出装置1は、ステップST3、ステップST1、ステップST2の順で処理を行ってもよいし、ステップST1~ステップST2の処理とステップST3の処理とを並行して行ってもよい。
【0045】
このように、位置検出装置1は、測距センサ3によるセンサ情報を用いることで、カメラ2が撮像した撮像画像からでは直接計測できない対象特徴点の三次元位置、言い換えれば、乗員の三次元位置を、高精度に特定することができる。
【0046】
上述したような従来技術における人の三次元位置の推定方法では、当該三次元位置を推定するのに基準特徴点間距離が必須であり、当該基準特徴点間距離が適切に設定されていない場合、人の三次元位置の推定を誤る可能性があった。
例えば、基準特徴点間距離の値が複数人の人に対する実測値の統計値に基づいて設定されていた場合、個人差を考慮できていないため、人の三次元位置の特定を誤る可能性がある。また、例えば、個人差を考慮して、乗員が搭乗した際に基準特徴点間距離の値を設定するようにしたとしても、当該基準特徴点間距離の値が設定されていない間は、人の三次元位置を特定することができない。また、乗員の頭部の位置を所定の位置に誘導して基準特徴点間距離の値を設定するようにした場合には、乗員にとって煩わしさが生じる。
これに対し、実施の形態1に係る位置検出装置1は、上述のとおり、測距センサ3によるセンサ情報を用いることで、カメラ2が撮像した撮像画像からでは直接計測できない対象特徴点の三次元位置、言い換えれば、乗員の三次元位置を、高精度に特定することができる。つまり、位置検出装置1は、基準特徴点間距離を必須として人の三次元位置を推定する従来技術よりも高精度に人の三次元位置を特定できる。
【0047】
なお、位置検出装置1は、例えば、測距センサ3を電波センサとし、電波センサから取得したセンサ情報を用いて対象特徴点の三次元位置を検出するようにすると、電波センサ以外の種類の測距センサ3から取得したセンサ情報を用いて対象特徴点の三次元位置を検出する場合と比べ、位置検出装置1は、より高精度に乗員の三次元位置を把握することができる。電波センサは、分厚い上着、帽子、または、手荷物等、乗員の前に遮蔽物がある場合でも、遮蔽物を透過して乗員を検出でき、高精度に乗員の前後位置を検出できるためである。
【0048】
図7A図7Bは、実施の形態1に係る位置検出装置1のハードウェア構成の一例を示す図である。
実施の形態1において、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14の機能は、処理回路91により実現される。すなわち、位置検出装置1は、カメラ2が撮像した撮像画像と測距センサ3が取得したセンサ情報とから人の三次元位置を検出する制御を行うための処理回路91を備える。
処理回路91は、図7Aに示すように専用のハードウェアであっても、図7Bに示すようにメモリに格納されるプログラムを実行するプロセッサ94であってもよい。
【0049】
処理回路91が専用のハードウェアである場合、処理回路91は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
【0050】
処理回路がプロセッサ94の場合、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ95に記憶される。プロセッサ94は、メモリ95に記憶されたプログラムを読み出して実行することにより、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14の機能を実行する。すなわち、位置検出装置1は、プロセッサ94により実行されるときに、上述の図6のステップST1~ステップST4が結果的に実行されることになるプログラムを格納するためのメモリ95を備える。また、メモリ95に記憶されたプログラムは、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ95とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
【0051】
なお、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、特徴点検出部11と距離検出部13については専用のハードウェアとしての処理回路91でその機能を実現し、角度算出部12と、位置特定部14についてはプロセッサ94がメモリ95に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
【0052】
また、位置検出装置1は、カメラ2、測距センサ3、体格検出装置4、または、衝突安全装置5等の装置と、有線通信または無線通信を行う入力インタフェース装置92および出力インタフェース装置93を備える。
【0053】
なお、以上の実施の形態1では、乗員の位置は、当該乗員の頭の位置で示されるものとしたが、これは一例に過ぎない。乗員の位置は、当該乗員の体の複数の部位で示されてもよい。すなわち、対象特徴点が複数存在してもよい。位置検出装置1は、複数の対象特徴点の三次元位置を検出することもできる。
この場合、位置検出装置1において、距離検出部13は、複数の対象特徴点の第1距離をそれぞれ検出する。例えば、車両1000には、送信アンテナから放射された電波の反射波を受信し、互いの車両1000の幅方向での位置が異なる複数の受信アンテナ素子を有する受信アンテナを備えた測距センサ3が設置されているものとし、距離検出部13は、当該測距センサ3から取得したセンサ情報に基づいて、複数の対象特徴点の第1距離をそれぞれ検出すればよい。より詳細には、例えば、距離検出部13は、カメラ2から撮像画像を取得するようにし、撮像画像に基づいて、各対象特徴点が存在する方向を特定し、測距センサ3において、複数アンテナによる受信波を解析することで反射波の到来方向を求めることができるため、各対象特徴点が存在する方向の動体までの距離を各対象特徴点までの距離と見なすことができる。
【0054】
また、以上の実施の形態1では、一例として、三次元位置を特定する対象となる乗員は、車両1000の運転席または助手席に着座している乗員としたが、これは一例に過ぎない。三次元位置を特定する対象となる乗員は、後部座席の乗員としてもよい。位置検出装置1は、後部座席の乗員の三次元位置を特定することもできる。すなわち、位置検出装置1は、後部座席の乗員の位置を示す体の部位に対応する対象特徴点の三次元位置を特定することもできる。
【0055】
また、以上の実施の形態1では、カメラ2および測距センサ3は、車室内に1つずつ設置されていたが、これは一例に過ぎない。カメラ2は車室内に複数設置されてもよいし、測距センサ3は車室内に複数設置されてもよい。
カメラ2の撮像範囲と測距センサ3のセンシング範囲とが重なるように、カメラ2と測距センサ3とが設置されていればよい。
【0056】
また、以上の実施の形態1では、位置検出装置1は、車両1000に搭載される車載装置とし、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14とは、車載装置に備えられるものとした。これに限らず、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14のうち、一部を車両の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで位置検知システムを構成するようにしてもよい。
また、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14が、全て、サーバに備えられてもよい。
【0057】
また、以上の実施の形態1では、体格検出装置4は、車両1000に搭載される車載装置とし、位置情報取得部41と体格判定部42とは、車載装置に備えられるものとしたが、これは一例に過ぎない。位置情報取得部41と体格判定部42のうち、一部が車載装置に備えられ、その他がサーバに備えられてもよいし、位置情報取得部41と体格判定部42とがサーバに備えられてもよい。
また、衝突安全装置5がサーバに備えられてもよい。
【0058】
また、以上の実施の形態1では、位置検出装置1が三次元位置を検出する対象となる人は、車両1000の乗員としたが、これは一例に過ぎない。位置検出装置1は、種々の乗り物において、乗員の三次元位置を検出することができる。また、位置検出装置1は、例えば、居室に存在する人等、乗り物の乗員に限らず、実空間に存在する人の三次元位置を検出することができる。
【0059】
以上のように、実施の形態1によれば、位置検出装置1は、カメラ2が撮像した撮像画像に基づいて、当該撮像画像における、人の体の部位に対応する対象特徴点を検出する特徴点検出部11と、特徴点検出部11が検出した対象特徴点の撮像画像上の位置に基づき、カメラ2と対象特徴点を結ぶ直線のカメラ2の撮像軸に対する角度を示す、特徴点位置角度を算出する角度算出部12と、測距センサ3が取得したセンサ情報に基づいて、測距センサ3から対象特徴点までの第1距離を検出する距離検出部13と、角度算出部12が算出した特徴点位置角度と、距離検出部13が検出した第1距離とに基づき、対象特徴点の三次元位置を特定する位置特定部14とを備えた。そのため、位置検出装置1は、基準特徴点間距離を必須として人の三次元位置を推定する従来技術よりも高精度に人の三次元位置を特定できる。
【0060】
実施の形態2.
実施の形態2では、測距センサを電波センサとし、撮像画像に基づいて推定した人までの距離も考慮することで、より高精度に人の三次元位置を特定する実施の形態について説明する。
【0061】
以下の実施の形態2においても、実施の形態1同様、一例として、三次元位置を特定する対象となる人は、車両の運転席または助手席に着座している乗員とし、当該乗員の位置は当該乗員の頭の位置で示されるものとする。また、カメラおよび測距センサは、それぞれ、実施の形態1において図3を用いて説明したような位置に設置されているものとする。
ただし、実施の形態2では、測距センサは、電波センサであることを前提とする。電波センサは、遮蔽物を透過して乗員を検出でき、高精度に乗員の前後位置を検出できる。
電波センサは距離分解能の間隔で検出される。例えば、距離分解能が2[cm]の場合、電波センサから乗員の位置が10[cm]であっても10.5[cm]、11[cm]であっても同一の値で検出される。この距離分解能は利用帯域幅に反比例するものであり、例えば、60GHz帯の電波センサの場合、利用帯域幅は7GHzで、距離分解能は約2.14cmとなる。
【0062】
図8は、実施の形態2に係る位置検出装置1aの構成例を示す図である。
図8に示す位置検出装置1aの構成例について、実施の形態1において図1を用いて説明した実施の形態1に係る位置検出装置1と同様の構成については、同じ符号を付して重複した説明を省略する。
実施の形態2に係る位置検出装置1aは、図1を用いて説明した実施の形態1に係る位置検出装置1とは、距離推定部15を備えた点が異なる。
また、実施の形態2に係る位置検出装置1aにおいて、位置特定部14aの具体的な動作が、実施の形態1に係る位置検出装置1における位置特定部14の具体的な動作とは異なる。
【0063】
距離推定部15は、特徴点検出部11が検出した複数個の特徴点に基づいて、カメラ2から対象特徴点までの距離(以下「第2距離」という。)を推定する。
なお、実施の形態2において、特徴点検出部11は、複数個の特徴点を検出する。特徴点検出部11は、検出した複数個の特徴点に関する情報を、距離推定部15に出力する。
距離推定部15は、例えば、国際公開2019/163124号に開示されている技術に代表される周知の技術を用いて、撮像画像から検出された複数個の特徴点に基づいて、対象特徴点までの第2距離を推定すればよい。
例えば、距離推定部15は、複数個の特徴点のうちの任意の2個の特徴点(例えば、乗員の右眼に対応する特徴点と乗員の左眼に対応する特徴点。以下「距離算出用特徴点」という。)間の距離(以下「特徴点間距離」という。)を算出する。なお、特徴点間距離は撮像画像における距離であり、特徴点間距離の単位はピクセル(px)である。距離推定部15は、乗員の顔向きを考慮して特徴点間距離を算出することもできる(例えば、国際公開2019/163124号参照)。
【0064】
距離推定部15は、例えば、角度算出部12により算出された特徴点位置角度と、特徴点間距離と、距離推定部15に予め記憶されている基準特徴点間距離(以下「第1基準特徴点間距離」という。)とを用いて、実空間における乗員の対象特徴点の三次元位置を推定し、上記第2距離を推定する。なお、第1基準特徴点間距離の値は、例えば、複数の人に対する実測値の統計値に基づき設定されたものである。具体的には、例えば、複数の人の各々について、距離算出用特徴点に対応する部位間の幅(例えば、両眼間の幅)を実際に測定する。距離推定部15には、当該測定された幅の平均値が第1基準特徴点間距離の値として予め記憶されている。
距離推定部15は、推定した第2距離に関する情報(以下「カメラ距離情報」という。)を、位置特定部14aに出力する。
【0065】
位置特定部14aは、距離検出部13が検出した第1距離と、距離推定部15が推定した第2距離とに基づいて、対象特徴点までの距離(以下「判定後距離」という。)を判定する。
実施の形態2において、判定後距離は、第1距離と第2距離とから電波センサの距離分解能を考慮して判定された、より確からしい対象特徴点までの距離である。
【0066】
ここで、図9は、実施の形態2において、位置特定部14aが判定後距離を判定する方法の一例について説明するための図である。図9Aは、電波センサの検出結果と距離分解能の関係性について示す図であり、図9B図9C、および、図9Dは、第2距離を用いて位置特定部14aが判定した判定後距離を示す図である。
なお、図9では、電波センサの距離分解能は「2ω」とする。また、図9において、電波センサの検出結果であるセンサ情報に基づき距離検出部13が検出する第1距離の値をDr[m]とする。図9では、第1距離を「電波センサの検出結果」と示している。また、図9において、カメラ2の撮像画像に基づき距離推定部15が推定した第2距離の値をDc[m]とする。図9では、第2距離を「カメラの推定結果」と示している。
【0067】
図9Aに示すように、電波センサで検出する第1距離が距離分解能(=2ω)の中間値とすると、対象特徴点までの実際の距離の値は、「第1距離から距離分解能の半分を減算した値」~「第1距離から距離分解能の半分を加算した値」の間のいずれかの値となる。すなわち、電波センサで検出する第1距離が距離分解能(=2ω)の中間値とすると、対象特徴点までの実際の距離の値は、Dr-ω~Dr+ω[m]の間のいずれかの値となる。位置特定部14aは、第1距離と第2距離とに基づき、電波センサの距離分解能を考慮したDr-ω~Dr+ω[m]の間で、判定後距離を判定する。
【0068】
図9Bに示すように、第2距離の値が第1距離から距離分解能の半分を減算した値より小さい場合、ここでは、Dc[m]がDr-ω[m]よりも小さい場合、位置特定部14aは、判定後距離の値を「第1距離から距離分解能の半分を減算した値」と判定する。すなわち、位置特定部14aは、判定後距離の値を、Dr-ω[m]と判定する。
【0069】
図9Cに示すように、第2距離の値が第1距離から距離分解能の半分を加算した値より大きい場合、ここでは、Dc[m]がDr+ω[m]よりも大きい場合、位置特定部14aは、判定後距離の値を「第1距離から距離分解能の半分を加算した値」と判定する。すなわち、位置特定部14aは、判定後距離の値をDr+ω[m]と判定する。
【0070】
図9Dに示すように、第2距離の値が、第1距離から距離分解能の半分を減算した値以上であり、かつ、第1距離から距離分解能の半分を加算した値以下である場合、ここでは、Dc[m]がDr-ω~Dr+ω[m]の範囲内の場合、位置特定部14aは、判定後距離の値を「第2距離の値」とする。すなわち、位置特定部14aは、判定後距離の値を、Dc[m]と判定する。
【0071】
位置特定部14aが行う、第1距離と第2距離とに基づいて判定後距離を判定する、図9を用いて説明したような処理を、「距離判定処理」という。
【0072】
位置特定部14aは、判定後距離を判定すると、角度算出部12が算出した特徴点位置角度と判定後距離とに基づき、乗員の三次元位置を特定する。
位置特定部14aによる乗員の三次元位置を特定する具体的な方法は、実施の形態1にて説明済であるため、重複した説明を省略する。実施の形態1では、位置特定部14aは、第1距離と特徴点位置角度とに基づいて乗員の三次元位置を特定していたが、実施の形態2では、位置特定部14aは、第1距離を判定後距離に置き換えて乗員の三次元位置を特定する。
【0073】
実施の形態2に係る位置検出装置1aの動作について説明する。
図10は、実施の形態2に係る位置検出装置1aの動作について説明するためのフローチャートである。
図10のフローチャートにおいて、ステップST11~ステップST12、ステップST14の具体的な処理内容は、それぞれ、実施の形態1において説明済みの、図6のステップST1~ステップST3の具体的な処理内容と同様であるため、重複した説明を省略する。
【0074】
距離推定部15は、ステップST11にて特徴点検出部11が検出した複数個の特徴点に基づいて第2距離を推定する(ステップST13)。
距離推定部15はカメラ距離情報を、位置特定部14aに出力する。
【0075】
位置特定部14aは、ステップST14にて距離検出部13が検出した第1距離と、ステップST13にて距離推定部15が推定した第2距離とに基づいて「距離判定処理」を実行し、判定後距離を判定する。
具体的には、まず、位置特定部14aは、第2距離の値が第1距離から距離分解能の半分を減算した値より小さいか否かを判定する(ステップST15)。
第2距離の値が第1距離から距離分解能の半分を減算した値より小さい場合(ステップST15の“YES”の場合)、位置特定部14aは、判定後距離の値を「第1距離から距離分解能の半分を減算した値」と判定する(ステップST16)。そして、位置検出装置1aの動作は、ステップST20の処理に進む。
【0076】
第2距離の値が第1距離から距離分解能の半分を減算した値以上である場合(ステップST15の“NO”の場合)、位置特定部14aは、第2距離の値が第1距離から距離分解能の半分を加算した値より大きいか否かを判定する(ステップST17)。
第2距離の値が第1距離から距離分解能の半分を加算した値より大きい場合(ステップST17の“YES”の場合)、位置特定部14aは、判定後距離の値を「第1距離から距離分解能の半分を加算した値」と判定する(ステップST18)。そして、位置検出装置1aの動作は、ステップST20の処理に進む。
【0077】
第2距離の値が第1距離から距離分解能の半分を加算した値以下である場合(ステップST17の“NO”の場合)、言い換えれば、第2距離の値が第1距離から距離分解能の半分を減算した値以上であり、かつ、第1距離から距離分解能の半分を加算した値以下である場合、位置特定部14aは、判定後距離の値を「第2距離の値」とする(ステップST19)。そして、位置検出装置1aの動作は、ステップST20の処理に進む。
【0078】
以上のステップST15~ステップST19までの処理が、位置特定部14aが行う「距離判定処理」である。
【0079】
ステップST20において、位置特定部14aは、ステップST12にて角度算出部12が算出した特徴点位置角度と、ステップST16、ステップST18、または、ステップST19にて判定した判定後距離とに基づき、対象特徴点の三次元位置を特定する。
【0080】
なお、図10に示すフローチャートでは、位置検出装置1aは、ステップST11、ステップST12、ステップST13、ステップST14の順で処理を行うものとしているが、これは一例に過ぎない。
例えば、位置検出装置1aは、ステップST14、ステップST11、ステップST12、ステップST13の順で処理を行ってもよいし、ステップST11~ステップST13の処理とステップST14の処理とを並行して行ってもよい。
【0081】
このように、位置検出装置1aは、電波センサの距離分解能以上の精度で、より確からしい対象特徴点までの距離(判定後距離)を判定できる。そのため、位置検出装置1aは、電波センサの距離分解能を考慮しない場合と比べ、より高精度に対象特徴点の三次元位置、言い換えれば、乗員の三次元位置を、特定することができる。
【0082】
実施の形態2に係る位置検出装置1aのハードウェア構成は、図7Aおよび図7Bを用いて説明した、実施の形態1に係る位置検出装置1のハードウェア構成と同様であるため、図示を省略する。
実施の形態2において、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15の機能は、処理回路91により実現される。すなわち、位置検出装置1aは、カメラ2が撮像した撮像画像と電波センサが取得したセンサ情報とから人の三次元位置を検出する制御を行うための処理回路91を備える。
処理回路91は、メモリ95に記憶されたプログラムを読み出して実行することにより、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15の機能を実行する。すなわち、位置検出装置1aは、処理回路91により実行されるときに、上述の図10のステップST11~ステップST20が結果的に実行されることになるプログラムを格納するためのメモリ95を備える。また、メモリ95に記憶されたプログラムは、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15の処理の手順または方法をコンピュータに実行させるものであるとも言える。
また、位置検出装置1aは、カメラ2、電波センサ、体格検出装置4、または、衝突安全装置5等の装置と、有線通信または無線通信を行う入力インタフェース装置92および出力インタフェース装置93を備える。
【0083】
なお、以上の実施の形態2において、位置検出装置1aは、実施の形態1に係る位置検出装置1同様、複数の対象特徴点の三次元位置を検出することもできる。
【0084】
また、実施の形態2において、位置検出装置1aは、後部座席の乗員の三次元位置を特定することもできる。
【0085】
また、以上の実施の形態2において、例えば、カメラ2は車室内に複数設置されてもよいし、測距センサ3は車室内に複数設置されてもよい。
【0086】
また、以上の実施の形態2において、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15のうち、一部を車両の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで位置検知システムを構成するようにしてもよい。
また、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15が、全て、サーバに備えられてもよい。
【0087】
また、以上の実施の形態2において、位置情報取得部41と体格判定部42のうち、一部が車載装置に備えられ、その他がサーバに備えられてもよいし、位置情報取得部41と体格判定部42とがサーバに備えられてもよい。また、衝突安全装置5がサーバに備えられてもよい。
【0088】
また、以上の実施の形態2において、位置検出装置1aは、種々の乗り物において、乗員の三次元位置を検出することができる。また、位置検出装置1aは、例えば、居室に存在する人等、乗り物の乗員に限らず、実空間に存在する人の三次元位置を検出することができる。
【0089】
以上のように、実施の形態2によれば、測距センサ3は電波センサとし、位置検出装置1aにおいて、特徴点検出部11は、対象特徴点を含む複数個の特徴点を検出し、位置検出装置1aは、特徴点検出部11が検出した複数個の特徴点に基づいて、カメラ2から対象特徴点までの第2距離を推定する距離推定部15を備え、位置特定部14aは、距離検出部13が検出した第1距離と、距離推定部15が推定した第2距離とに基づいて、電波センサから対象特徴点までの判定後距離を判定し、角度算出部12が算出した特徴点位置角度と判定後距離とに基づき、対象特徴点の三次元位置を特定するように構成した。そのため、位置検出装置1aは、電波センサの距離分解能を考慮しない場合と比べ、より高精度に人の三次元位置を特定することができる。
【0090】
実施の形態3.
実施の形態2では、測距センサを電波センサとし、撮像画像に基づいて推定されたカメラから人までの距離も考慮することで、より高精度に人の三次元位置を特定するようにしていた。
実施の形態3では、さらに、人が装着物を装着しているか否かに応じて、撮像画像に基づいて推定されたカメラから人までの距離を考慮するか否かを判定する実施の形態について説明する。
【0091】
以下の実施の形態3においても、実施の形態2同様、一例として、三次元位置を特定する対象となる人は、車両の運転席または助手席に着座している乗員とし、当該乗員の位置は当該乗員の頭の位置で示されるものとする。また、カメラおよび測距センサは、それぞれ、実施の形態1において図3を用いて説明したような位置に設置されているものとする。また、実施の形態3でも、実施の形態2同様、測距センサは、電波センサであることを前提とする。
【0092】
図11は、実施の形態3に係る位置検出装置1bの構成例を示す図である。
図11に示す位置検出装置1bの構成例について、実施の形態2において図8を用いて説明した実施の形態2に係る位置検出装置1aと同様の構成については、同じ符号を付して重複した説明を省略する。
実施の形態3に係る位置検出装置1bは、図8を用いて説明した実施の形態2に係る位置検出装置1aとは、装着物検出部16を備えた点が異なる。
また、実施の形態3に係る位置検出装置1bにおいて、位置特定部14bの具体的な動作が、実施の形態2に係る位置検出装置1aにおける位置特定部14aの具体的な動作とは異なる。
【0093】
装着物検出部16は、カメラ2から撮像画像を取得し、取得した撮像画像に基づいて、乗員が着用している装着物を検出する。実施の形態3において、装着物とは、例えば、サングラスまたはマスク等、乗員の体の部位を示す特徴点を遮蔽するものを想定している。
装着物検出部16は、既知の画像認識技術等、周知の技術を用いて、乗員が着用している装着物を検出すればよい。
装着物検出部16は、乗員が着用している装着物を検出したか否かの情報(以下「装着物検出情報」という。)を、位置特定部14bに出力する。
【0094】
位置特定部14bは、装着物検出部16から出力された装着物検出情報に基づき、装着物検出部16が、乗員が着用している装着物を検出した場合は、角度算出部12が算出した特徴点位置角度と距離検出部13が検出した第1距離とに基づき対象特徴点の三次元位置を特定する。
なお、位置特定部14bが特徴点位置角度と第1距離とに基づき対象特徴点の三次元位置を特定する具体的な方法は、実施の形態1にて、位置特定部14が特徴点位置角度と第1距離とに基づき対象特徴点の三次元位置を特定する具体的な方法と同様であるため、重複した説明を省略する。
【0095】
一方、位置特定部14bは、装着物検出部16が、乗員が着用している装着物を検出しなかった場合は、「距離判定処理」を実行し、距離検出部13が検出した第1距離と、距離推定部15が推定した第2距離とに基づいて判定後距離を判定する。「距離判定処理」の詳細については、実施の形態2において説明済であるため、重複した説明を省略する。そして、位置特定部14bは、角度算出部12が算出した特徴点位置角度と判定後距離とに基づき対象特徴点の三次元位置を特定する。
なお、位置特定部14bが特徴点位置角度と判定後距離とに基づき対象特徴点の三次元位置を特定する具体的な方法は、実施の形態2にて、位置特定部14aが特徴点位置角度と判定後距離とに基づき対象特徴点の三次元位置を特定する具体的な方法と同様であるため、重複した説明を省略する。
【0096】
実施の形態2に係る位置検出装置1aの位置特定部14aは、距離検出部13が検出した第1距離に対して、一律、「距離判定処理」を実行して判定後距離を判定し、当該判定後距離と特徴点位置角度とから、対象特徴点の三次元位置を特定していた。
しかし、乗員が装着物を装着している場合、特徴点検出部11において検出される特徴点の数が減る。その結果、距離推定部15が推定する第2距離の誤差が大きくなる。そうすると、位置検出装置1aにおいて「距離判定処理」が適切に実行されなくなり、第1距離の値より判定後距離の値の方が、確からしさが劣る値となってしまう可能性がある。
そこで、実施の形態3では、位置特定部14bは、乗員が着用している装着物が検出されなかった場合、言い換えれば、乗員が装着物を着用していない場合に限って、「距離判定処理」を実行する。
【0097】
実施の形態3に係る位置検出装置1bの動作について説明する。
図12は、実施の形態3に係る位置検出装置1bの動作について説明するためのフローチャートである。
図12のフローチャートにおいて、ステップST111~ステップST114の具体的な処理内容は、それぞれ、実施の形態2において説明済みの、図10のステップST11~ステップST14の具体的な処理内容と同様であるため、重複した説明を省略する。
【0098】
装着物検出部16は、カメラ2から撮像画像を取得し、取得した撮像画像に基づいて、乗員が着用している装着物を検出する(ステップST115)。
装着物検出部16は、装着物検出情報を、位置特定部14bに出力する。
【0099】
位置特定部14bは、ステップST115にて装着物検出部16から出力された装着物検出情報に基づき、装着物検出部16が、乗員が着用している装着物を検出したか否かを判定する(ステップST116)。
装着物検出部16が、乗員が着用している装着物を検出した場合(ステップST116の“YES”の場合)、位置特定部14bは、ステップST112にて角度算出部12が算出した特徴点位置角度と、ステップST114にて距離検出部13が検出した第1距離とに基づき、対象特徴点の三次元位置を特定する(ステップST118)。
【0100】
一方、装着物検出部16が、乗員が着用している装着物を検出しなかった場合(ステップST116の“NO”の場合)、位置特定部14bは、「距離判定処理」を実行し、判定後距離を判定する(ステップST117。図10のステップST15~ステップST19参照)。そして、位置特定部14bは、ステップST112にて角度算出部12が算出した特徴点位置角度と、ステップST117にて判定した判定後距離とに基づき、対象特徴点の三次元位置を特定する(ステップST118)。
【0101】
なお、図12に示すフローチャートでは、位置検出装置1bは、ステップST111、ステップST112、ステップST113、ステップST114、ステップST115の順で処理を行うものとしているが、これは一例に過ぎない。
例えば、位置検出装置1bは、ステップST111~ステップST113の処理と、ステップST114の処理と、ステップST115の処理とを並行して行ってもよい。また、位置検出装置1bは、例えば、ステップST111~ステップST113の処理よりも前にステップST114の処理またはステップST115の処理を行ってもよい。また、位置検出装置1bは、ステップST114の処理よりも前にステップST115の処理を行ってもよい。
【0102】
このように、位置検出装置1bは、撮像画像から推定した、カメラ2から対象特徴点までの距離(第2距離)を用いて、電波センサの距離分解能以上の精度で、より確からしい対象特徴点までの距離(判定後距離)を判定できる。ただし、位置検出装置1bは、乗員が装着物を装着しており、第2距離に誤差が生じる可能性が高いと想定される場合は、判定後距離の判定は行わない。
そのため、位置検出装置1bは、乗員が装着物を装着していることを考慮しない場合と比べ、より高精度に対象特徴点の三次元位置、言い換えれば、乗員の三次元位置を特定することができる。
【0103】
実施の形態3に係る位置検出装置1bのハードウェア構成は、図7Aおよび図7Bを用いて説明した、実施の形態1に係る位置検出装置1のハードウェア構成と同様であるため、図示を省略する。
実施の形態3において、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14bと、距離推定部15と、装着物検出部16の機能は、処理回路91により実現される。すなわち、位置検出装置1bは、カメラ2が撮像した撮像画像と電波センサが取得したセンサ情報とから人の三次元位置を検出する制御を行うための処理回路91を備える。
処理回路91は、メモリ95に記憶されたプログラムを読み出して実行することにより、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14bと、距離推定部15と、装着物検出部16の機能を実行する。すなわち、位置検出装置1bは、処理回路91により実行されるときに、上述の図12のステップST111~ステップST118が結果的に実行されることになるプログラムを格納するためのメモリ95を備える。また、メモリ95に記憶されたプログラムは、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14bと、距離推定部15と、装着物検出部16の処理の手順または方法をコンピュータに実行させるものであるとも言える。
また、位置検出装置1bは、カメラ2、電波センサ、体格検出装置4、または、衝突安全装置5等の装置と、有線通信または無線通信を行う入力インタフェース装置92および出力インタフェース装置93を備える。
【0104】
なお、以上の実施の形態3において、位置検出装置1bは、実施の形態2に係る位置検出装置1a同様、複数の対象特徴点の三次元位置を検出することもできる。
【0105】
また、実施の形態3において、位置検出装置1bは、後部座席の乗員の三次元位置を特定することもできる。
【0106】
また、以上の実施の形態3において、例えば、カメラ2は車室内に複数設置されてもよいし、測距センサ3は車室内に複数設置されてもよい。
【0107】
また、以上の実施の形態3において、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14bと、距離推定部15と、装着物検出部16のうち、一部を車両の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで位置検知システムを構成するようにしてもよい。
また、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14bと、距離推定部15と、装着物検出部16が、全て、サーバに備えられてもよい。
【0108】
また、以上の実施の形態3において、位置情報取得部41と体格判定部42のうち、一部が車載装置に備えられ、その他がサーバに備えられてもよいし、位置情報取得部41と体格判定部42とがサーバに備えられてもよい。また、衝突安全装置5がサーバに備えられてもよい。
【0109】
また、以上の実施の形態3において、位置検出装置1bは、種々の乗り物において、乗員の三次元位置を検出することができる。また、位置検出装置1bは、例えば、居室に存在する人等、乗り物の乗員に限らず、実空間に存在する人の三次元位置を検出することができる。
【0110】
以上のように、実施の形態3によれば、位置検出装置1bは、撮像画像に基づいて人が着用している装着物を検出する装着物検出部16を備え、位置特定部14bは、装着物検出部16が装着物を検出した場合は、特徴点位置角度と第1距離とに基づき対象特徴点の三次元位置を特定し、装着物検出部16が装着物を検出しなかった場合は、特徴点位置角度と判定後距離とに基づき対象特徴点の前記三次元位置を特定するように構成した。そのため、位置検出装置1bは、電波センサの距離分解能を考慮して人の三次元位置を特定するにあたり、人が装着物を装着しているか否かを考慮しない場合と比べ、より高精度に人の三次元位置を特定することができる。
【0111】
実施の形態4.
実施の形態4では、撮像画像に基づいてカメラから人までの距離を推定する際に用いる基準特徴点間距離を、センサ情報から検出した第1距離を用いて設定する実施の形態について説明する。
【0112】
以下の実施の形態4においても、実施の形態2同様、一例として、三次元位置を特定する対象となる人は、車両の運転席または助手席に着座している乗員とし、当該乗員の位置は当該乗員の頭の位置で示されるものとする。また、カメラおよび測距センサは、それぞれ、実施の形態1において図3を用いて説明したような位置に設置されているものとする。
また、実施の形態4でも、実施の形態2同様、測距センサは、電波センサであることを前提とする。
【0113】
図13は、実施の形態4に係る位置検出装置1cの構成例を示す図である。
図13に示す位置検出装置1cの構成例について、実施の形態2において図8を用いて説明した実施の形態2に係る位置検出装置1aと同様の構成については、同じ符号を付して重複した説明を省略する。
実施の形態4では、位置検出装置1cにおいて、距離推定部15aの具体的な動作が、実施の形態2に係る位置検出装置1aにおける距離推定部15の具体的な動作とは異なる。
【0114】
距離推定部15aは、特徴点検出部11が検出した複数個の特徴点のうちの距離算出用特徴点間の距離である特徴点間距離と基準特徴点間距離(以下「第2基準特徴点間距離」とする)とに基づき、カメラ2から対象特徴点までの第2距離を推定する。実施の形態4において、第2基準特徴点間距離は、距離推定部15aが第2距離を推定するまでに、当該距離推定部15aによって、上記特徴点間距離と、距離検出部13が検出した第1距離とに基づいて設定され、当該距離推定部15aに記憶されている。
【0115】
具体的には、距離推定部15aは、まず、特徴点検出部11が検出した複数個の特徴点のうちの距離算出用特徴点間の距離である特徴点間距離と、距離検出部13が検出した第1距離に基づいて第2基準特徴点間距離を設定する「基準特徴点間距離設定処理」を行う。距離推定部15aは、「基準特徴点間距離設定処理」を行って第2基準特徴点間距離を設定すると、設定した第2基準特徴点間距離を記憶する。
当該「基準特徴点間距離設定処理」は、距離推定部15aが第2距離を推定するまでに行われる。
そして、距離推定部15aは、「基準特徴点間距離設定処理」を行った後、特徴点検出部11が検出した複数個の特徴点のうちの距離算出用特徴点間の距離である特徴点間距離と、記憶しておいた第2基準特徴点間距離とに基づき、カメラ2から対象特徴点までの第2距離を推定する。
【0116】
ここで、図14Aおよび図14Bは、実施の形態4において、距離推定部15aが第2基準特徴点間距離を設定し、設定した第2基準特徴点間距離を用いて第2距離を推定する方法の一例について説明するための図である。
ここでは、距離算出用特徴点は乗員の左眼に対応する特徴点および乗員の右眼に対応する特徴点とし、特徴点間距離は両眼間距離としている。
図14Aは、距離推定部15aが行う「基準特徴点間距離設定処理」の内容の一例を説明するための図であり、図14Bは、距離推定部15aが、図14Aに示すように第2基準特徴点間距離を設定した後、当該第2基準特徴点間距離を用いて第2距離を推定する方法の一例について説明するための図である。
【0117】
図14Aを用いて、距離推定部15aによる「基準特徴点間距離設定処理」について説明する。
例えば、図14Aに示すように、距離推定部15aは、撮像画像から、特徴点間距離、言い換えれば、両眼間距離を、50[px]と算出したとする。また、距離検出部13は、センサ情報に基づき、第1距離を1[m]と検出したとする。
この場合、乗員の実際の両眼間距離[m]は、下記の式(4)であらわされる。

両眼間距離[m]:第距離[m]=両眼間距離[px]:カメラ2の焦点距離[px] ・・・(4)

なお、カメラ2の焦点距離の値は、予め距離推定部15aに記憶されている。ここでは焦点距離=fとする。
【0118】
つまり、図14Aに示すような例の場合、両眼間距離[m]は下記の式(5)の様に算出される。
両眼間距離[m]:1[m]=50[px]:f[px]
両眼間距離[m]×f[px]=50[px]×1[m]
両眼間距離[m]=50/f[m] ・・・(5)
【0119】
距離推定部15aは、この、算出した両眼間距離の値(50/f[m])を第2基準特徴点間距離の値とし、記憶する。
なお、距離推定部15aは、図14Aを用いて説明したような「基準特徴点間距離設定処理」を、例えば、車両1000の走行中に1度、実行すればよい。
また、例えば、距離推定部15aは、「基準特徴点間距離設定処理」を予め設定された時間内で複数回実行し、各第2基準特徴点間距離の設定処理にて算出された第2基準特徴点間距離の値の平均を第2基準特徴点間距離の値に設定してもよいし、更新係数をかけて第2基準特徴点間距離の値を設定してもよい。
距離推定部15aは、基準特徴点間距離に更新係数をかけて、当該基準特徴点間距離を徐々に更新して、第2基準特徴点間距離の値を設定する。例えば、更新係数が0.2であるとすると、距離推定部15aは、基準特徴点間距離を20%ずつ更新していく。具体例を挙げると、例えば、基準特徴点間距離が50mm、第2基準特徴点間距離が40mmであったとする。この場合、距離推定部15aは、基準特徴点間距離と第2基準特徴点間距離との差10mmの20%にあたる2mm分だけ基準特徴点間距離を更新して、更新後の基準特徴点間距離の値である48mmを第2基準特徴点間距離の値とする。距離推定部15aは、このような更新処理を繰り返し、段階的に第2基準特徴点間距離の値を設定する。
【0120】
次に、図14Bを用いて、距離推定部15aが第2基準特徴点間距離を用いて第2距離を推定する方法の一例を説明する。なお、ここでは、第2基準特徴点間距離の値には、上述の例のとおり、「50/f[m]」が設定されているとする。
距離推定部15aは、第2基準特徴点間距離を設定し、記憶すると、当該第2基準特徴点間距離と、特徴点間距離、ここでは両眼間距離とに基づいて、第2距離を推定する。
例えば、図14Bに示すように、距離推定部15aは、撮像画像に基づいて、両眼間距離を60[px]と算出したとする。
ここで、求める第2距離をDc[m]とすると、距離推定部15aは、上記式(4)および式(5)より、Dc[m]を、次の様に算出する。

50/f[m]:Dc[m]=60[px]:f[px]
Dc[m]×60[px]=50/f[m]×f[px]
Dc[m]=50/60=0.83[m]

このように、図14Bに示す例の場合、距離推定部15aは、第2距離は0.83[m]と推定する。
【0121】
距離推定部15aは、推定した第2距離に関するカメラ距離情報を、位置特定部14aに出力する。
【0122】
実施の形態4に係る位置検出装置1cの動作について説明する。
図15は、実施の形態4に係る位置検出装置1cの動作について説明するためのフローチャートである。
図15のフローチャートにおいて、ステップST1111~ステップST1113、ステップST1117の具体的な処理内容は、それぞれ、実施の形態2において説明済みの、図10のステップST11~ステップST12、ステップST14、ステップST20の具体的な処理内容と同様であるため、重複した説明を省略する。
また、図15のフローチャートにおいて、ステップST1116の具体的な処理内容は、実施の形態2において説明済みの、図10のステップST15~ステップST19の具体的な処理内容と同様であるため、重複した説明を省略する。
【0123】
距離推定部15aは、ステップST1111にて特徴点検出部11が検出した複数個の特徴点のうちの距離算出用特徴点間の距離である特徴点間距離と、ステップST1113にて距離検出部13が検出した第1距離に基づいて第2基準特徴点間距離を設定する「基準特徴点間距離設定処理」を行い、第2基準特徴点間距離を設定する(ステップST1114)。そして、距離推定部15aは、設定した第2基準特徴点間距離を記憶する。
【0124】
距離推定部15aは、ステップST1114にて第2基準特徴点間距離を設定し、記憶すると、ステップST1111にて特徴点検出部11が検出した複数個の特徴点のうちの距離算出用特徴点間の距離である特徴点間距離と、記憶しておいた第2基準特徴点間距離とに基づき、カメラ2から対象特徴点までの第2距離を推定する(ステップST1115)。
【0125】
なお、距離推定部15aが第2基準特徴点間距離を設定し、記憶した後は、位置検出装置1cは、ステップST1114の処理を省略することができる。
また、図15に示すフローチャートでは、位置検出装置1cは、ステップST1111、ステップST1112、ステップST1113の順で処理を行うものとしているが、これは一例に過ぎない。
例えば、位置検出装置1cは、ステップST1113、ステップST1111、ステップST1112の順で処理を行ってもよいし、ステップST1111~ステップST1112の処理とステップST1113の処理とを並行して行ってもよい。
【0126】
このように、位置検出装置1cは、撮像画像に基づいてカメラ2から対象特徴点までの第2距離を推定する際に用いる第2基準特徴点間距離を、電波センサから取得したセンサ情報を利用して設定する。
仮に、第2基準特徴点間距離の値が、年齢または顔の形状等の個人差を考慮せずに設定された値であった場合、距離推定部15aが推定する第2距離には誤差が生じる可能性がある。これに対し、位置検出装置1cは、年齢または顔の形状等の個人差を考慮して、高精度に第2距離を推定することができる。
その結果、位置検出装置1cは、電波センサの距離分解能を考慮して乗員の三次元位置を特定するにあたり、より高精度に対象特徴点の三次元位置、言い換えれば、乗員の三次元位置を特定することができる。
【0127】
実施の形態4に係る位置検出装置1cのハードウェア構成は、図7Aおよび図7Bを用いて説明した、実施の形態1に係る位置検出装置1のハードウェア構成と同様であるため、図示を省略する。
実施の形態4において、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15aの機能は、処理回路91により実現される。すなわち、位置検出装置1cは、カメラ2が撮像した撮像画像と電波センサが取得したセンサ情報とから人の三次元位置を検出する制御を行うための処理回路91を備える。
処理回路91は、メモリ95に記憶されたプログラムを読み出して実行することにより、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15aの機能を実行する。すなわち、位置検出装置1cは、処理回路91により実行されるときに、上述の図15のステップST1111~ステップST117が結果的に実行されることになるプログラムを格納するためのメモリ95を備える。また、メモリ95に記憶されたプログラムは、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15aの処理の手順または方法をコンピュータに実行させるものであるとも言える。
また、位置検出装置1cは、カメラ2、電波センサ、体格検出装置4、または、衝突安全装置5等の装置と、有線通信または無線通信を行う入力インタフェース装置92および出力インタフェース装置93を備える。
【0128】
なお、以上の実施の形態4において、位置検出装置1cは、実施の形態2に係る位置検出装置1a同様、複数の対象特徴点の三次元位置を検出することもできる。
【0129】
また、実施の形態4において、位置検出装置1cは、後部座席の乗員の三次元位置を特定することもできる。
【0130】
また、以上の実施の形態4において、例えば、カメラ2は車室内に複数設置されてもよいし、測距センサ3は車室内に複数設置されてもよい。
【0131】
また、以上の実施の形態4において、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15aのうち、一部を車両の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで位置検知システムを構成するようにしてもよい。
また、特徴点検出部11と、角度算出部12と、距離検出部13と、位置特定部14aと、距離推定部15aが、全て、サーバに備えられてもよい。
【0132】
また、以上の実施の形態4において、位置情報取得部41と体格判定部42のうち、一部が車載装置に備えられ、その他がサーバに備えられてもよいし、位置情報取得部41と体格判定部42とがサーバに備えられてもよい。また、衝突安全装置5がサーバに備えられてもよい。
【0133】
また、以上の実施の形態4において、位置検出装置1cは、種々の乗り物において、乗員の三次元位置を検出することができる。また、位置検出装置1cは、例えば、居室に存在する人等、乗り物の乗員に限らず、実空間に存在する人の三次元位置を検出することができる。
【0134】
以上のように、実施の形態4によれば、位置検出装置1cにおいて、距離推定部15aは、特徴点検出部11が検出した複数個の特徴点のうちの距離算出用特徴点間の距離である特徴点間距離と基準特徴点間距離(第2基準特徴点間距離)とに基づき、カメラ2から対象特徴点までの第2距離を推定し、基準特徴点間距離は、特徴点間距離と、距離検出部13が検出した第1距離とに基づいて設定されているように構成した。そのため、位置検出装置1cは、年齢または顔の形状等の個人差を考慮して、高精度に第2距離を推定することができる。その結果、位置検出装置1cは、電波センサの距離分解能を考慮して乗員の三次元位置を特定するにあたり、より高精度に乗員の三次元位置を特定することができる。
【0135】
以上の実施の形態1~実施の形態4に係る体格検出システム100において、体格検出装置4は、乗員が正規着座状態であるか否かを判定し、乗員が正規着座状態であると判定した場合に、体格判定を行うようにしてもよい。
実施の形態1~実施の形態4において、「正規着座状態」とは、人の姿勢が崩れていない状態をいう。
以下、実施の形態1~実施の形態4において、乗員が正規着座状態であると判定した場合に体格判定を行うようにした体格検出装置4の詳細について、説明する。
【0136】
体格検出装置4において、体格判定部42は、位置検出装置1,1a,1b,1cにおいて位置特定部14,14a,14bが特定した対象特徴点の三次元位置が、基準特徴点領域内にあるか否かを判定する。なお、体格判定部42は、位置特定部14,14a,14bが特定した対象特徴点の三次元位置を、位置情報取得部41が取得した位置情報から特定できる。
実施の形態1~実施の形態4において、「基準特徴点領域」は、乗員が正規着座状態である場合に対象特徴点が存在すると想定される実空間上の領域である。
当該基準特徴点領域には、予め、例えば、種々の異なる体格を有する複数の人が正規着座した状態で、当該複数の人の対象特徴点が存在する位置を全て含む領域が設定されており、体格判定部42は当該基準特徴点領域に関する情報を記憶している。
【0137】
体格判定部42は、位置特定部14,14a,14bが特定した対象特徴点の三次元位置が、基準特徴点領域内にあると判定した場合、乗員の体格を判定する。
一方、体格判定部42は、位置特定部14,14a,14bが特定した対象特徴点の三次元位置が、基準特徴点領域内にないと判定した場合、乗員の体格の判定を行わない。
【0138】
体格検出装置4にて乗員の体格を判定する場合、乗員が正規着座状態でないと、乗員の体格を誤判定してしまう可能性がある。
体格検出装置4は、乗員が正規着座状態であるか否かを判定し、乗員が正規着座状態であると判定した場合に乗員の体格判定を行うようにすることで、乗員の体格の誤判定を低減することができる。
【0139】
図16は、実施の形態1~実施の形態4に係る体格検出システム100において、乗員が正規着座状態であると判定した場合に体格判定を行うようにした場合の体格検出装置4の動作について説明するためのフローチャートである。
【0140】
位置情報取得部41は、位置検出装置1から位置情報を取得する(ステップST401)。
体格判定部42は、ステップST401にて位置情報取得部41が取得した位置情報に基づき、位置検出装置1,1a,1b,1cにおいて位置特定部14,14a,14bが特定した対象特徴点の三次元位置が、基準特徴点領域内にあるか否かを判定する(ステップST402)。
【0141】
ステップST402において、位置特定部14,14a,14bが特定した対象特徴点の三次元位置が基準特徴点領域内にあると判定した場合(ステップST402の“YES”の場合)、体格判定部42は、乗員の体格を判定する(ステップST403)。
【0142】
ステップST402において、位置特定部14,14a,14bが特定した対象特徴点の三次元位置が基準特徴点領域内にないと判定した場合(ステップST402の“NO”の場合)、体格検出装置4の動作は、ステップST401の処理に戻る。
【0143】
このように、実施の形態1~実施の形態4に係る体格検出システム100の体格検出装置4において、体格判定部42は、位置検出装置1,1a,1b,1cの位置特定部14,14a,14bが特定した対象特徴点の三次元位置が、乗員が正規着座状態である場合に当該対象特徴点が存在すると想定される実空間上の基準特徴点領域内にある場合に、乗員の体格判定を行ってもよい。
これにより、体格検出システム100において、体格検出装置4は、乗員の体格の誤判定を低減することができる。
【0144】
実施の形態1~実施の形態4に係る体格検出装置4のハードウェア構成の一例は、図7Aおよび図7Bにて示した位置検出装置1,1a,1b,1cのハードウェア構成の一例と同様であるため、図示を省略する。
実施の形態1~実施の形態4において、位置情報取得部41と体格判定部42の機能は、処理回路91により実現される。すなわち、体格検出装置4は、位置検出装置1,1a,1b,1cが特定した乗員の三次元位置に基づき、当該乗員の体格を判定するための処理回路91を備える。
処理回路91は、図7Aに示すように専用のハードウェアであっても、図7Bに示すようにメモリに格納されるプログラムを実行するプロセッサ94であってもよい。
【0145】
処理回路91が専用のハードウェアである場合、処理回路91は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
【0146】
処理回路がプロセッサ94の場合、位置情報取得部41と体格判定部42の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ95に記憶される。プロセッサ94は、メモリ95に記憶されたプログラムを読み出して実行することにより、位置情報取得部41と体格判定部42の機能を実行する。すなわち、体格検出装置4は、プロセッサ94により実行されるときに、上述の図16のステップST1~ステップST4のような処理が結果的に実行されることになるプログラムを格納するためのメモリ95を備える。また、メモリ95に記憶されたプログラムは、位置情報取得部41と体格判定部42の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ95とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
【0147】
なお、位置情報取得部41と体格判定部42の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、位置情報取得部41については専用のハードウェアとしての処理回路91でその機能を実現し、体格判定部42についてはプロセッサ94がメモリ95に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
【0148】
また、体格検出装置4は、位置検出装置1,1a,1b,1c、または、衝突安全装置5等の装置と、有線通信または無線通信を行う入力インタフェース装置92および出力インタフェース装置93を備える。
【0149】
なお、実施の形態1~実施の形態4において、体格検出装置4は、位置検出装置1,1a,1b,1cが検出した人の三次元位置に関する位置情報に基づき、車両1000の乗員に限らず、種々の乗り物の乗員、または、実空間上に存在する人の体格を判定することができる。
【0150】
なお、本開示は、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
【産業上の利用可能性】
【0151】
本開示に係る位置検出装置は、どんな人に対しても個人認証処理を実行することなく、個々の人毎の三次元位置を特定することができる。
【符号の説明】
【0152】
1,1a,1b,1c 位置検出装置、2 カメラ、3 測距センサ、4 体格検出装置、5 衝突安全装置、11 特徴点検出部、12 角度算出部、13 距離検出部、14,14a,14b 位置特定部、15,15a 距離推定部、16 装着物検出部、41 位置情報取得部、42 体格判定部、100 体格検出システム、1000 車両、91 処理回路、92 入力インタフェース装置、93 出力インタフェース装置、94 プロセッサ、95 メモリ。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16