(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0015】
以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
【0016】
[実施形態]
図1から
図5を参照して、実施形態について説明する。
図1は、実施形態に係る監視システムが適用される車両の室内の概略構成を表す模式図である。
図2は、実施形態に係る監視システムが適用される車両の室内を表す模式図である。
図3は、実施形態に係る監視システムの概略構成を表すブロック図である。
図4は、実施形態に係る監視システムの外観を表す斜視図である。
図5は、実施形態に係る監視システムが推定する人体モデルの一例を示す図である。なお、
図1、
図2に示す矢印X方向は、車両100の車幅方向とする。
図1、
図2に示す矢印Y方向は、車両100の高さ方向とする。
図1、
図2に示す矢印Z方向は、車両100の長さ方向(前後方向)とする。矢印Z方向は、車両100の奥行き方向である。以下の説明において、車両100を「自車両」と表記する場合がある。
【0017】
図1に示す本実施形態に係る監視システム1は、車両100に搭載され、当該車両100の室内101の監視対象者OBを監視し、監視対象者OBに対する様々な処理を行う車載システム(車室内監視システム)である。監視対象者OBは、監視システム1による監視の対象者である。監視対象者OBは、車両100の室内101に乗車した搭乗者であり、車両100の運転者や運転者以外の同乗者を含む。
【0018】
図1、
図2に示す一例では、車両100は、運転席105と、助手席106と、2列目の後部座席107と、3列目の後部座席108とを備える。車両100は、一例として、ウォークスルーが可能な車両である。換言すると、車両100は、2列目の後部座席107と3列目の後部座席108との間を、座席を倒すことなく室内101を移動できる車両である。本実施形態の監視対象者OBは、一例として、車両100の後部座席107,108の同乗者であるものとして説明する。なお、本実施形態では、車両100は、自動車である場合について説明するが、例えば、バス、電車等であってもよい。
【0019】
図2に示す一例では、車両100は、監視対象者OBが乗降する後部のドア110を備える。車両100のドア110は、室内の監視対象者OBが降車する場合に用いるドアノブ120が室内側に設けられている。そして、本実施形態の監視システム1は、全体が車両100の天井102の室内101側の面に設けられ、種々の機能を統合したオーバーヘッドモジュール(OHM:Over−Head Module)を構成する。
【0020】
以下、
図1、
図2、
図3、
図4、
図5を参照して監視システム1の構成について詳細に説明する。
【0021】
監視システム1は、筐体2と、撮像部3と、出力部4と、照明部5と、操作部6と、外部接続部7と、制御部8と、警報部9とを備える。なお、オーバーヘッドモジュールを構成する監視システム1は、この他、例えば、無線通信部、アンテナ、電源分配部等を備えていてもよい。
【0022】
筐体2は、監視システム1を構成する各部を収容するものである。筐体2は、複数の部材が組み合わさって全体として中空箱状に形成される。筐体2は、絶縁性を有する合成樹脂によって形成される。ここでは、筐体2は、内部に撮像部3、出力部4、照明部5、操作部6、外部接続部7、及び、制御部8が組み付けられこれらを収容し、オーバーヘッドモジュールとしてユニット化する。筐体2は、内部に収容した撮像部3、出力部4、照明部5、操作部6、外部接続部7の一部が外面に露出している。そして、本実施形態の筐体2は、車両100の天井(ルーフパネル)102の室内101側の面に設けられる。天井102は、ピラー等を介して車両ボデー本体に連結され当該車両ボデー本体の鉛直方向上側に支持された構造体である。車両100は、天井102を鉛直方向上側の境界として、室内101と室外とに領域分けされる。ここでは、筐体2は、例えば、天井102とウインドシールド103との交差部分でかつ車両100の車幅方向の略中央位置に設けられる。
【0023】
撮像部3は、車両100の室内101の監視対象者OBまでの距離を計測する3次元のTOF(Time of Flight)カメラ、距離画像センサ等を含む。撮像部3は、監視対象者OBまでの距離を含む深度画像を撮像するものである。本実施形態の撮像部3によって撮像される深度画像は、例えば、室内101の3次元座標(XYZ座標)における各点の距離(座標)を示す3次元点群データに相当する。3次元点群データは、撮像部3によって撮像した対象を立体的に示すデータである。3次元点群データは、各点でのXYZ座標における座標を示す座標値を含む。本実施形態の撮像部3は、室内101の監視対象者OBの監視対象部位TGの3次元位置を計測可能な深度画像を撮像する機能を有する。監視対象部位TGは、例えば、搭乗者の手、手及び前腕、手及び腕等を含む。本実施形態では、撮像部3は、TOFカメラを用いることで、暗い環境でも監視対象者OBの撮像を可能としている。
【0024】
撮像部3は、例えば、レンズが筐体2の外面に露出し、光軸が室内101の運転席105、後部座席107側を向くように当該筐体2に設けられる。撮像部3は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。例えば、撮像部3は、撮像した深度画像を制御部8に出力する。
【0025】
出力部4は、車両100の室内101に向けて、種々の情報を出力するものである。ここでは、出力部4は、表示部41と、スピーカ42とを含んで構成される。表示部41は、視覚情報(図形情報、文字情報)を出力する表示装置である。表示部41は、例えば、薄型の液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等によって構成される。スピーカ42は、聴覚情報(音声情報、音情報)を出力する出力装置である。出力部4を構成する表示部41、スピーカ42は、それぞれ、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。
【0026】
照明部5は、車両100の室内101を照明するものであり、例えば、マップランプ等である。照明部5は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。
【0027】
操作部6は、車両100の室内101側から種々の操作を入力可能な操作機器である。操作部6は、例えば、押しボタン、静電容量式タッチスイッチや赤外線センサ等の非接触式センサ等によって構成される。操作部6は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。
【0028】
外部接続部7は、筐体2の外部の電気機器が電気的に接続される部分である。外部接続部7は、種々の形式のコネクタやインターフェース部によって構成される。外部接続部7は、警報部9が電気的に接続される。警報部9は、室内101のドア110に対応して設けられている。警報部9は、例えば、ドア110を開けようとする監視対象者OBに対して警報を行う。警報部9は、例えば、ランプ、スピーカ等を有する。警報部9は、ドア110を開けようとする監視対象者OBに気付かせるために、ドア110やドア110の近くに設けることが好ましい。例えば、警報部9は、自車両に対する他車両の接近を光によって警報する場合、他車両の自車両までの距離や接近状況に応じて赤ランプを点灯させてもよい。例えば、警報部9は、他車両の接近を音によって警報する場合、「車両が接近しています」等の音声データや、ブザーをパターン吹鳴させてもよい。なお、他車両は、例えば、自動車、自動二輪車、自転車等を含む。
【0029】
外部接続部7は、車両100の各部を統括的に制御するECU(Electronic Control Unit)や車両100の天井102の室内101側の面の後部座席側の位置に設けられるリヤモジュール等が電気的に接続される。外部接続部7は、制御部8、及び、筐体2の外部の電気機器に電気的に接続され、相互に電気信号を授受可能である。
【0030】
図3に示す一例では、外部接続部7は、例えば、ブレーキECU201と、先進運転支援システム(ADAS:Advanced Driver Assistance System)ECU202とが電気的に接続されている。ブレーキECU201は、車両100のブレーキに関する車両情報を出力する。車両情報は、例えば、車両が停止状態であるか否かを示す情報を含む。先進運転支援システムECU202は、車両100の周辺状況に関する周辺状況情報を出力する。周辺状況情報は、例えば、車両100の周辺環境や車両100の周辺の人物、他車両、障害物等の外部物体を撮像した周辺画像情報、外部物体の有無や当該外部物体との相対距離、相対速度、TTC(Time−To−Collision:接触余裕時間)等を表す外部物体情報等を含んでいてもよい。
【0031】
制御部8は、監視システム1の各部を統括的に制御する部分である。制御部8は、監視対象者OBの状態監視や様々な支援に関する種々の演算処理を実行する。制御部8は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の中央演算処理装置、ROM(Read Only Memory)、RAM(Random Access Memory)及びインターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御部8は、撮像部3、出力部4、照明部5、操作部6、及び、外部接続部7が電気的に接続される。制御部8は、撮像部3によって撮像された深度画像に対応した画像信号、各部を駆動させるための駆動信号等の各種の電気信号を各部との間で相互に授受することができる。
【0032】
具体的には、制御部8は、機能概念的に、記憶部81、及び、処理部82を含んで構成される。記憶部81、及び、処理部82は、電気的に接続されている各種機器との間で種々の情報を授受することができる。記憶部81は、メモリ等の記憶装置である。記憶部81は、制御部8での各種処理に必要な条件や情報、制御部8で実行する各種プログラム等が格納されている。そして、記憶部81は、表示部41に表示する一部の画像等の視覚情報やスピーカ42で出力する音声等の聴覚情報も記憶している。また、記憶部81は、撮像部3が撮像した深度画像に関する情報や外部接続部7を介して取得された各種情報を一時的に記憶することもできる。記憶部81は、処理部82によって各種情報が必要に応じて読み出される。処理部82は、各種入力信号等に基づいて、記憶部81に記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する。
【0033】
図3に示す一例では、記憶部81は、条件情報81aと、監視結果情報81bとを記憶することができる。条件情報81aは、監視対象者OBの降車動作の判定に必要な条件や情報を含む。条件情報81aの一例については、後述する。監視結果情報81bは、撮像部3によって撮像した深度画像に基づいて、監視対象者OBの監視対象部位が室内のドア操作に関する監視座標に接近する動作を監視した監視対象者の降車動作の監視結果を示す情報を含む。監視結果情報81bは、監視対象者OBの監視対象部位の経時的な3次元座標と監視結果とを含む。
【0034】
処理部82は、より詳細には、機能概念的に、推定部83、監視部84、及び、動作制御部85を含んで構成される。処理部82は、プログラムを実行することにより、推定部83、監視部84、及び、動作制御部85を実現する。
【0035】
推定部83は、撮像部3によって撮像された深度画像から監視対象者OBの3次元の人体モデルを推定する。例えば、推定部83は、背景差分法、Random Forest、Mean Shift法、パターンマッチング等によって深度画像から監視対象者OBを抽出し、当該監視対象者OBの輪郭等に基づいて人体モデルを推定する。
図5に示す人体モデルOBMは、監視対象者OBの骨格位置を示すモデルである。
図5に示す一例では、人体モデルOBMは、監視対象者OBの頭、肩、肘、手、腰、膝及び足の人体パーツを特徴的に示している。そして、推定部83は、深度画像の3次元点群データが示す各点の座標値に基づいて監視対象者OBを深度画像から抽出し、当該監視対象者OBの骨格位置に着目して人体モデルOBMを推定する。なお、人体モデルOBMの推定処理の一例については、後述する。推定部83は、推定した人体モデルOBMの各人体パーツから監視対象部位TGを特定し、室内101の3次元空間における監視対象部位TGの3次元座標を算出する。監視対象部位TGが監視対象者OBの手である場合、推定部83は、人体モデルOBMの人体パーツから左右の手の3次元座標を算出する。手の3次元座標は、例えば、手の中心座標、手の任意の1または複数のポイントの座標等を含む。推定部83は、算出した監視対象部位TGの3次元座標を、深度画像のフレームに紐付けて記憶部81に記憶する。また、例えば、撮像部3によって撮像された深度画像に監視対象者OBの手が写っていない場合、推定部83は、監視対象者OBの肩や肘等の人体パーツの位置と監視対象者OBのサイズと姿勢とに着目し、着目した人体パーツから監視対象者OBの手の3次元座標を推測することができる。
【0036】
監視部84は、推定部83によって推定された監視対象者OBの人体モデルOBMに基づいて、当該人体モデルOBMの監視対象部位TGが室内101の監視座標に接近する動作を監視する。例えば、監視対象者OBは、車両100から降車する場合、ドア110のドアノブ120を操作してドア110を開く。このため、監視システム1は、監視対象者OBの降車動作を監視する場合、室内101の3次元空間におけるドアノブ120の3次元座標をドア110に関する監視座標とする。監視座標は、例えば、ドアノブ120の輪郭に対応した3次元座標の範囲、ドアノブ120の任意のポイントに対応した3次元座標等を含む。そして、監視部84は、監視対象部位TGの時系列の3次元座標に基づいて、監視対象部位TGの監視座標に接近する動作を監視する。例えば、監視部84は、監視対象部位TGのオプティカルフローを推定し、当該オプティカルフローに基づいて視対象部位TGの監視座標に接近する動作を監視する。なお、監視対象部位TGのオプティカルフローを推定する手法は、例えば、Lucas Kanade法、Hom−Schunk法等を用いることができる。監視部84は、人体モデルOBMの監視対象部位TGの3次元座標とドアノブ120の監視座標との距離が判定閾値よりも小さくなった場合、監視対象部位TGが監視座標に接近する動作を降車動作として検出する。なお、監視部84は、人体モデルOBMの監視対象部位TGの3次元座標がドアノブ120の監視座標に到達したことを、監視対象部位TGの降車動作として検出してもよい。監視部84は、監視対象部位TGが監視座標に接近する降車動作を検出したことを示す情報を監視結果情報81bに記憶する。監視部84は、監視対象部位TGが監視座標に接近する降車動作の検出に用いた3次元座標を、監視結果に紐付けて監視結果情報81bに記憶することができる。
【0037】
動作制御部85は、動作制御処理を実行可能な部分である。動作制御処理とは、撮像部3、出力部4、照明部5、操作部6、及び、警報部9等の監視システム1の各部の動作を制御する処理である。動作制御部85は、撮像部3、出力部4(表示部41、スピーカ42)、照明部5、操作部6、外部接続部7、記憶部81と電気的に接続される。動作制御部85は、撮像部3に駆動信号を出力することで撮像部3の動作を制御し、監視対象者OBを含む深度画像の撮像を開始させたり当該撮像を終了させたりすることができる。また、動作制御部85は、出力部4(表示部41、スピーカ42)に駆動信号を出力することで出力部4の動作を制御し、表示部41に視覚情報を表示させたりスピーカ42に聴覚情報を出力させたりすることができる。また、動作制御部85は、照明部5に駆動信号を出力することで照明部5の動作を制御し、照明部5を点灯させたり照明部5を消灯させたりすることができる。さらに、動作制御部85は、操作部6から入力された操作信号に基づいて操作部6に対する操作入力を受け付け、照明部5の点灯、消灯を切り替えたり表示部41による表示内容を切り替えたり各種設定を行ったりすることができる。動作制御部85は、外部接続部7を介してブレーキECU201、先進運転支援システムECU202等に支援要求信号を出力し、上記の車両情報、周辺状況情報等を取得することができる。動作制御部85は、外部接続部7を介して警報部9に駆動信号を出力することで、警報部9の動作を制御することができる。
【0038】
動作制御部85は、監視部84によって監視対象部位TGが監視座標に接近する降車動作を検出した場合に、当該降車動作に応じた処理を行う。動作制御部85は、監視対象部位TGが監視座標に接近する降車動作に応じた処理として、監視対象部位TGが監視座標に向かったことを警報部9に警報させる処理を実行できる。動作制御部85は、監視対象部位TGが監視座標に向かう動作に応じた処理として、監視対象部位TGが監視座標に向かったことを運転者等に警報する警報情報を出力部4から出力させる処理を実行できる。
【0039】
動作制御部85は、監視対象部位TGが監視座標に接近する降車動作を監視している場合に、外部接続部7を介して上記の車両情報、周辺状況情報等を取得できる。動作制御部85は、取得した車両情報に基づいて、車両100が停車状態であるか否かを判定する機能を有する。動作制御部85は、取得した周辺状況情報に基づいて、車両100に対して他車両が接近しているか否かを判定する機能を有する。
【0040】
動作制御部85は、車両100が停車状態である場合、かつ車両100に対して他車両が接近している場合、かつ監視部84によって監視対象部位TGが監視座標に接近する降車動作を検出した場合に、自車両に対して他車両が接近していることを警報部9に警報させることができる。
【0041】
次に、
図6を参照しながら、監視システム1が監視する室内101の3次元空間の一例を説明する。
図6は、実施形態に係る監視システム1が監視する室内の一例を表す模式図である。
【0042】
図6に示すように、監視システム1は、室内101を監視対象の3次元空間として監視する。監視システム1は、車両100の後部のドア110から降車しようとする監視対象者OBの降車動作を監視する。この場合、監視システム1は、監視対象の3次元空間におけるドアノブ120の位置を示す監視座標P1,P2を含む条件情報81aを記憶部81に予め記憶している。本実施形態では、条件情報81aは、監視座標P1、P2にそれぞれ対応した3次元の監視領域E1、E2を示す情報を含んでいる。監視領域E1は、例えば、車両100の右側のドア110に対する降車動作の判定対象とする室内101の領域である。監視領域E2は、例えば、車両100の左側のドア110に対する降車動作の判定対象とする室内101の領域である。
図6に示す一例では、監視領域E1は、室内101の右側のドア110のドアノブ120の監視座標P1を基準とし、後部座席107とドアノブ120とを含む領域となっている。そして、監視領域E2は、室内101の左側のドア110のドアノブ120の監視座標P2を基準とし、室内101の左側の後部座席107とドアノブ120とを含む領域となっている。
【0043】
本実施形態では、条件情報81aは、監視領域E1、E2を右側と左側との後部座席107に対して設定する場合について説明するが、これに限定されない。例えば、条件情報81aは、監視座標P1、P2と、室内101の2列目の2つの後部座席107との双方を含む3次元の領域を監視領域としてもよい。換言すると、監視情報810の監視領域は、室内101の座席と車両100のドア110との配置関係に応じて適宜設定することができる。
【0044】
次に、
図7を参照しながら、本実施形態に係る監視システム1の降車動作を監視する一例を説明する。
図7は、実施形態に係る監視システム1の降車動作を監視する一例を示す図である。
【0045】
図7に示すステップS1の場面では、監視対象者OBは、室内101の右側の後部座席107に、車両100の進行方向に向かった姿勢で着席している。なお、車両100は、走行状態であることを前提とする。
【0046】
ステップS1に示す場面では、監視システム1の撮像部3は、右側の後部座席107に着席している監視対象者OBを含む深度画像を撮像する。監視システム1の推定部83は、当該深度画像から後部座席107に着席した状態の監視対象者OBの人体モデルOBMを推定する。そして、推定部83は、推定した人体モデルOBMから監視対象部位TGを特定し、当該監視対象部位TGの室内101における3次元座標を算出し、算出した監視対象部位TGの3次元座標を時系列的に記憶部81に記憶する。そして、監視部84は、推定部83によって推定された人体モデルOBMに基づいて、人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する動作を監視する。この場合、監視部84は、監視対象部位TGの時系列の3次元座標に基づいて、監視対象部位TGが監視領域E1内に留まっており、かつ監視座標P1に向かっていないので、降車動作を検出していないことを示す監視結果を監視結果情報81bに記憶する。そして、監視部84は、監視対象部位TGの降車動作の監視を継続する。
【0047】
次に、
図7に示すステップS2の場面では、監視対象者OBは、右側の後部座席107から右側のドア110のドアノブ120に向かって監視対象の手を移動させる動作を行っている。この場合、車両100は、走行状態から停車状態に遷移している。そして、停車状態の車両100には、例えば後方から他車両が接近している。
【0048】
ステップS2に示す例では、監視システム1の撮像部3は、右側の後部座席107で姿勢を変化させ、手をドアノブ120に向かって移動させている監視対象者OBを含む深度画像を撮像する。監視システム1の推定部83は、当該深度画像から後部座席107で手を移動させている監視対象者OBの人体モデルOBMを推定する。そして、推定部83は、推定した人体モデルOBMから監視対象部位TGを特定し、当該監視対象部位TGの3次元座標を算出し、算出した監視対象部位TGの3次元座標を時系列的に記憶部81に記憶する。そして、監視部84は、推定部83によって推定された人体モデルOBMに基づいて、人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する監視動作を検出すると、降車動作を検出したことを示す監視結果を監視結果情報81bに記憶する。詳細には、監視部84は、監視対象部位TGの時系列の3次元座標に基づいて、監視対象部位TGが監視領域E1内に留まっており、かつ監視座標P1と監視対象部位TGの3次元座標との距離が判定閾値よりも小さくなったことを降車動作として検出する。そして、動作制御部85は、外部接続部7を介して上記の車両情報を取得し、当該車両情報が停車状態を示していると、車両100が停車状態であることを検出する。動作制御部85は、外部接続部7を介して上記の周辺状況情報を取得すると、車両100に対して他車両が接近していることを検出する。この場合、動作制御部85は、監視部84の監視結果に基づいて降車動作が検出された場合に、車両100の停車状態を検出し、かつ車両100に対して他車両の接近を検出しているので、車両100に対する他車両の接近を警報部9に警報させる処理を実行する。これにより、監視システム1は、ドア110のドアノブ120を操作しようとする監視対象者OBに対し、他車両の接近を警報部9によって警報することができる。すなわち、監視システム1は、監視対象者OBが車両100から降車する前に、他車両の接近を警報部9によって警報することができる。
【0049】
例えば、
図6に示す室内101において、右側の3列目の後部座席108に着席していた監視対象者OBが、監視領域E1の外で、右側のドア110のドアノブ120に向かって降車するために移動し始めたとする。
【0050】
この場合、監視システム1の撮像部3は、右側の後部座席108から移動し始めた監視対象者OBを含む深度画像を撮像する。監視システム1の推定部83は、当該深度画像から当該監視対象者OBの人体モデルOBMを推定する。そして、推定部83は、推定した人体モデルOBMから監視対象部位TGを特定し、当該監視対象部位TGの室内101における3次元座標を算出し、算出した監視対象部位TGの3次元座標を時系列的に記憶部81に記憶する。そして、監視部84は、推定部83によって推定された人体モデルOBMに基づいて、人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する動作を監視する。しかし、監視部84は、監視対象部位TGの時系列の3次元座標に基づいて、監視対象部位TGが監視領域E1の外に位置しており、かつ監視座標P1までの距離が判定閾値よりも大きいので、降車動作を検出していないことを示す監視結果を監視結果情報81bに記憶する。そして、監視部84は、監視対象部位TGの動作の監視を継続する。
【0051】
その後、監視システム1の監視部84は、監視対象部位TGが監視領域E1に位置する状態で、当該監視対象部位TGと監視座標P1との距離が判定閾値よりも小さくなった場合に、降車動作を検出したことを示す監視動作を検出したことを示す監視結果を監視結果情報81bに記憶する。
【0052】
以上で説明した監視システム1は、推定部83が撮像部3によって撮像された深度画像から監視対象者OBの3次元の人体モデルOBMを推定し、当該人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する動作を監視する。この結果、監視システム1は、3次元の人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する動作を監視することができるので、監視対象者OBの降車動作を正確に把握することできる。
【0053】
監視システム1は、監視部84が監視座標P1を基準とした室内101の監視領域E1内に位置する監視対象部位TGが監視座標P1に接近する動作を監視する。そして、監視システム1は、監視領域E1の外に位置する監視対象部位TGが監視座標P1に接近する動作を降車動作として検出しない。この結果、監視システム1は、監視領域E1の外部で監視対象
部位TGが監視領域E1の監視座標P1に接近する動作を降車動作から除外することができるので、監視対象の動作をより一層正確に監視することができる。
【0054】
監視システム1は、監視座標P1が室内101におけるドアノブ120の3次元座標であり、監視対象部位TGが監視対象者OBの手である。この結果、監視システム1は、推測した監視対象者OBの3次元の人体モデルOBMに基づいて、監視対象者OBの手がドアノブ120に接近する動作を監視することができるので、監視対象者OBがドア110を開こうとする降車動作をより一層正確に監視することができる。
【0055】
監視システム1は、動作制御部85が監視部84の監視結果に基づいて降車動作を検出した場合に、当該降車動作に応じた処理を行う。この結果、監視システム1は、監視対象部位TGが監視座標P1に接近する動作を検出した場合、降車動作に応じた処理を実行することができるので、当該降車動作に応じたサービスを提供して利便性を向上させることができる。
【0056】
監視システム1は、動作制御部85が監視部84の監視結果に基づいて降車動作が検出された場合、かつ車両100が停車状態である場合、当該降車動作に応じた処理を行う。この結果、監視システム1は、車両100が停車状態のときに、降車動作に応じた処理を実行することができるので、車両100の停車時の降車動作に適したサービスを提供して利便性をより一層向上させることができる。
【0057】
監視システム1は、動作制御部85が監視部84の監視結果に基づいて降車動作が検出された場合、かつ車両100に対して他車両が接近している場合に、他車両の接近を警報部9に警報させる処理を行う。この結果、監視システム1は、降車動作を検出した場合に、他車両の接近を監視対象者OBに警報することができるので、ドア110の開放時の事故を未然に防いで監視対象者OBの安全性を向上させることができる。
【0058】
監視システム1は、撮像部3、制御部8を含む各部が筐体2に設けられるので、当該監視システム1全体をオーバーヘッドモジュールとしてユニット化することができる。この構成により、監視システム1は、車両100に対する搭載性を向上することができる。なお、監視システム1は、警報部9を筐体2の外部の監視座標P1,P2の近くに設けることで、監視対象者OBに対する警報を速やかに認識させることができる。
【0059】
次に、
図8のフローチャート図を参照して、制御部8の処理部82の制御の一例を説明する。
図8は、実施形態に係る監視システムの制御部の制御の一例を表すフローチャート図である。
図8に示すフローチャート図は、監視対象者OBの降車動作の監視に関する処理手順の一例を示す。
図8に示す処理手順は、処理部82がプログラムを実行することによって実現される。
図8に示す処理手順は、処理部82によって繰り返し実行される。
【0060】
まず、監視システム1の制御部8の処理部82は、撮像部3によって撮像された深度画像を取得する(ステップS101)。そして、処理部82は、取得した深度画像から3次元の人体モデルOBMを推定する推定処理を実行する(ステップS102)。例えば、処理部82は、推定処理を実行することにより、深度画像の3次元点群データが示す各点の座標値に基づいて監視対象者OBを抽出し、当該監視対象者OBの骨格位置に着目して人体モデルOBMを推定し、当該人体モデルOBMから監視対象部位TGを抽出する。なお、推定処理の詳細については、後述する。処理部82は、ステップS102の処理を実行することにより、上記の推定部83として機能する。処理部82は、推定処理が終了すると、処理をステップS103に進める。
【0061】
処理部82は、抽出した人体モデルOBMに基づいて、監視対象部位TGが監視座標に接近する動作を監視して監視対象者OBの降車動作を検出して監視対象者OBの降車動作を検出する(ステップS103)。例えば、処理部82は、監視対象部位TGの3次元座標と条件情報81aの監視座標P1,P2との距離が判定閾値よりも小さくなったか否かを判定する。なお、処理部82は、監視対象部位TGの3次元座標がドアノブ120の監視座標に到達したか否かを判定してもよい。例えば、処理部82は、監視対象部位TGの3次元座標と条件情報81aの監視座標P1との距離が判定閾値よりも小さくなったと判定する。この場合、監視対象部位TGが監視座標P1に接近する動作であるので、処理部82は、監視対象者OBの降車動作を検出したことを示す監視結果を監視結果情報81bに記憶する。例えば、処理部82は、監視対象部位TGの3次元座標と条件情報81aの監視座標P1との距離が判定閾値よりも小さくなっていないと判定する。この場合、監視対象部位TGが監視座標P1に接近する動作ではないので、処理部82は、監視対象者OBの降車動作を検出していないことを示す監視結果を監視結果情報81bに記憶する。処理部82は、ステップS103の処理を実行することにより、上記の監視部84として機能する。処理部82は、監視対象部位TGを抽出すると、処理をステップS104に進める。
【0062】
処理部82は、外部接続部7を介して車両情報及び周辺状況情報を取得する(ステップS104)。処理部82は、取得した車両情報及び周辺状況情報を一時的に記憶部81に記憶すると、処理をステップS105に進める。
【0063】
処理部82は、車両100が停車状態であるか否かを判定する(ステップS105)。例えば、処理部82は、ステップS105で取得した車両情報が停車状態を示している場合、車両100が停車状態であると判定する。処理部82は、車両100が停車状態ではないと判定した場合(ステップS105でNo)、
図8に示す処理手順を終了させる。処理部82は、車両100が停車状態であると判定した場合(ステップS105でYes)、処理をステップS106に進める。
【0064】
処理部82は、監視対象者OBの降車動作を検出したか否かを判定する(ステップS106)。例えば、処理部82は、監視結果情報81bの監視結果が監視対象者OBの降車動作を検出したことを示す場合、監視対象者OBの降車動作を検出したと判定する。処理部82は、監視対象者OBの降車動作を検出していないと判定した場合(ステップS106でNo)、
図8に示す処理手順を終了させる。処理部82は、監視対象者OBの降車動作を検出したと判定した場合(ステップS106でYes)、処理をステップS107に進める。
【0065】
処理部82は、他車両が接近中であるか否かを判定する(ステップS107)。例えば、処理部82は、ステップS104で取得した周辺状況情報が車両100の周辺の他車両を示している場合に、他車両が接近中であると判定する。処理部82は、他車両が接近中ではないと判定した場合(ステップS107でNo)、
図8に示す処理手順を終了させる。処理部82は、他車両が接近中であると判定した場合(ステップS107でYes)、処理をステップS108に進める。
【0066】
処理部82は、他車両の接近を警報部9によって警報させる(ステップS108)。例えば、処理部82は、監視座標の近くに設けられた警報部9を特定し、外部接続部7を介して、当該警報部9に他車両の接近を警報させる。その結果、監視座標の近くに設けられた警報部9は、監視対象者OBに対して、例えば他車両の接近を警報部9の発光によって警報する。処理部82は、ステップS105からステップS108の一連の処理を実行することにより、動作制御部85として機能する。そして、処理部82は、警報部9に警報させると、
図8に示す処理手順を終了させる。
【0067】
次に、
図9のフローチャート図を参照して、制御部8の処理部82による人体モデルOBMの推定処理の一例を説明する。
図9は、実施形態に係る監視システム1の人体モデルOBMの推定処理の一例を表すフローチャート図である。
図9に示すフローチャート図は、人体モデルOBMの推定方法に関する処理手順の一例を示す。
図9に示す処理手順は、処理部82がプログラムを実行することによって実現される。
図9に示す処理手順は、処理部82が
図8に示すステップS102を実行することにより、起動される。
【0068】
まず、監視システム1の制御部8の処理部82は、深度画像から監視対象者OBの人体部分を抽出する(ステップS201)。例えば、処理部82は、公知である背景差分法を用いて、撮像部3によって撮像された深度画像の3次元点群データと事前に用意しておいた室内101の3次元点群データとを比較し、室内101の3次元点群データには存在しない3次元点群を人体部分として抽出する。処理部82は、人体部分を抽出すると、処理をステップS202に進める。
【0069】
処理部82は、抽出した人体部分から各人体パーツを特定する(ステップS202)。例えば、処理部82は、公知であるRandom Forestを用いて、予め定められた頭、肩、肘、手、腰、膝及び足の人体パーツを人体部分から特定する。監視対象者OBの向き、姿勢等によって全ての人体パーツを特定できない場合、処理部82は、特定可能な人体パーツを特定する。処理部82は、特定を終了すると、処理をステップS203に進める。
【0070】
処理部82は、室内101の3次元空間における各人体パーツの3次元座標を算出する(ステップS203)。例えば、処理部82は、公知であるMean Shift法を用いて、各人体パーツの重心を計算し、計算した重心の座標値と深度画像の3次元点群データが示す各点の座標値とに基づいて、人体パーツの3次元座標を算出する。処理部82は、各人体パーツの3次元座標を算出すると、処理をステップS204に進める。
【0071】
処理部82は、各人体パーツをつなぎ合わせて人体モデルOBMを推定する(ステップS204)。処理部82は、推定した室内101の3次元空間における人体モデルOBMを示す情報を記憶部81に記憶すると、
図9に示す処理手順を終了させる。
【0072】
なお、上述した本発明の実施形態に係る監視システム1は、上述した実施形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。
【0073】
[実施形態の変形例]
実施形態の変形例について説明する。実施形態に係る監視システム1における制御部8の処理部82の制御の他の一例について、
図10のフローチャート図を参照して説明する。以下の説明において、監視システム1の同様の処理手順について同一の符号を付すことがある。さらに、重複する説明は省略することがある。
【0074】
図10は、実施形態に係る監視システムの制御部の制御の他の一例を表すフローチャート図である。
図10に示すフローチャート図は、監視対象者OBの降車動作の監視に関する処理手順の他の一例を示す。
図10に示す処理手順は、処理部82がプログラムを実行することによって実現される。
図10に示す処理手順は、処理部82によって繰り返し実行される。
【0075】
まず、監視システム1の制御部8の処理部82は、撮像部3によって撮像された深度画像を取得する(ステップS101)。そして、処理部82は、取得した深度画像から3次元の人体モデルOBMを推定する推定処理を実行する(ステップS102)。処理部82は、抽出した人体モデルOBMに基づいて、監視対象部位TGが監視座標に接近する動作を監視して監視対象者OBの降車動作を検出する(ステップS103)。処理部82は、外部接続部7を介して車両情報及び周辺状況情報を取得する(ステップS104)。処理部82は、取得した車両情報及び周辺状況情報を一時的に記憶部81に記憶すると、処理をステップS106に進める。
【0076】
処理部82は、監視対象者OBの降車動作を検出したか否かを判定する(ステップS106)。処理部82は、監視対象者OBの降車動作を検出していないと判定した場合(ステップS106でNo)、
図10に示す処理手順を終了させる。処理部82は、監視対象者OBの降車動作を検出したと判定した場合(ステップS106でYes)、処理をステップS105に進める。
【0077】
処理部82は、車両100が停車状態であるか否かを判定する(ステップS105)。処理部82は、車両100が停車状態であると判定した場合(ステップS105でYes)、処理をステップS107に進める。処理部82は、他車両が接近中であるか否かを判定する(ステップS107)。処理部82は、他車両が接近中ではないと判定した場合(ステップS107でNo)、
図10に示す処理手順を終了させる。処理部82は、他車両が接近中であると判定した場合(ステップS107でYes)、処理をステップS108に進める。そして、処理部82は、他車両の接近を警報部9によって警報させる(ステップS108)。処理部82は、警報部9に警報させると、
図10に示す処理手順を終了させる。
【0078】
また、処理部82は、車両100が停車状態ではないと判定した場合(ステップS105でNo)、車両100が走行状態であるので、処理をステップS111に進める。処理部82は、監視対象部者OBの降車動作を検出したことを出力部4によって警報する(ステップS111)。例えば、処理部82は、監視対象部者OBの降車動作を検出したことを警報する警報情報を出力部4の表示部41に表示させるとともに、スピーカ42から警報音を出力させる。その結果、出力部4は、運転者、他の同乗者等に対して、監視対象者OBの降車動作を把握させることができる。処理部82は、ステップS106、ステップS105及びステップS111の一連の処理を実行することにより、動作制御部85として機能する。そして、処理部82は、出力部4に警報させると、
図10に示す処理手順を終了させる。
【0079】
以上により、監視システム1は、動作制御部85が監視部84の監視結果に基づいて監視対象部者OBの降車動作が検出され、かつ車両100が走行状態である場合に、監視対象者OBの降車動作を警報する処理を行う。この結果、監視システム1は、車両100が走行状態のときに、監視対象者OBの降車動作を警報する処理を実行することができるので、同乗者が車両100の走行中にドア110を誤って開放することを事前に防止することができる。
【0080】
以上の説明では、監視部84は、監視領域E1、E2における監視対象部位TGの移動を監視する場合について説明したが、これに限定されない。例えば、監視部84は、監視領域E1、E2を設定せずに、監視対象部位TGが監視座標P1、P2に向かう動作を監視する構成としてもよい。
【0081】
以上の説明では、監視部84は、一例として車両100の室内101の監視対象者OBとして、後部空間の搭乗者の動作を監視するものとして説明したがこれに限らない。監視対象者OBは、助手席106の同乗者であってもよい。また、監視対象部位TGは、監視対象者OBの手であるものとして説明したがこれに限らず、例えば、腕等であってもよい。
【0082】
以上の説明では、監視システム1は、全体が車両100の天井102の室内101側の面に設けられ、オーバーヘッドモジュールを構成するものとして説明したがこれに限らない。監視システム1は、例えば、制御部8が筐体2の外部に設けられ、配索材を介して各部と電気的に接続される構成であってもよく、例えば、制御部8が車両100の各部を統括的に制御する車両ECUによって兼用されて構成されてもよい。また、警報部9は、例えば、車両100の室内101の後部空間に搭載されたディスプレイやスピーカ等が兼用されてもよい。監視システム1は、出力部4を警報部として兼用してもよい。