(58)【調査した分野】(Int.Cl.,DB名)
前記撮像素子は、前記操作体が前記操作部との間に位置する状態で前記操作体を撮影可能な場所に設けられ、前記撮像素子によって撮像された前記操作部の平面より広い画像に基づき、前記操作部の平面より広い領域で前記操作体の移動軌跡を追従可能となっており、
前記操作部は、前記入力操作面が表示面を兼ね、前記入力操作面の表示が前記操作基準方向の傾きに応じて変更される請求項1記載の入力装置。
前記撮像素子によって撮像された画像の画像サイズを縮小し、白黒画像に変換し、フレーム間のオプティカルフローを計算して動きベクトルを検出し、前記動きベクトルを2×2画素で平均化し、各ブロックごとにベクトル長さを計算して所定値より大きい場合に有効ブロックと判定し、前記操作体の輪郭を検出し、前記輪郭から前記操作体の各箇所のサイズを計算して所定値以上の領域を有効領域とし、前記有効領域内で前記輪郭の外接する最小矩形領域を検出し、前記最小矩形領域の縦長さが所定閾値以下であるか判別し、前記所定閾値以下であった場合には前記有効領域内において重心の算出を行い、前記最小矩形領域の縦長さが前記所定閾値より大きい場合には所定距離の範囲で制限して画像を切り出し、切り出された画像において前記輪郭に外接する最小矩形領域を検出して再度前記有効領域の判定を行い、所定の閾値以下となった場合には前記有効領域の中心を前記重心として規定し、前記重心の移動ベクトルを算出することで前記操作体の移動軌跡を追従する請求項1または2に記載の入力装置。
【発明を実施するための形態】
【0032】
図1は、車両の車内前列付近を示している。
図1の車両は左ハンドルであるが、右ハンドルにも本実施形態の入力装置を適用できる。
【0033】
図1に示すように車内の天井10には、CCDカメラ(撮像素子)11が取り付けられている。
図1では、CCDカメラ11をバックミラー12付近に配置している。ただしCCDカメラ11による画像が少なくとも中央操作部17上を映し出したものであれば、CCDカメラ11の設置位置を特に限定するものではない。なおCCDカメラ11の種類や画素数等については特に限定されない。また、CCDカメラ11としているが、赤外線を検知可能なカメラを用いることで夜間でも操作体の動作を検知可能とできる。
【0034】
図1に示すようにセンターコンソール13には、運転席14と助手席15との間の位置に配置された中央操作部17や、操作パネル18が配置されている。
【0035】
中央操作部17は、例えばタッチパッドである。タッチパッドは、例えば静電容量式であり、中央操作部17の表面に位置する入力操作面17a上を指等(操作体)で入力操作したとき、その操作位置を静電容量変化により求めることができる。また中央操作部17と操作パネル18とは連動しており、中央操作部17への入力が、操作パネル18に反映されようにしてもよい。また中央操作部17の入力操作面17aが表示面も兼ねたタッチパネル(ここではタッチパッドに表示装置を兼ね備えたものがタッチパネルであると定義する)を構成していてもよい。例えば、中央操作部17の入力操作面17aに車室状態の操作・制御、音楽や動画操作、携帯機器の操作等に関する表示がされており、表示体を必要に応じて指(操作体)等で選択して所定機能を起動させ、また必要な情報を得ることができる。
【0036】
操作パネル18は、例えば静電容量式タッチパネルであり、カーナビゲーション装置における地図表示や、音楽再生画面等を表示できる。そして操作者は操作パネル18の画面を直接、指等により入力操作することが可能とされている。
【0037】
図2を用いて、中央操作部17の操作基準方向に対する制御について説明する。
図2に示す符号50の人物は、運転席14(
図1参照)に着座した運転者であり、符号51の人物は、助手席15(
図1参照)に着座した乗員51である。
図2では中央操作部17を誇張して図示した。なお
図2は、中央操作部17及び運転者50、助手席の乗員51を真上から見た平面図である。
図2では左ハンドルで示したが当然のことながら右ハンドルにも適用できる。
【0038】
図2に示すX1−X2方向は、運転者50(運転席14)と助手席の乗員51(助手席15)との並び方向である左右方向(横方向)である。また、Y1−Y2方向は、左右方向に対して平面内にて直交する前後方向である。よってY1方向が車両の前進方向であり、Y2方向が後進方向である。
【0039】
中央操作部17には操作基準方向が定められている。ここで「操作基準方向」とは中央操作部17に対して操作をする際の基準となる方向である。例えば、操作基準方向は、中央操作部17を手や指で操作する際の縦方向とされる。
【0040】
今、操作基準方向52aが前後方向(Y1−Y2)に一致しているとする。例えば、初期状態(エンジンをかけた直後など)では、操作基準方向52aを前後方向に設定することができる。あるいは、前回の操作基準方向52aを保持しており、その方向を初期状態(エンジンをかけた直後など)で維持することもできる。ただし、ここでは、説明しやすくするために初期状態での操作基準方向52aを前後方向(Y1−Y2)とおく。
【0041】
また、操作基準方向52aが前後方向(Y1−Y2)に向いた状態を第1の入力モードとする。
【0042】
例えば、中央操作部17の入力操作面17aに文字を入力できるとする。
図3(a)に示すように第1の入力モードでは、操作基準方向52aが中央操作部17の前後方向(Y1−Y2)であるため、前後方向を文字の縦方向として、
図3(a)に示すように例えば、アルファベットの「A」を入力する。すると中央操作部17では、「A」の文字を認識して車室内等で所定機能を起動させたり、あるいは、その入力情報を操作パネル18側に送信し、操作パネル18上で所定機能を起動させたりできる。
【0043】
また
図4(a)に示すように、中央操作部17の入力操作面17aに複数のアイコン61a〜61cが表示されているとする。
図4(a)に示すように、各アイコン61a,61b,61cは、操作基準方向52a(前後方向)を縦方向として表示されている。またこの形態では、各アイコン61a〜61cの並び方向を操作基準方向52a(前後方向)に一致させている。例えば、操作者がアイコン61aを操作すると車室内等で所定機能を起動させたり、あるいは、その入力情報を操作パネル18側に送信し、操作パネル18上で所定機能を起動させたりできる。
【0044】
図2に示すように今、運転者50が手41を伸ばして、中央操作部17の操作を行おうとしている。
【0045】
このように、運転者50が手41を伸ばして中央操作部17を操作しようとしているか、あるいは、助手席の乗員51が手46を伸ばして中央操作部17を操作しようとしているかは、CCDカメラ11の画像情報に基づいて判別することができる。なお、画像情報に基づく判別原理については後で詳述することとする。また本実施形態では、判別を行うための判別部26を制御部21内に含んでいるが、ブロック図については
図11を用いて後で詳述する。
【0046】
運転者50が手41を伸ばして、中央操作部17を操作しようとしていると判別したとき、運転者50が操作しやすいように、中央操作部17の平面視における操作基準方向52bを前後方向(Y1−Y2)から傾ける。例えば
図2に示すように、中央操作部17の入力操作面17aの中心Oを回転中心として、前後方向(Y1−Y2)から操作基準方向52bを時計回りにθ1(90°以下)だけ回転させる。操作基準方向52bが角度θ1だけ傾いた状態を第2の入力モードとする。本実施形態では、操作基準方向を52aから52bに変更するための基準変更部27を制御部21内に含んでいるが、ブロック図については
図11を用いて後で詳述する。平面視とは、X1−X2方向及びY1−Y2方向の双方に対して直交する高さ方向からの矢視である。
【0047】
このように運転者50の操作と判別したら、前後方向(操作基準方向52a)から、操作基準方向52bを運転者50が操作しやすい方向に傾けて第1の入力モードから第2の入力モードに変更する。すなわち運転者50の操作方向に略一致する方向に操作基準方向52bを傾けることができる。なお、角度θ1(0°より大きく90°以下)は、運転者50の操作と判別した際に予め決められた値としてもよい。
【0048】
第2の入力モードでは、
図3(b)に示すように、前後方向(Y1−Y2)に対して斜めに傾いた操作基準方向52bを縦方向として、「A」の文字を入力すると、中央操作部17では、「A」の文字を認識して車室内等で所定機能を起動させたり、あるいは、その入力情報を操作パネル18側に送信し、操作パネル18上で所定機能を起動させたりできる。
【0049】
また、
図4(b)に示すように、前後方向(Y1−Y2)に対して斜めに傾いた操作基準方向52bを縦方向として、各アイコン61a〜61cが表示されている。このように操作基準方向52bが、
図4(a)の前後方向(Y1−Y2)から
図4(b)に示すように傾くことで、各アイコン61a〜61cの表示が
図4(a)から
図4(b)に示すように変更される。
【0050】
また、
図2に示すように、助手席の乗員51が手46を伸ばして、中央操作部17を操作しようとしていると判別したとき、乗員51が操作しやすいように、中央操作部17の平面視における操作基準方向52cを前後方向(Y1−Y2)から傾ける。例えば
図2に示すように、中心Oを回転中心として、前後方向(Y1−Y2)から操作基準方向52cを反時計回りにθ2(0°より大きく90°以下)だけ回転させる。操作基準方向52cが角度θ2だけ傾いた状態(操作基準方向52bとは異なる方向に傾いている)を第3の入力モードとする。
【0051】
このように助手席の乗員51の操作と判別したら、前後方向(操作基準方向52a)から、操作基準方向52cを乗員51が操作しやすい方向に傾ける。すなわち乗員51の操作方向に略一致する方向に操作基準方向52cを傾けることができる。なお、角度θ2は、助手席の乗員51の操作と判別した際に予め決められた値としてもよい。このとき角度θ1と角度θ2とを同じ値とすることが好ましい。
【0052】
第3の入力モードでは、
図3(c)に示すように、前後方向(Y1−Y2)に対して斜めに傾いた操作基準方向52c(操作基準方向52bとは異なる方向に傾いている)を縦方向として、「A」の文字を入力すると、中央操作部17では、「A」の文字を認識して車室内等で所定機能を起動させたり、あるいは、その入力情報を操作パネル18側に送信し、操作パネル18上で所定機能を起動させたりできる。
【0053】
また、
図4(c)に示すように、前後方向(Y1−Y2)に対して斜めに傾いた操作基準方向52c(操作基準方向52bとは異なる方向に傾いている)を縦方向として、各アイコン61a〜61cが表示されている。このように操作基準方向が、
図4(a)の前後方向(Y1−Y2)から
図4(c)に示すように傾くことで、各アイコン61a〜61cの表示が
図4(a)から
図4(c)に示すように変更される。
【0054】
従来、中央操作部17の操作基準方向は前後方向(Y1−Y2)に定められていた。すなわち操作基準方向52aにて固定されていた。このため、中央操作部17の操作基準方向52aの略延長線上に操作者がいる場合には、中央操作部17の入力操作面17aを操作しやすい。
【0055】
しかしながらセンターコンソール13に中央操作部17を配置した構成では、中央操作部17の左右両側に運転者50や助手席の乗員51が存在している。したがって従来のように操作基準方向52aが前後方向(Y1−Y2)に固定されていると、例えば運転者50が
図3(a)に示すように、前後方向(Y1−Y2)の操作基準方向52aを縦方向として文字を入力しようとすると、手41の縦方向(指先から手首への方向)が前後方向(Y1−Y2)に向くように手41を回転させたり、腕を操作基準方向52a上に回して入力操作を行わないと、うまく文字入力ができない。すなわち、操作基準方向52aが前後方向(Y1−Y2)であるのに、
図3(b)に示すように文字を斜めに書いてしまうと文字を認識できず、誤操作となり、再入力が必要となるため、上記のように運転者50は不自然な体勢で操作しなければならなかった。そして、走行中に、運転者50が中央操作部17上に手41(腕)を回して入力操作などすると、運転者50の体勢が崩れて危険であった。
【0056】
これに対して本実施形態では、操作者が運転者50か助手席の乗員51かの別を判別した後、運転者50からの操作であると判別された場合と助手席の乗員51からの操作であると判別された場合とで、
図2に示すように、操作基準方向52b,52cを適宜変更できるようにした。
【0057】
これにより、従来に比べて操作性を向上させることができる。また、本実施形態では、運転者50が腕を回すなどの不自然な体勢で入力操作を行うことが必要でなくスムースな操作性を得ることができる。このため、良好な操作性とともに走行中の安全性を効果的に向上させることができる。
【0058】
図2では、中央操作部17が平板な矩形状にて構成されるが、中央操作部の構成を限定するものではない。例えば、
図5(a)の平面図及び
図5(b)の側面図に示すように、略半球状の中央操作部63としてもよい。
図5(b)に示すように立体的に形成されたデバイスにおいても、
図5(a)の平面視にて現れる中央操作部63の面内での操作基準方向を変更することができる。中央操作部63は、タッチパッドやタッチパネルで構成できる。
【0059】
あるいは
図6に示すように、中央操作部64を回転スイッチ(ロータリースイッチ)と
することも考えられるが、これは参考例であって本発明の範囲には入らない。
図6に示す回転スイッチは、例えば円周360°を等角度で分割した8方向に接点64a〜64hが設けられる。そして回転体を回すと回転体側の端子と各接点64a〜64hとが当接して1回転で8つの出力を得ることができる。このとき第1の入力モードでは、前後方向(Y1−Y2)を向く操作基準方向52aがスイッチ基準方向であり、符号64aを第1の接点として時計回りに、第2の接点、第3の接点・・・と規定されているとする。第1の接点64aの出力により、第1の機能が起動する。一方、第2の入力モードでは、前後方向(Y1−Y2)から傾いた操作基準方向52bがスイッチ基準方向であり、第1の接点が64bに変更される。よって第1の接点64bの出力に伴って第1の機能を起動させることができる。ほかの接点についても同様に変更される。また、第3の入力モードでは、前後方向(Y1−Y2)から傾いた操作基準方向52c(操作基準方向52bとは異なる方向である)がスイッチ基準方向であり、第1の接点が64hに変更される。よって第1の接点64hの出力に伴って第1の機能を起動させることができる。ほかの接点についても同様に変更される。このように操作基準方向(スイッチ基準方向)の変更に合わせて、多入力が可能な回転スイッチ64の各接点64a〜64hと出力に伴う各機能との関係を変更することができる。
【0060】
また、
図7に示すように、中央操作部65をシフターと
することも考えられるが、これも本発明の範囲には入らない。第1の入力モードでは、前後方向(Y1−Y2)を向く操作基準方向52aがシフター基準方向であり、操作基準方向52a(シフター基準方向)に基づいて操作部65aを操作することができる。一方、第2の入力モードでは、前後方向(Y1−Y2)から傾いた操作基準方向52bがシフター基準方向であり、操作基準方向52b(シフター基準方向)に基づいて操作部65aを操作することができる。なお第3の入力モードは、助手席の乗員51用であり、シフターにはそぐわないのでシフターにおける第3の入力モードについては省略した。なお
図7においても運転者50からの操作か、助手席の乗員51からの操作なのかを判別でき、例えば運転者50からの操作であると判別されたときに操作基準方向を変更し、助手席の乗員51からの操作と判別されたときは、操作基準方向を前後方向(Y1−Y2)に向けておくか、あるいは前回の判別結果により、操作基準方向52bとされる場合には、操作基準方向52bを維持してもよい。
【0061】
なお、操作者が変更されても、所定の操作基準方向を維持するようなモードを設けてもよい。すなわち、操作者が変更されたときに操作者に合わせて、操作基準方向を変更可能なモードと、操作者が変更されても操作基準方向を所定方向に設定するモードとを設けておき、操作者が、それらモードを選択できるようにすることが可能である。
【0062】
また、中央操作部
17に対する操作方向の判別が不能とされるような場合、例えば、中央操作部
17に運転者50と助手席の乗員51の双方が手41,46を伸ばして操作しようとした場合、優先順位をつけられないとき判別不能とされる。かかる場合、前回の判別結果に基づく操作基準方向を維持するように制御できる。例えば、前回の判別結果に基づく操作基準方向が
図4(b)に示す操作基準方向52bであれば、判別不能の場合、操作基準方向52bを維持する。このように操作基準方向52bを維持することで、あらためて操作基準方向を算出しなおすことが必要でなくなり制御部への負担を抑制できる。また判別結果に変更がない限り、前回の判別結果に基づく操作基準方向を維持することもできる。例えば、前回の判別結果に基づく操作基準方向が
図4(b)に示す操作基準方向52bであるとき、操作者が運転者50以外と判別されるまで操作基準方向52bを維持し続ける。例えば
図4(a)の前後方向(Y1−Y2)に向く操作基準方向52aが初期状態であるとしたとき、ある程度、時間が経ったら、操作基準方向を初期状態に戻すようにしてもよいが、操作基準方向を前回のまま維持することで、制御部への負担を抑制することができる。
【0063】
中央操作部17に対してどの方向から操作が及ぶか、その判別を
図1に示すCCDカメラ11を用い、その画像情報に基づいて判別することが可能であるが、
参考例として他の方法も示す。例えば
図8(a)に示すように、中央操作部17の左右両側(X1−X2)に、それぞれ、操作体の動作を検知可能なセンサ71,72を設けておき、
図2に示す運転者50の手(操作体)41の動作をセンサ71、助手席の乗員51の手(操作体)46の動作をセンサ72により検出することができる。このようにセンサ71,72により、少なくとも中央操作部17の左右両側のいずれかから中央操作部17が操作されるかを判別できればよい。センサ71,72の構成については特に限定されるものではない。例えばセンサ71,72は光学センサ、焦電センサ、静電容量式センサなどである。
【0064】
センサ71により操作体の動作を検知したときは、操作基準方向を
図2に示す操作基準方向52bに変更し、またセンサ72により操作体の動作を検知したときは、操作基準方向を
図2に示す操作基準方向52cに変更する。
【0065】
また
図8(b)に示すように、中央操作部17の近傍等に、運転者50からの操作か、助手席の乗員51からの操作かを切り換え可能なスイッチ73が設けられていてもよい。例えばスイッチ73の第1の押圧部73aを押圧したときは、運転者50からの操作であると判断して、操作基準方向を
図2に示す操作基準方向52bに変更し、スイッチ73の第2の押圧部73bを押圧したときは、助手席の乗員51からの操作であると判断して、操作基準方向を
図2に示す操作基準方向52cに変更する。またスイッチ73の第3の押圧部73cを押圧したときは、操作基準方向を
図2に示す操作基準方向52aに変更する(あるいは操作基準方向52aに戻す)。
【0066】
次に、
図1に示すCCDカメラ11を用い、その画像情報に基づいて中央操作部17に対する操作方向を判別し、その判別結果に用いて中央操作部17の操作基準方向を制御する入力装置20の構成について詳述する。
【0067】
図13(a)に示すように天井10に取り付けられたCCDカメラ11は、少なくとも操作パネル18の前方に位置する中央操作部17が撮像される位置に取り付けられる。
【0068】
図13(a)(b)に示す符号11aは、CCDカメラ11の中心軸(光軸)を示し、撮像範囲をRで示した。
【0069】
図13(a)に示すように撮像範囲Rを横(側面側)から見ると、撮像範囲Rには操作パネル18及び操作パネル18の前方に位置する空間領域18cが映し出されている。空間領域18c内に中央操作部17が映し出されている。また
図13(b)に示すように、撮像範囲Rを正面からみると、撮像範囲Rの幅(映し出される画像情報の最も広い幅)T1は、操作部
17の幅T2よりも広くなっている。
【0070】
図11に示すように、本実施形態における入力装置20は、CCDカメラ(撮像素子)11と、中央操作部17と、操作パネル18と、制御部21とを有して構成される。
【0071】
図11に示すように、制御部21には、画像情報検出部22、算出部24、動作予測部25、判別部26及び基準変更部27が含まれている。
【0072】
ここで
図11では制御部21を一つにまとめて図示したが、例えば制御部21が複数存在し、
図11に示す画像情報検出部22、算出部24、動作予測部25、判別部26及び基準変更部27が複数の制御部に分けて組み込まれていてもよい。
【0073】
すなわち画像情報検出部22、算出部24、動作予測部25、判別部26及び基準変更部27を制御部にどのように組み込むかについては適宜選択できる。
【0074】
画像情報検出部22は、CCDカメラ11にて撮像された画像情報を取得する。ここで画像情報とは撮影により得られた画像の電子情報である。
図9、
図10は、CCDカメラ11にて撮像された画面34を示している。
【0075】
図
11に示す算出部24は、操作体の移動方向を算出する部分である。例えば本実施形態によれば、操作体の移動軌跡を算出することができる。算出方法を特に限定するものではないが、例えば、次のような方法で操作体の移動軌跡を算出することができる。
【0076】
図14(a)では、腕40と手41との輪郭42の情報を検出している。輪郭42をとらえるには、CCDカメラ11により撮像された画像を計算量削減のためサイズを縮小し、その後、認識処理を行うため白黒の画像に変換する処理を行う。この際、詳細な画像を用いることで操作体の認識を精度良く行えるが、本実施形態においてはサイズを縮小していることで計算量を削減し、素早い処理が行えるようにしている。その後、画像を白黒に変換した後は、輝度の変化を元に操作体を検出する。また、赤外線検知カメラを用いた場合は画像の白黒変換処理は不要となる。その後、例えば前フレームと今のフレームとを使用しオプティカルフローを計算して動きベクトルを検出する。この際、ノイズの影響を減らすために動きベクトルを2×2画素で平均化する。そしてこの動きベクトルが所定以上のベクトル長(移動量)であったときに、
図14(a)に示すように、動作検出領域30内に現れる腕40から手41に至る輪郭42を操作体として検出する。
【0077】
次に
図14(a)に示すように画像の縦長さ(Y1−Y2)を制限して、
図14(b)に示すように画像を切り出して手41の領域を推定する。この時、輪郭42から操作体の各箇所のサイズを計算し、決められた値以上の領域を有効領域とする。ここで下限を定めている理由は、一般的に手は腕よりも幅が広いことを利用して、腕を除外するためである。また、上限を設けていない理由は、動作検出領域30内に身体も撮像された場合、かなりの面積で動きベクトルが発生するため、上限を設けると検出できない場合があるからである。そして、有効領域内において輪郭42を外接する領域を検出する。例えば、
図14(b)では、全輪郭42を構成するXY座標を調べ、X座標の最小、最大値を求めて
図14(c)に示すように有効領域の幅(X方向の長さ)を縮める。このようにして輪郭42に外接する最小矩形領域43を検出し、最小矩形領域43(有効領域)の縦長さ(Y1−Y2)が所定閾値以下であるかを判別する。所定閾値以下であった場合にはこの有効領域内において重心Gの算出を行う。
【0078】
また、最小矩形領域43(有効領域)の縦長さ(Y1−Y2)が所定閾値
より大きい場合には腕が前記下限のサイズ縦長さをY1側から所定距離の範囲で制限し、画像を切り出す(
図14(d))。更に切り出された画像において輪郭42に外接する最小矩形領域44を検出し、この最小矩形領域44を全方向に数画素分拡大した領域を手推定領域とする。拡大した領域を手推定領域とすることで、輪郭42の検出処理過程において意図せずに除外されてしまった手41の領域を再度認識させることが可能となる。この手推定領域において再度前述した有効領域の判定を行う。所定の閾値以下となった場合には有効領域の中心を手41の重心Gとして規定する。重心Gの算出方法は上記に限定するものではなく、従来から存在するアルゴリズムによっても求めることができる。ただし、車両の走行中に行う操作体の動作予測であるので、素早い重心Gの算出が必要であり、算出された重心Gの位置がきわめて高精度であることを要しない。特に重心Gと定義された位置の動きベクトルを連続的に算出できることが重要である。この動きベクトルを用いることで、例えば周囲の照明の状況が逐次変わるような状況下のように、操作体である手の形状が把握し難い場合においても、確実に動作予測を行うことが可能となる。また、上記したように処理においては輪郭42の情報と輪郭42に外接する領域情報の2つを用いることで手と腕の区別を確実に行うことが可能である。
【0079】
上記した動きベクトルを検出している間中、移動体(ここでは手41)の重心Gの移動ベクトルを算出し、重心Gの移動ベクトルを移動体の移動軌跡として得ることができる。
【0080】
図11に示す動作予測部25は、操作体の移動軌跡に基づいて操作体がこの後、どの位置に達するか、どの方向に移動するかを予測する。例えば
図9に示すように、手41の移動軌跡L1が、その後、中央操作部17上をY1方向とX2方向の間の斜め方向に移動するか(点線に示す
操作方向L2)、あるいは、
図10に示すように手75の移動軌跡L3が、その後、中央操作部17上をY1方向に向かって移動するか(点線に示す
操作方向L4)を予測する。
【0081】
図11に示す判別部26は、画像情報に基づいて中央操作部17に対する操作体の操作方向を判別する。上記したように本実施形態では、例えば操作体である手の重心Gの移動ベクトルの移動軌跡を検出することで、中央操作部17が左側から操作されるか、右側から操作されるかを判別することができる。判別部26による判別は、
図9や
図10に示す手(操作体)の移動軌跡(移動方向)L1,
L3や動作予測に基づく操作方向L2,L4に基づいて行うことができる。
【0082】
また
図8(a)では、判別部26は、センサ71,72に該当し、
図8(b)では、判別部26は、スイッチ73に該当する。また判別部26としてセンサ71,72やスイッチ73を用いた場合には、
図11に示すCCDカメラ11、画像情報検出部22、算出部24、動作予測部25は無くてもよいし、あってもよい。
【0083】
図11に示す基準変更部27では、判別部26の判別結果に基づいて中央操作部17における操作基準方向を適宜変更する。例えば、
図9や
図10に示す操作方向L2,L4に操作基準方向を一致させることができる。このように操作方向に操作基準方向を合わせることで、操作性をより向上させることができる。
【0084】
あるいは基準変更部27では、予め何パターンかの操作基準方向を保持しておき、判別部26の判別結果に基づいて、保持された複数の操作基準方向から適切な操作基準方向を選択できるようにしてもよい。例えば、
図2に示す操作基準方向52a,52b,52cが制御部21に保存されているとする。そして判別部26により中央操作部17の左側からの操作であると判別した場合には、操作基準方向52bを選択し、中央操作部17の右側からの操作であると判別した場合には、操作基準方向52cを選択する。さらに多くの異なる操作基準方向を保持しており、例えば、
図9に示す手41の移動軌跡L1や動作予測による操作方向L2に近い操作基準方向を選択することができる。
【0085】
次に、
図12(a)に示すフローチャートを用いて、画像情報の取り込みから、操作基準方向を変更するステップについて説明する。なお
図12(a)は、
図11に示す入力装置20における主要ステップであり、細かいステップについて
図12(b)、
図12(c)を用いて説明する。
【0086】
まず
図12(a)に示すステップST1では、CCDカメラ11の画像情報を図
11に示す画像情報検出部22により取り込む。そしてステップST2では、その画像情報に基づいて、中央操作部17に対する操作方向を判別する。すなわち
図9に示す移動軌跡L1や動作予測に基づく操作方向L2により、操作体である手41が中央操作部17の左側から操作されることを判別できる。同様に、中央操作部17の右側から操作される場合や、中央操作部17の後方側から前方にかけて(
図10参照)操作される場合について判別できる。
【0087】
次にステップST3では、ステップST2における判別部26の判別結果に基づき基準変更部27にて、中央操作部の操作基準方向を変更する。今、操作基準方向が
図2に示す前後方向(Y1−Y2)に向く操作基準方向
52aであるとき、中央操作部17に対して左側から操作されると判別した場合には、操作基準方向52bに変更し、中央操作部17に対して右側から操作されると判別した場合には、操作基準方向52cに変更する。またステップST3では、例えば、運転者50と助手席の乗員51とが同時に中央操作部17を操作しようとして、同時に手41,46を中央操作部17上に出した場合等、判別部26での判別が不能であるような場合、運転者50の操作を優先するようにしても良いし、前回の操作基準方向を維持するようにしても良い。あるいは前後方向である操作基準方向52aが初期状態であるとして、所定時間が経過したら、操作基準方向を初期状態に戻すこともできる。
【0088】
ステップST3で操作基準方向が適宜変更されたら、
図3や
図4で説明したように変更された操作基準方向に基づいて表示や入力が制御され、また、
図6でのスイッチ基準方向や、
図7でのシフター基準方向を変更することができる。また操作パネル18には、中央操作部17からの操作信号に基づく表示等がなされる。
【0089】
また、
図8(a)に示すセンサ71,72を設けた構成や
図8(b)に示すスイッチ73を設けた構成では、
図12(a)に示すステップST1はなく、ステップST2により、センサ71,72(判別部)や、スイッチ73(判別部)により、少なくとも中央操作部17の左側からの操作か、右側からの操作かを判別でき、その判別結果に基づいて
図12(a)に示すステップST3にて、操作基準方向を適宜変更する。
【0090】
図12(b)、及び
図12(c)を用いて、
図12(a)のステップST1からステップST2に至る細かいステップについて説明する。
【0091】
図12(b)に示すステップST4では、
図11に示す制御部21により画像情報検出部22にて検出された画像情報から
動作検出領域30を特定する。
動作検出領域30は、
図9に示すように、複数の辺30a〜30dに囲まれた領域であり、左右両側の領域35,36が
動作検出領域30から外されている。
図9に示す
動作検出領域30と、その左右両側の領域35,36との境界(辺)30a,30bが点線で示されている。また、
図9では辺30c,30dが画面34の前後方向における端の部分となっているが、前記辺30c,30dを画面34の内側に配置してもよい。
【0092】
図9に示す画面34全体を
動作検出領域30とすることもできる。ただし、かかる場合、操作体の移動軌跡の追従や動作予測に費やす計算量が増えてしまい動作予測の遅延や装置の短寿命に繋がり、また多大な計算を可能とするには生産コストの増大にも繋がる。よって、画面34全体を使うのではなく、限られた範囲を
動作検出領域30として用いることが好適である。
【0093】
続いて
図12(b)に示すステップST5では、図
11に示す算出部24により、動きベクトルの検出を行う。なお動きベクトルの検出については、
図12(b)に示すステップST5のみに示したが、前のフレームと今のフレームとの間で常に動きベクトルの有無を検出している。
【0094】
図12(b)に示すステップST6では、
図14で示したように操作体(手)を特定して、操作体(手)の重心Gを
図11に示す算出部24により算出する。
【0095】
本実施形態では
図14で示したように手の部分を操作体として用いているが、手の部分を推定し、手の重心Gを求めるまでのフローチャートを
図12(c)に示す。
【0096】
図12(c)では、図
12(a)に示したようにCCDカメラ11による画像を取り込んだ後、ステップST10で画像サイズを縮小し、その後、ステップST11で認識処理を行うため白黒の画像に変換する処理を行う。続いて、ステップST12では、例えば前フレームと今のフレームとを使用しオプティカルフローを計算して動きベクトルを検出する。なおこの動きベクトルの検出については
図12(b)のステップST5にも示されている。なお、
図12(c)では、動き
ベクトルが検出されたものとして次のステップST13に移行する。
【0097】
ステップST13では、動きベクトルを2×2画素で平均化する。例えばこの時点で80×60ブロックとなる。
【0098】
次にステップST14では、各ブロックごとにベクトル長さ(移動量)を計算する。そしてベクトル長さが決められた値よりも大きい場合に、有効な動きをするブロックと判定する。
【0099】
続いて、
図14(a)に示したように操作体の輪郭42を検出する(ステップST15)。
【0100】
次に、ステップST16では、輪郭42から操作体の各箇所のサイズを計算し、決められた値以上の領域を有効領域とする。有効領域内において輪郭42を外接する領域を検出する。
図14(b)で説明したように、例えば、全輪郭42を構成するXY座標を調べ、X座標の最小、最大値を求めて
図14(c)に示すように有効領域の幅(X方向の長さ)を縮める。
【0101】
このようにして輪郭42に外接する最小矩形領域43を検出し、ステップST17では、最小矩形領域43(有効領域)の縦長さ(Y1−Y2)が所定閾値以下であるかを判別する。所定閾値以下であった場合には、ステップST18に示すように、この有効領域内において重心Gの算出を行う。
【0102】
また、ステップST17において最小矩形領域43(有効領域)の縦長さ(Y1−Y2)が所定閾値
より大きい場合には、腕の前記下限のサイズ縦長さをY1側から所定距離の範囲で制限し、画像を切り出す(
図14(d)参照)。そしてステップST19に示すように、切り出された画像において輪郭42に外接する最小矩形領域
44を検出し、この最小矩形領域
44を全方向に数画素分拡大した領域を手推定領域とする。
【0103】
そして、上記した手推定領域において、ステップST20〜ステップST22では、ステップST14〜ステップST16と同様のステップを実行したのち、ステップST18で、有効領域の中心を手41の重心Gとして規定する。
【0104】
以上のようにして、操作体(手)の重心Gを算出したのち、
図12(b)に示すステップST7では、操作体(手)の移動軌跡を追従する。ここでは移動軌跡の追従を重心Gの移動ベクトルにより求めることができる。追従とは、
動作検出領域30内に進入した手の動きを追い続ける状態を指す。上記のように手の重心Gの移動ベクトルにより移動軌跡の追従を可能とするが、重心Gの取得は、例えば、前フレームと今のフレームとを使用しオプティカルフローを計算して動きベクトルを検出した際に行うため、重心Gの取得間に時間的な間隔を有しているが、このような重心Gの取得間の時間的な間隔も含めて本実施形態における追従に該当する。
【0105】
図9は、今、運転者が中央操作部17を操作しようとして手41を
動作検出領域30内に伸ばした状態を示している。
【0106】
図9に示す矢印L1は、
動作検出領域30内における手41の移動軌跡(以下、移動軌跡L1と称する)を示している。
【0107】
次に
図12(b)に示すステップST8では、移動軌跡L1に基づいて手(操作体)41の動作予測を実行する。すなわち移動軌跡L1がこのまま維持されれば、手41が中央操作部17上をどのように移動するかを
図11に示す動作予測部25にて予測する。この動作予測をもとに、中央操作部17への操作か、あるいは操作パネル18への操作かを判断することもできる。中央操作部17への操作と判別した場合には、普段は、消灯状態の中央操作部17の画面を照光させるなど、多様な対応が可能である。
【0108】
そして
図12(a)のステップST2では、
図9に示す手41の移動軌跡L1や動作予測に基づく手41の操作方向L2により、中央操作部17が左側から操作されると判別できる。また
図2に示すように助手席の乗員51が中央操作部17上へ手46を伸ばした場合も、手46の移動軌跡や動作予測に基づく手46の操作方向により、中央操作部17が右側から操作されると判別できる。
【0109】
また本実施形態では、操作体の高さ位置の算出することも可能である。算出方法を限定するものではないが、例えば、
図14(c)(d)で手41の輪郭42が入る最小矩形領域43,44の大きさに基づいて手41の高さ位置を推測することができる。すなわち
図9に示すようにCCDカメラ11で映し出された画面34は、平面であり、平面情報しか得られないため手41の高さ位置を知るには、最小矩形領域43,44の面積が大きくなるほど手41が上方に位置する(CCDカメラ11に近づく)として検出することができる。この際、手41の基準の大きさ(例えば操作パネル18の中心を操作した際の手41の大きさ)に対して面積変化により高さ位置を算出するために、基準の大きさを測定するための初期設定を行う。これにより手41の移動軌跡がどの程度の高さ位置にあるかを推測することができる。上記した初期設定における手41の大きさよりも小さい場合には、操作パネル18への操作ではなく、中央操作部17への操作として認識することができる。
【0110】
また本実施形態では、
図12(a)に示すステップST2において、例えば、
図10に示す手75の移動軌跡L3に基づいて中央操作部17が後部座席側から操作されると判断したときは、中央操作部17への操作を無効にしたり操作を制限することが可能である。安全性を高めるためである。
【0111】
あるいは運転者50が操作すると判別された場合においても、中央操作部17への操作を無効にしたり操作を制限することができる。例えば車両が所定以上の速度で走行している場合には、運転者50における中央操作部17への操作を制限したり無効となるように制御することが考えられる。
【0112】
このように制御部21にて、操作者が運転者50であるか、助手席の乗員51であるか、後部座席の乗員であるかによって、中央操作部17への操作を適宜制御することが可能である。なお操作を規制したり無効にしたりできるモードが設けられており、操作者が、前記モードの実行を適宜選択できるようにしてもよい。
【0113】
図15は、指の検出方法を示している。まず
図14(b)での手41の輪郭42の座標を求め、
図15に示すようにもっともY1方向に位置する点B1〜B5をリストアップする。Y1方向は操作パネル18方向を指しているから、もっともY1方向に位置する点B1〜B5は指の先端であると推測される。これらの点B1〜B5の中で最もX1側の点B1と最もX2側の点B5を求める。そして、点B1と点B5の中間の座標(ここでは点B3の位置)を指位置と推定する。本実施形態では操作体を指とし、指の移動軌跡を追従することで、動作予測を行うように制御することも可能である。指の移動軌跡を用いることで、より詳細な動作予測を行うことが可能となる。
【0114】
また左手と右手との判別、手の表裏の判別等を行えるようにしてもよい。
また操作体が
動作検出領域30内にて停止状態にあっても、停止状態を重心ベクトル等により随時取得することで、あるいは、停止状態での重心Gを所定時間保持することで、その後、操作体が移動を開始してもすぐさま操作体の移動軌跡を追従することができる。
【0115】
本実施形態における入力装置20は、中央操作部17と、中央操作部17に対する入力操作を制御する制御部21と、を有し、制御部21は、少なくとも中央操作部17の左右両側のいずれかから操作部が操作されるかを判別する判別部26と、判別部26による判別結果に基づいて、操作部の平面視における操作基準方向を変更する基準変更部27と、を有するものである。
【0116】
従来、操作基準方向は一定の方向に定められていた。通常、操作基準方向は、左右方向に対して平面内にて直交する前後方向に固定されていた。
【0117】
これに対して本実施形態では、中央操作部17に対して左右両側のいずれかから操作されるかを判別部26にて判別し、判別結果に基づいて基準変更部27により中央操作部17の操作基準方向を変更できるようにした。
【0118】
このため本実施形態では、中央操作部17の左側から操作をしようとする場合と、中央操作部17の右側から操作をしようとする場合とで、操作基準方向を変更することができる。このように中央操作部17に対する操作方向に基づいて操作部の操作基準方向を適宜変更することで操作性を向上させることが可能になる。
【0119】
本実施形態における入力装置20は例えば車内用であり、車内に取り付けたCCDカメラ(撮像素子)11の画像情報に基づいて、中央操作部17への操作方向を適切かつ容易に操作方向の判別を行うことができる。この結果、スムースに操作基準方向を変更でき、操作性を向上させることができる。
【0120】
上記において、判別部26の判別は、操作体のベクトル情報に基づいて行われることで、操作方向の判別をスムースに行うことができる。
【0121】
また上記のように画像情報を用いることで、操作体の動作予測が可能になる。そして、判別部26による判別を、動作予測に基づいて行うことで、より早く判別部26による判別を行うことができ、操作性を向上させることができる。
【0122】
さらに基準変更部27では、操作基準方向を、操作体の操作方向に合わせることができる。すなわち
図9に示す手41の操作方向L2に操作基準方向を合わせることができる。これにより操作性をより効果的に向上させることができる。
【0123】
本実施形態の入力装置20は車両用と限定するものでないが、車両用として使用することで、制御部21の判別部26にて中央操作部17が少なくとも運転者50による操作か、助手席の乗員51による操作かを判別でき、操作者の別に基づいて操作基準方向を適宜変更することで快適な操作性に加え、走行中の安全性を向上させることが可能である。