(58)【調査した分野】(Int.Cl.,DB名)
イベント基盤ビジョンセンサの少なくとも1つのピクセルに対応するイベント信号を受信し、前記少なくとも1つのピクセル及び該少なくとも1つのピクセルに隣接する複数の隣接ピクセルを含むピクセル群のパターンを分類する分類部と、
前記ピクセル群のパターンに基づいてオブジェクトの外形及び該オブジェクトの動きのうちの少なくとも1つを分析する分析部と、を備え、
前記分類部は、
前記少なくとも1つのピクセルのタイムスタンプと前記複数の隣接ピクセルのタイムスタンプとの間の差に基づいて前記複数の隣接ピクセルの類型を決定する類型決定部と、
前記複数の隣接ピクセルの類型に基づいて前記ピクセル群のパターンを決定するパターン決定部と、を含むことを特徴とする映像分析装置。
前記イベント信号は、前記イベント基盤ビジョンセンサによって前記少なくとも1つのピクセルの位置でイベントの発生を示すことを特徴とする請求項1に記載の映像分析装置。
前記分類部は、前記ピクセル群が予め設定された複数のエッジパターンのいずれか1つに対応するか否かを判断し、該判断に基づいて前記ピクセル群のパターンを対応するエッジパターンとして決定することを特徴とする請求項1に記載の映像分析装置。
前記分類部は、前記判断に基づいて前記ピクセル群のうちの前記予め設定された複数のエッジパターンのいずれにも対応しないピクセル群を処分することを特徴とする請求項3に記載の映像分析装置。
前記複数の隣接ピクセルの類型は、タイムスタンプの差が第1閾値以下である第1類型及びタイムスタンプの差が第2閾値以上である第2類型のいずれか1つを含むことを特徴とする請求項1に記載の映像分析装置。
前記分析部は、前記ピクセル群のパターンに基づいて該ピクセル群に対応する外形線の方向を決定する外形分析部を含むことを特徴とする請求項1に記載の映像分析装置。
前記オブジェクトの動きは、該オブジェクトの移動速度成分、該オブジェクトの回転速度成分、及び該オブジェクトのスケーリング速度成分のうちの少なくとも1つを含むことを特徴とする請求項7に記載の映像分析装置。
前記分析部は、観測領域に含まれるピクセル群のパターンの多様性に基づいて複数の観測領域のうちの前記オブジェクトの動き分析のための少なくとも1つの観測領域を選択する選択部を更に含むことを特徴とする請求項7に記載の映像分析装置。
前記オブジェクトの動きに基づいてユーザ入力のためのポイントの相対座標の変化量を算出し、該相対座標の変化量に基づいてユーザ入力を処理する処理部を更に含むことを特徴とする請求項1に記載の映像分析装置。
イベント基盤ビジョンセンサの第1ピクセルに対応する第1イベント信号及び前記イベント基盤ビジョンセンサの第2ピクセルに対応する第2イベント信号を受信し、前記第1ピクセル及び該第1ピクセルに隣接する複数の第1隣接ピクセルを含む第1ピクセル群のパターンを分類し、前記第2ピクセル及び該第2ピクセルに隣接する複数の第2隣接ピクセルを含む第2ピクセル群のパターンを分類する分類部と、
前記第1ピクセル群のパターンに基づいてオブジェクトの第1位置を検出し、前記第2ピクセル群のパターンに基づいて前記オブジェクトの第2位置を検出し、前記第1位置及び前記第2位置に基づいて前記オブジェクトの深度を分析する分析部と、を備え、
前記分類部は、
前記第1ピクセルのタイムスタンプと前記複数の第1隣接ピクセルのタイムスタンプとの間の差に基づいて前記複数の第1隣接ピクセルの類型を決定し、前記第2ピクセルのタイムスタンプと前記複数の第2隣接ピクセルのタイムスタンプとの間の差に基づいて前記複数の第2隣接ピクセルの類型を決定する類型決定部と、
前記複数の第1隣接ピクセルの類型及び前記複数の第2隣接ピクセルの類型に基づいて前記ピクセル群のパターンを決定するパターン決定部と、を含むことを特徴とする映像分析装置。
前記分析部は、前記第1位置と前記第2位置との間の距離を算出し、前記第1位置と前記第2位置との間の距離が遠いほど前記オブジェクトの深度を浅く推定し、前記第1位置と前記第2位置との間の距離が近いほど前記オブジェクトの深度を深く推定することを特徴とする請求項11に記載の映像分析装置。
イベント基盤ビジョンセンサの少なくとも1つのピクセルに対応するイベント信号を受信し、前記少なくとも1つのピクセル及び該少なくとも1つのピクセルに隣接する複数の隣接ピクセルを含むピクセル群のパターンを分類するステップと、
前記ピクセル群のパターンに基づいてオブジェクトの外形及び該オブジェクトの動きのうちの少なくとも1つを分析するステップと、を有し、
前記ピクセル群のパターンを分類するステップは、
前記少なくとも1つのピクセルのタイムスタンプと前記複数の隣接ピクセルのタイムスタンプとの間の差に基づいて前記複数の隣接ピクセルの類型を決定するステップと、
前記複数の隣接ピクセルの類型に基づいて前記ピクセル群のパターンを決定するステップと、を含むことを特徴とする映像分析方法。
前記オブジェクトの外形及び該オブジェクトの動きのうちの少なくとも1つを分析するステップは、前記ピクセル群のパターンに基づいて前記ピクセル群に対応する外形線の方向を決定するステップを含むことを特徴とする請求項16に記載の映像分析方法。
前記パターンを分類するステップは、前記複数の隣接ピクセルに格納された情報が前記予め設定されたパターンのいずれにも該当しない場合、前記イベント信号に対応するピクセルを処分するステップを含むことを特徴とする請求項22に記載の映像分析方法。
イベント基盤ビジョンセンサの少なくとも1つのピクセルに対応してオブジェクトの動きを示すイベント信号を含む入力映像に基づいて該オブジェクトの動きを認識する認識部と、
前記オブジェクトの動きに基づいてユーザ入力のための相対座標を更新する処理部と、を備え、
前記認識部は、
前記入力映像に基づいて前記イベント信号に対応する少なくとも1つのピクセル及び該少なくとも1つのピクセルに隣接する複数の隣接ピクセルを含む少なくとも1つのピクセル群のパターンを分類する分類部と、
前記少なくとも1つのピクセル群のパターンに基づいて前記オブジェクトの動きを分析する分析部と、を含み、
前記分類部は、
前記少なくとも1つのピクセルのタイムスタンプと前記複数の隣接ピクセルのタイムスタンプとの間の差に基づいて前記複数の隣接ピクセルの類型を決定する類型決定部と、
前記複数の隣接ピクセルの類型に基づいて前記少なくとも1つのピクセル群のパターンを決定するパターン決定部と、を含むことを特徴とするユーザ入力処理装置。
前記オブジェクトの動きは、該オブジェクトの移動速度成分、該オブジェクトの回転速度成分、及び該オブジェクトのスケーリング速度成分のうちの少なくとも1つを含むことを特徴とする請求項27に記載のユーザ入力処理装置。
前記処理部は、前記オブジェクトの動きに基づいて前記相対座標の変化量を算出し、該相対座標の変化量に基づいて前記相対座標を更新し、該更新された相対座標に基づいてユーザ入力を処理することを特徴とする請求項27に記載のユーザ入力処理装置。
【発明を実施するための形態】
【0013】
以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。
【0014】
図1は、本発明の一実施形態による映像分析装置を示すブロック図である。
【0015】
図1を参照して本実施形態による映像分析装置を説明する前に、映像分析装置によって用いられる入力映像を簡略に説明する。本実施形態による入力映像は、オブジェクトを撮影するイベント基盤ビジョンセンサの出力映像である。イベント基盤ビジョンセンサは、予め設定されたイベントを検出することによって時刻非同期的にイベント信号を出力する。予め設定されたイベントは、入射する光の明暗変化を含む。例えば、イベント基盤ビジョンセンサは、特定ピクセルで光が明るくなるイベントを検出した場合、当該ピクセルに対応するONイベントを出力する。また、イベント基盤ビジョンセンサは、特定ピクセルで光が暗くなるイベントを検出した場合、当該ピクセルに対応するOFFイベントを出力する。
【0016】
イベント基盤ビジョンセンサは、フレーム基盤ビジョンセンサとは異なって、各ピクセルのフォトダイオードの出力をフレーム単位でスキャンすることなく、光の変化のある部分のピクセルデータのみを出力する。イベント基盤ビジョンセンサに入射する光の明暗変化は被写体の動きに基づく。例えば、時間の流れにより光源が実質的に固定され、被写体は自ら発光しない場合を仮定する。この場合、イベント基盤ビジョンセンサに入射する光は光源で発生して被写体によって反射した光である。被写体が動かない場合に動きのない状態の被写体によって反射する光は実質的に変わらないため、イベント基盤ビジョンセンサに入射する光の明暗変化も発生しない。一方、被写体が動く場合、動く被写体によって反射する光は被写体の動きに応じて変わるため、イベント基盤ビジョンセンサに入射する光の明暗変化が発生する。
【0017】
イベント基盤ビジョンセンサは、動的ビジョンセンサ(Dynamic Vision Sensor)を含む。動的ビジョンセンサは、人の網膜視神経の動作原理を用いた受動ビジョンセンサを含む。動的ビジョンセンサは、イベント基盤ビジョンセンサとして、オブジェクトの動きに反応してイベント信号を出力する。イベント信号は、オブジェクトの動きに反応して時刻非同期的に生成された情報を含む。イベント信号は、人の網膜から脳に伝えられる視神経信号のような情報を含む。例えば、イベント信号は、停止した事物に対して発生せず、動く事物が検出された場合に限って発生する。イベント信号に含まれる少なくとも1つのピクセルは、動きが検出されたオブジェクトに対応する。
【0018】
図1を参照すると、映像分析装置100は分類部110及び分析部120を含む。分類部110は、オブジェクトの動きが検出されたイベント信号を含む入力映像に基づいて少なくとも1つのピクセル群のパターンを分類する。ピクセル群は、イベント信号に対応するピクセル及び当該ピクセル周辺の複数の隣接ピクセルを含む。
【0019】
以下、説明の便宜のためにイベント信号に対応するピクセルがピクセル群の中央に位置し、当該ピクセルの周辺に配置された8個の隣接ピクセルがピクセル群に含まれる場合を仮定する。勿論、このようなピクセル群の構成方式は例示的な事項に過ぎず、ピクセル群の構成方式は様々に変形され得る。
【0020】
分類部110は、イベント信号に対応するピクセル群が予め設定された複数のエッジパターンに対応するか否かを判断する。イベント信号は、イベントの発生が検出されたピクセルによって時刻非同期的に出力される。例えば、
図2Aを参照すると、予め設定された複数のエッジパターンは24個のエッジパターンP
1〜P
24を含む。24個のエッジパターンP
1〜P
24はオブジェクトの外形線に関するパターンである。分類部110は、イベント信号に対応するピクセル群が予め設定された複数のエッジパターンのいずれか1つに対応すると判断された場合、そのピクセル群のパターンを対応するエッジパターンとして決定する。例えば、分類部110は、イベント信号に対応するピクセル群が
図2Aに示すエッジパターンP
1に対応するとの判断に応じて、そのピクセル群をエッジパターンP
1に分類する。分類部110は、イベント信号に対応するピクセル群が予め設定された複数のエッジパターンのいずれにも対応しないと判断した場合、そのピクセル群は、オブジェクトの外形線と関連しないピクセル群であると判断して処分(discard)する。
【0021】
分類部110がイベント信号に対応するピクセル群のパターンを分類する方式に関する詳細な説明は、
図2A〜
図3Bを参照して後述する。
【0022】
分析部120は、分類部110によって分類された少なくとも1つのピクセル群のパターンに基づいて、オブジェクトの外形及びオブジェクトの動きのうちの少なくとも1つを分析する。オブジェクトの外形は、外形(shape)、アウトライン(outline)、又はイベント基盤ビジョンセンサの位置に基づく相対的なオブジェクトの位置などを含む。分析部120は、ピクセル群のパターンを用いてそのピクセル群に対応する外形線の方向を決定することによってオブジェクトの外形を分析する。或いは、分析部120は、オブジェクトの外形線に関するピクセル群に対応する速度を算出し、算出された速度に基づいてオブジェクトの動きを分析する。分析部120は、オブジェクトの移動速度成分、オブジェクトの回転速度成分、及びオブジェクトのスケーリング速度成分のうちの少なくとも1つを決定することで、オブジェクトの動きを分析する。
【0023】
分析部120の動作に関する詳細な説明は、
図4〜
図8Dを参照して後述する。
【0024】
図2A〜
図2Cは、本発明の実施形態による予め設定された複数のエッジパターンを説明するための図である。
図2Aを参照すると、複数のエッジパターンはオブジェクトの外形線に関連して予め設定される。
【0025】
イベント信号は、予め設定されたイベントが検出された時刻を含むタイムスタンプ(time stamp)、イベントの類型を示す指示子、及び当該イベントが検出されたピクセルのインデックスを含む。ピクセルの解像度に対応するタイムスタンプはメモリ内テーブルに格納され、これによってピクセルのそれぞれのタイムスタンプが活用される。
【0026】
映像分析装置は、イベントが検出されたピクセルのタイムスタンプと隣接ピクセルのタイムスタンプとの間の差に基づいてピクセル群のパターンを分類する。映像分析装置は、ピクセル群のパターンを分類するため、隣接ピクセルの類型を決定する。映像分析装置は、イベントが検出されたピクセルのタイムスタンプと隣接ピクセルのそれぞれのタイムスタンプとの差を算出し、算出結果に応じて隣接ピクセルのそれぞれの類型を決定する。現在のイベントが検出された場合、映像分析装置は、現在のイベントに対応する現在のピクセルのタイムスタンプの値を現在の時刻に更新する。映像分析装置は、現在のイベントに対応する現在のピクセルの更新されたタイムスタンプと隣接ピクセルのタイムスタンプとの間の差を算出することによって、隣接ピクセルのピクセル類型を判断する。ここで、隣接ピクセルに対応するイベントは現在の時刻より前の時刻に発生し、これによって隣接ピクセルのタイムスタンプは、隣接ピクセルに対応するイベントが発生した過去時点に更新されたものである。
【0027】
映像分析装置は、全体ピクセルに対応するタイムスタンプを管理するためのデータ構造を用いる。映像分析装置は、イベント信号を検出した場合、イベント信号に含まれるピクセルのタイムスタンプを更新する。この場合、映像分析装置は、既に格納された情報を廃棄し、新しく更新される情報のみを格納する。
【0028】
映像分析装置は、数式(1)を用いて隣接ピクセルの類型を決定する。
【0030】
ここで、t
evはイベントが発生したピクセルのタイムスタンプであり、t
nxは隣接ピクセルのタイムスタンプである。t
evとt
nxとの間の差異はエッジの方向的動き(directional movement)を示すピクセルイベントの時間的関連(temporal correlation)を示す。T
EはE−タイプを決定するための閾値であり、E−タイプは遅いイベント(slow event)に該当する。T
SはS−タイプを決定するための閾値であり、S−タイプは速いイベント(fast event)に該当する。T
EとT
sはピクセルの敏感度或いは適用アプリケーションにより設定される。例えば、動きを検出しようとするオブジェクトがユーザの手である場合、T
EとT
sは数ミリ秒から数十ミリ秒に設定される。或いは、動きを検出しようとするオブジェクトがユーザの手よりもはるかに速い物体の場合、T
EとT
sは数マイクロ秒単位以下に設定される。T
EとT
sは、数式(1)に示したように、互いに異なる値に設定され、場合に応じて同じ値に設定される。
【0031】
映像分析装置は、隣接ピクセルで最後にイベントが検出された時刻から現在のイベントが検出された時刻まで、所定の時間以上経過した場合に、その隣接ピクセルをE−タイプとして決定する。例えば、現在のイベントが検出されたピクセル周辺の隣接ピクセルのうち、過去の所定時間(例えば、T
E)の間に新しいイベントが検出されない隣接ピクセルはE−タイプの隣接ピクセルに分類される。
【0032】
映像分析装置は、隣接ピクセルで最後にイベントが検出された時刻から所定の時間以内に現在のイベントが検出された場合、その隣接ピクセルをS−タイプとして決定する。例えば、現在のイベントが検出されたピクセル周辺の隣接ピクセルのうち、過去の所定の時間(例えば、T
S)以内に新しいイベントが検出された隣接ピクセルはS−タイプの隣接ピクセルに分類される。
【0033】
予め設定されたエッジパターンは隣接するピクセルを含む。例えば、イベント発生ピクセルに最も近接する上下左右のピクセルのみを用いる場合、
図2Aに示すように、予め設定されたエッジパターンはn1からn8の隣接ピクセルを含む。予め設定されたエッジパターンを構成する隣接ピクセルの類型の組合せはそれぞれ異なる。
【0034】
例えば、エッジパターンP
1は、E−タイプのn1、n2、及びn4(210)を含み、S−タイプのn3及びn6(220)を含む。映像分析装置は、所定時間(例えば、T
E)の間に新しいイベントが検出されないn1、n2、及びn4(210)方向の隣接ピクセル、及び所定時間(例えば、T
S)以内に新しいイベントが検出されたn3及びn6(220)方向の隣接ピクセルを含むピクセル群をエッジパターンP
1に分類する。この場合、映像分析装置は、所定時間(例えば、T
S)以内に新しいイベントが検出されたS−タイプのn3及びn6(220)を用いて当該ピクセル群による外形線の方向を分析する。その理由は、オブジェクトの動きに応じて新しいイベントが発生した場合、オブジェクトの外形線に含まれるピクセル位置のイベントは実質的に同一の時刻に検出されるためである。
図4を参照して後述するが、エッジパターンP
1はn3及びn6(220)を連結する線方向の外形線にマッピングされる。
【0035】
同様に、エッジパターンP
24はE−タイプのn5、n7及びn8(240)を含み、S−タイプのn3及びn6(250)を含んでもよい。映像分析装置は、所定時間(例えば、T
E)の間に新しいイベントが検出されないn5、n7及びn8(240)方向の隣接ピクセル、及び所定時間(例えば、T
S)以内に新しいイベントが検出されるn3及びn6(250)方向の隣接ピクセルを含むピクセル群をエッジパターンP
24に分類してもよい。この場合、映像分析装置は、所定時間(例えば、T
S)以内に新しいイベントが検出されたS−タイプのn3及びn6(250)を用いて当該ピクセル群による外形線の方向を分析してもよい。
図4を参照して後述するが、エッジパターンP
24はn3及びn6(250)を連結する線方向の外形線にマッピングされる。
【0036】
他の実施形態による映像分析装置は、
図2Aに示す実施形態のような周辺8個の隣接ピクセルを用いる代わりに、更に多い隣接ピクセルを用いる。例えば、映像分析装置は、
図2Bに示すように24個の隣接ピクセルを用いるか、又は
図2Cに示すように48個の隣接ピクセルを用いる。勿論、
図2A、
図2B、及び
図2Cの実施形態は例示的な事項に過ぎず、
図2A、
図2B、及び
図2Cの実施形態は様々に変形され得る。
【0037】
映像分析装置は、ピクセル群に含まれる隣接ピクセルの類型を予め設定された複数のエッジパターンに含まれる隣接ピクセルの類型と比較することによって、ピクセル群のパターンをエッジパターンのいずれか1つに決定する。映像分析装置は、ピクセル群に含まれる隣接ピクセルの類型に一致する構成の隣接ピクセルを有するエッジパターンをそのピクセル群のパターンとして決定する。
【0038】
場合によって、予め設定されたエッジパターンに含まれる隣接ピクセルのうちの一部はドントケア(don’t−care)タイプである。例えば、エッジパターンP
1は、ドントケアタイプのn5、n7、及びn8(230)を含む。エッジパターンP
24は、ドントケアタイプのn1、n2、及びn3(260)を含む。
【0039】
映像分析装置は、エッジパターンに含まれる隣接ピクセルのうちのドントケアタイプではない隣接ピクセルのみを用いることによって、ピクセル群のパターンを分類する。例えば、映像分析装置は、ピクセル群がエッジパターンP
1に対応するか否かを判断するとき、n5、n7及びn8(230)は考慮されない。同様に、映像分析装置は、ピクセル群がエッジパターンP
24に対応するか否かを判断するとき、n1、n2、及びn4(260)は考慮されない。
【0040】
予め設定された複数のエッジパターンは様々な方式で格納される。例えば、24個のエッジパターンP
1〜P
24のそれぞれに含まれるE−タイプの隣接ピクセル及びS−タイプの隣接ピクセルは、表1のようなビット値形式で格納される。
【0042】
ここで、PnEはエッジパターンP
nに含まれるE−タイプの隣接ピクセルを示す。8個の隣接ピクセルが用いられる場合を仮定すると、PnEは8ビットで構成され、8個のビットはそれぞれn1〜n8に対応する。8個のビットのうちのE−タイプの隣接ピクセルに対応するビットは「1」に設定され、そうではないビットは「0」に設定される。例えば、エッジパターンP
1は、E−タイプの隣接ピクセルとしてn1、n2、及びn4(210)を含むため、P1Eのビット値は、1番目ビット、2番目ビット、及び4番目ビットが「1」である「11010000」に設定される。P1Eのビット値「11010000」は16進数に表現され、この場合にP1Eのビット値は「D0」で表現される。勿論、他の実施形態によって、24個の隣接ピクセルが用いられる場合にPnEは24ビットで構成され、48個の隣接ピクセルが用いられる場合にPnEは48ビットで構成される。
【0043】
また、PnSはエッジパターンP
nに含まれるS−タイプの隣接ピクセルを示す。8個の隣接ピクセルが用いられる場合を仮定すると、PnSは8ビットで構成され、8個のビットはそれぞれn1〜n8に対応する。8個のビットのうちのS−タイプの隣接ピクセルに対応するビットは「1」に設定され、そうではないビットは「0」に設定される。例えば、エッジパターンP
1は、S−タイプの隣接ピクセルとしてn3及びn6(220)を含むため、P1Sのビット値は3番目目ビット及び6番目ビットが「1」である「00100100」に設定される。P1Sのビット値「00100100」は、16進数に表現され、この場合にP1Sのビット値は「24」で表現される。勿論、他の実施形態により、24個の隣接ピクセルが用いられる場合にPnSは24ビットで構成され、48個の隣接ピクセルが用いられる場合にPnSは48ビットで構成される。
【0044】
映像分析装置は、PnEによって示される隣接ピクセルがE−タイプであるか否か、及びPnSによって示される隣接ピクセルがS−タイプであるか否かを確認することで、ピクセル群がどのエッジパターンP
nに該当するかを判断する。
【0045】
映像分析装置は、ピクセル群のパターンを分類するとき、ドントケアタイプの隣接ピクセルは考慮しない。そのため、映像分析装置は、ドントケアタイプの隣接ピクセルを明らかに示す情報を別途に利用しない。例えば、エッジパターンP
nでドントケアタイプの隣接ピクセルに対応するビットは、PnE及びPnSで全て「0」に設定する。但し、PnEとPnSをビット単位OR演算させた結果が「0」であるビットは、ドントケアタイプの隣接ピクセルを示す。例えば、P1E=「11010000」とP1S=「00100100」をビット単位OR演算させると、P1E OR P1S=「11110100」である。P1E OR P1Sが「0」であるビットは5番目ビット、7番目ビット、及び8番目ビットであるため、P1E OR P1S=「11110100」はエッジパターンP
1に含まれるドントケアタイプの隣接ピクセルがn5、n7、及びn8(230)であることを示す。
【0046】
表1は、エッジパターンP
nに含まれるE−タイプ隣接ピクセルとS−タイプ隣接ピクセルを表現するための一実施形態である。当該分野で通常の知識を有する者であれば、エッジパターンP
nに含まれるE−タイプ隣接ピクセルとS−タイプ隣接ピクセルを表現するために表1を様々に変形し得る。
【0047】
図3A及び
図3Bは、本発明の一実施形態によるピクセル群のパターンを分類する方式を説明するための図である。
【0048】
図3Aを参照すると、24個のエッジパターンP
1〜P
24は、6個のグループ(310、320、330、340、350、360)にグループ化される。例えば、24個のエッジパターンP
1〜P
24は、E−タイプの隣接ピクセルが共通するか否かに応じて、6個のグループ(310、320、330、340、350、360)にグループ化される。グループ310は、E−タイプのn1、n2、及びn4を含むエッジパターンP
1、P
2、P
6、P
7、P
8で構成される。グループ320は、E−タイプのn2、n3、及びn5を含むエッジパターンP
4、P
5、P
9、P
10、P
13で構成される。
図2でE−タイプに表現されたピクセルのうち、グループに共通したピクセルは、
図3Aで
で表した。
【0049】
6個のグループ及びそれぞれのグループに含まれるエッジパターンは、表2のようにマスキングビット値(E)及び追加ビット値(G)に区分される。
【0051】
映像分析装置は、ピクセル群の隣接ピクセルのうちのマスキングビット値(E)に対応する位置の隣接ピクセルがE−タイプであるか否かを確認することによって、ピクセル群のパターンが属するグループを判断する。映像分析装置は、当該グループの追加ビット値(G)に対応する位置の隣接ピクセルがE−タイプであるか否かを確認することで、ピクセル群のパターンを判断する。
【0052】
例えば、グループ310に含まれるエッジパターンP
1、P
2、P
6、P
7、P
8は、全てE−タイプのn1、n2、及びn4を含むため、グループ310を代表するマスキングビットE1の1番目ビット、2番目ビット、及び4番目ビットは「1」に設定される。映像分析装置は、E1を用いてn1、n2、及びn4がE−タイプの隣接ピクセルであるか否かを確認することによって、ピクセル群がグループ310に含まれるか否かを判断する。
【0053】
また、映像分析装置は、G11、G12、及びG13を用いてグループ310に分類されたピクセル群が正確にどのようなエッジパターンに対応するかを判断する。例えば、G11は6番目ビットが「1」に設定された追加ビット値である。映像分析装置は、G11を用いてピクセル群のn6がE−タイプであるか否かを確認する。
【0054】
映像分析装置は、ピクセル群のn6がE−タイプであるとの判断に応じて、ピクセル群がエッジパターンP
6又はエッジパターンP
7に該当すると判断する。更に、映像分析装置は、G12を用いてピクセル群のn3がE−タイプであるか否かを確認することによって、ピクセル群がエッジパターンP
6及びエッジパターンP
7のいずれのパターンに該当するかを判断する。例えば、ピクセル群のn3がE−タイプである場合、映像分析装置はピクセル群がエッジパターンP
7に該当すると判断する。一方、ピクセル群のn3がE−タイプではない場合、映像分析装置はピクセル群がエッジパターンP
6に該当すると判断する。
【0055】
映像分析装置は、ピクセル群のn6がE−タイプではないとの判断に応じて、ピクセル群がエッジパターンP
1、エッジパターンP
2、又はエッジパターンP
8に該当すると判断する。更に、映像分析装置は、G12を用いてピクセル群のn3がE−タイプであるか否かを確認し、ピクセル群のn3がE−タイプではない場合、ピクセル群がエッジパターンP
1に該当すると判断する。映像分析装置は、ピクセル群のn3がE−タイプではない場合、G13を用いてピクセル群のn5がE−タイプであるか否かを確認する。ピクセル群のn5がE−タイプである場合、映像分析装置は、ピクセル群をエッジパターンP
8に該当すると判断し、ピクセル群のn5がE−タイプではない場合、映像分析装置は、ピクセル群をエッジパターンP
2に該当すると判断する。
【0056】
映像分析装置は、E1〜E4のマスキングビット値に対応する位置の隣接ピクセルがE−タイプではない場合、ピクセル群のパターンがグループ350又はグループ360に属すると判断する。映像分析装置は、G51及びG52の追加ビット値に対応する位置の隣接ピクセルがS−タイプであるか否かを確認することによって、ピクセル群がグループ350及びグループ360のいずれのグループに属するかを判断する。
【0057】
例えば、映像分析装置は、G51を用いてピクセル群がグループ360に属するか否かを判断する。G51は2番目ビット及び7番目ビットが「1」に設定された追加ビット値である。映像分析装置は、G51を用いてピクセル群のn2及びn7がS−タイプであるか否かを確認することによって、ピクセル群がグループ360に属するか否かを判断する。更に、映像分析装置は、n2及びn7を除いた残り1つの隣接ピクセルがE−タイプであるか否かを更に確認することで、ピクセル群がエッジパターンP
11及びエッジパターンP
14のいずれのパターンに分類されるかを判断する。
【0058】
また、映像分析装置は、G52を用いてピクセル群がグループ350に属するか否かを判断する。G52は、4番目ビット及び5番目ビットが「1」に設定された追加ビット値である。映像分析装置は、G52を用いてピクセル群のn4及びn5がS−タイプであるか否かを確認することによって、ピクセル群がグループ350に属するか否かを判断する。更に、映像分析装置は、n4及びn5を除いた残り1つの隣接ピクセルがE−タイプであるか否かを更に確認することによって、ピクセル群がエッジパターンP
3及びエッジパターンP
22のいずれのパターンに分類されるかを判断する。
【0059】
図3Bを参照すると、映像分析装置は、ピクセル群に含まれるE−タイプ隣接ピクセルを用いて当該ピクセル群のエッジパターンを分類する。映像分析装置は、E−タイプ隣接ピクセルのための閾値T
E及びS−タイプ隣接ピクセルのための閾値T
Sが同一である場合、後述する方法を用いてピクセル群のエッジパターンを分類する。
【0060】
より具体的に、映像分析装置は、隣接ピクセルb
0〜b
7がE−タイプ隣接ピクセルであるか否かを確認する。映像分析装置は、それぞれの隣接ピクセルがE−タイプである場合、当該ピクセルに対応するビットを「1」に設定し、そうではない場合、当該ピクセルに対応するビットを「0」に設定する。映像分析装置は、数式(2)を用いてP−valを算出する。
【0062】
ここで、Bは、8ビットのビット値として、b
0b
1b
2b
3b
4b
5b
6b
7である。(B<<1)は、Bをビット単位で左側に1ビットだけサイクリックシフトした値として、b
1b
2b
3b
4b
5b
6b
7b
0である。(B>>1)は、Bをビット単位で右側に1ビットだけサイクリックシフトした値として、b
7b
0b
1b
2b
3b
4b
5b
6である。ANDは(B<<1)、B、及び(B>>1)をビット単位でAND演算した結果ビット値である。
【0063】
映像分析装置は、表3のようなルックアップテーブルを用いて算出されたP−valからエッジパターンを判断する。例えば、算出されたP−valが「00000001」である場合、映像分析装置は当該ピクセル群がエッジパターンP
11に該当すると判断する。映像分析装置は、算出されたP−valが表3のルックアップテーブルに存在しない値である場合、予め設定されたエッジパターンのいずれにも該当しないと判断する。
【0065】
P−valが十進数として17、34、68、及び136である場合、2つのエッジパターンが候補になる。これはドントケアタイプの隣接ピクセルがE−タイプの隣接ピクセルである場合に発生し、映像分析装置は予め設定されたルールに応じていずれか1つのエッジパターンを選択する。例えば、映像分析装置は、追加的に予め設定された隣接ピクセルの類型を判断することによって2つのエッジパターン候補のいずれか1つのエッジパターンを選択する。或いは、映像分析装置は任意にいずれか1つのエッジパターンを選択する。
【0066】
図4は、本発明の一実施形態によるピクセル群の外形線方向を決定する方式を説明するための図である。
図4を参照すると、予め設定された複数のエッジパターンは特定方向を有する外形線にマッピングされる。
【0067】
複数のエッジパターンは、S−タイプの隣接ピクセルが配置された主方向を有する外形線にマッピングされる。例えば、エッジパターンP
1、P
7、P
18、P
24410は、E2番目の方向を有する外形線415にマッピングされる。また、エッジパターンP
11、P
12、P
13、P
14420は、E4番目の方向を有する外形線425にマッピングされる。同一の方式で、24個のエッジパターンは、表4のように8個の方向の外形線にマッピングされる。
【0069】
映像分析装置は、イベントが検出されたピクセルに対応するピクセル群のパターンを分類する。分類されたパターンのそれぞれは、表4のような外形線にマッピングされるため、映像分析装置はイベントが検出されたピクセルのそれぞれにおける外形線方向を認知する。例えば、表4を用いてマッピングされたエッジパターンは、各イベントピクセルにおけるエッジとして格納され、映像分析装置は複数のピクセルに対して格納されたエッジ情報を組み合わせることでオブジェクトの外形を判断する。
【0070】
より具体的に、映像分析装置が、動く人の手によって発生したイベント信号を受信する場合を仮定する。この場合、イベントピクセルは、人の手の外形線に対応するピクセル及び人の手の内部に対応するピクセルを全て含む。映像分析装置は、
図2A〜
図2Cを参照して上述した方法を用いて、イベントピクセルのそれぞれのピクセル群がどのエッジパターンに対応するかを判断する。ここで、予め設定されたエッジパターンは、外形線に該当するエッジパターンのみを含む。従って、映像分析装置は、人の手の内部に対応するピクセルが予め設定されたエッジパターンのいずれにも該当しないと判断し、人の手の外形線に対応するピクセルが予め設定されたエッジパターンのいずれか1つに該当すると判断する。人の手の外形線に対応するピクセルのそれぞれが予め設定されたエッジパターンのいずれか1つに該当すると判断されると、映像分析装置は表4を用いて人の手の外形線に対応するピクセルのそれぞれで当該エッジパターンに対応する外形線の方向を判断する。従って、映像分析装置は、人の手の外形線に対応するピクセルのそれぞれにおける外形線方向を判断し、複数の外形線方向を総合して人の手の外形を判断する。
【0071】
図5A及び
図5Bは、本発明の一実施形態による入力映像に基づいてオブジェクトの外形を分析する方式を説明するための図である。
【0072】
図5Aを参照すると、入力映像は、円筒形の中心部周辺に位置する8個の棒が同じ回転速度で時計方向に回転するものを撮影したイベント基盤ビジョンセンサの出力映像である。この場合、イベント基盤ビジョンセンサは、明るくなるイベント及び暗くなるイベントを検出してイベント信号を出力する。イベント基盤ビジョンセンサは、時計方向に回転する8個の棒によって、イメージ内の複数のピクセルの明暗が予め設定された数値以上に明るくなるか又は暗くなることを検出してイベント信号を出力する。
図5Aにおいて、黒い点(■)に表示される部分が暗くなるイベントを検出したセンサの出力であり、白い点(□)に表示される部分が明るくなるイベントを検出したセンサの出力である。
図5Bを参照すると、映像分析装置は、
図5Aに示す入力映像を用いてオブジェクトの外形を分析する。
【0073】
映像分析装置は、
図1〜
図4を参照して説明した方式を用いて、予め設定されたエッジパターンに対応するピクセル群を選別し、選別されたピクセル群に対応する外形線の方向に応じてオブジェクトの外形を推定する。そのため、映像分析装置は、入力映像に含まれるトレイル効果(trailing effect)などによるノイズを効率よく除去できる。
【0074】
映像分析装置は、オブジェクトの外形だけではなく、オブジェクトの動きも分析する。上述した方式を用いてイベント信号からオブジェクトの外形を分析した後、映像分析装置は、オブジェクトの外形線に対応するピクセルのそれぞれの速度を算出し、外形線に対応するピクセルのそれぞれの速度を用いてオブジェクトの動きを分析する。以下、
図6を参照して映像分析装置がオブジェクトの外形線に対応するピクセルのそれぞれの速度を算出する動作を説明し、
図7を参照して映像分析装置がオブジェクトの動きを分析する動作を詳細に説明する。
【0075】
図6は、本発明の一実施形態によるピクセル群に対応する速度を算出する方式を説明するための図である。
図6を参照すると、ピクセル群は動き方向情報を含み、映像分析装置は隣接ピクセルを用いてピクセル群に対応する速度を算出する。
【0076】
ここで、映像分析装置は、オブジェクトの外形線に対応するピクセル群の速度を算出する。例えば、映像分析装置は、イベント信号に含まれる複数のピクセルの全てに対して当該ピクセル群の速度を算出する代わりに、
図2A〜
図2Cに示す予め設定されたエッジパターンP
1〜P
24に分類されたピクセル群についてのみ当該ピクセル群の速度を算出する。上述したように、予め設定されたエッジパターンP
1〜
24は、オブジェクトの外形線に対応するエッジパターンのみを含むため、映像分析装置はオブジェクトの外形線に対応するピクセル群の速度のみを算出する。
【0077】
映像分析装置は、数式(3)を用いてピクセル群に対応するx軸方向速度V
xとy軸方向速度V
yを算出する。
【0079】
θ
i、a及びθ
i、bはピクセル群の中心を基準としてS−タイプであるi番目の隣接ピクセルをカバーする範囲の境界角度である。例えば、n5がS−タイプである場合、θ
5、a620及びθ
5、b610はピクセル群の中心を基準としてn5をカバーする範囲の境界角度である。
【0080】
映像分析装置は、数式(4)を用いてタイムスタンプのノイズに対する敏感度を緩和させる。
【0082】
ここで、<dt>は数式(5)の通りである。
【0084】
映像分析装置は、数式(3)〜数式(5)によって算出されたx軸方向速度V
xとy軸方向速度V
yをピクセル群に対応する速度として格納する。勿論、ピクセル群に対応する速度は、当該ピクセル群の中心に位置するイベントピクセルの速度として理解される。上述したように、映像分析装置は、予め設定されたエッジパターンを用いて、オブジェクトの外形線に対応するイベントピクセルについてのみx軸方向速度V
xとy軸方向速度V
yを算出する。以下、
図7を参照してオブジェクトの外形線に対応するイベントピクセルの速度を用いてオブジェクトの動きを分析する方法を説明する。
【0085】
図7は、本発明の一実施形態によるリジッドボディモデル(rigid body model)を用いてオブジェクトの動きを分析する方式を説明するための図である。
図7を参照すると、映像分析装置は、オブジェクト700の4−DOF(degree of freedom)動きを分析する。
【0086】
例えば、オブジェクト700の動きが検出された入力映像を分析する場合を仮定する。オブジェクト700は、2次元平面上の移動速度V
p740で移動する。又は、オブジェクト700は、回転中心O
c720を基準として角速度ω721で回転する。或いは、オブジェクト700は、スケーリング中心O
z730を基準としてスケーリングの速度V
zで拡大又は縮小される。
【0087】
映像分析装置は、オブジェクト700の移動速度成分、回転速度成分、スケーリング速度成分を分析する。
図1〜
図6を参照して説明した方式を用いて、映像分析装置はオブジェクト700の外形線に存在する任意の点P
i710の速度V
iを算出する。例えば、速度V
iは数式(3)〜数式(5)によって算出されたx軸方向速度V
xとy軸方向速度V
yである。
【0088】
映像分析装置は、V
iを数式(6)のようにモデリングする。
【0090】
ここで、V
zi731、V
ri722、V
p740は、それぞれP
i710におけるスケーリング速度成分、回転速度成分、移動速度成分である。映像分析装置は、V
iを数式(6)のようにモデリングすることで、オブジェクト700の外形線上に位置する点P
i710における速度V
iをスケーリング速度成分、回転速度成分、及び移動速度成分に分割する。ここで、数式(6)は数式(7)のように表現される。
【0092】
ここで、tP
iは、スケーリング速度成分として、スケーリング中心O
z730を原点とする座標P
i710のベクトルV
zi731の方向と大きさを示し、パラメータtはベクトルV
zi731の大きさをスケーリングする。ωA(P
i−O
c)は、回転速度成分として、座標差(P
i−O
c)が回転中心O
c720から座標P
i710に向かうベクトルの方向と大きさを示し、マトリックスAは回転中心O
c720から座標P
i710に向かうベクトルを回転させる回転マトリックスである。例えば、マトリックス
である。マトリックスAによって回転したベクトルはベクトルV
ri722を示し、パラメータωはベクトルV
ri722の大きさをスケーリングする。
【0093】
映像分析装置は、オブジェクト700の外形線上に位置する複数の点などの座標P
i及び当該点などでの速度V
iを把握しているため、数式(7)を用いてスケーリング速度成分パラメータt、回転速度成分パラメータω、回転中心O
c、及び移動速度成分V
pを算出することができる。このような実施形態による映像分析装置は、オブジェクトの4−DOFである移動速度成分、回転速度成分、及びスケーリング速度成分のうちの少なくとも1つを分析する。
【0094】
数式(7)を用いてスケーリング速度成分パラメータt、回転速度成分パラメータω、回転中心O
c、及び移動速度成分V
pを算出する方法は様々に実現され得る。一実施形態により数式(7)を整理すると、数式(8)が導き出される。
【0096】
ここで、P
iはオブジェクト700の外形線上に位置するi番目の点の座標であり、
はオブジェクト700の外形線上に位置する座標の平均である。V
iはオブジェクト700の外形線上に位置するi番目の点における速度であり、
はオブジェクト700の外形線上に位置する点における速度の平均である。それぞれの変数は、数式(9)〜数式(12)の通りである。
【0101】
映像分析装置は、数式(3)〜数式(5)を用いてx軸方向速度V
xとy軸方向速度V
yを算出してピクセルP
iにおける速度V
iとして格納する。映像分析装置は、各ピクセルの座標P
i及び各ピクセルにおける速度V
iを用いて
を算出する。映像分析装置は、複数のP
i、複数のV
i、
及び数式(8)を用いて、パラメータt及びパラメータωを算出する。例えば、疑似逆(Pseudo Inverse)方式によって、数式(8)から数式(13)、数式(14)が導き出される。
【0104】
ここで、σ
2(P)=σ
2(x)+σ
2(y)であり、σ(・)は標準偏差(standard deviation)を算出する演算子である。σ(x、y)=E[(x−E[x])(y−E[y])]であり、E[・]は期待値(expectation value)又は平均を算出する演算子である。映像分析装置は、数式(13)及び数式(14)を用いてスケーリング速度成分パラメータt及び回転速度成分パラメータωを算出する。
【0105】
図8A〜
図8Dは、本発明の実施形態によるオブジェクトの動き分析の正確度を向上させる方式を説明するための図である。
【0106】
図8Aを参照すると、一実施形態による映像分析装置は、ピクセル群よりも大きい観測領域を用いて動き分析の正確度を向上させる。観測領域は、複数のピクセル群を含むピクセル群の集合であり、例えば、オブジェクトの外形線に沿ってオブジェクトが所定の大きさに分割された領域を含む。
【0107】
観測領域の選択において、映像分析装置は、含まれるピクセル群のパターンの多様性を考慮する。例えば、映像分析装置は、ピクセル群のパターンの様々な観測領域を選択して動き分析を行う。
【0108】
例えば、オブジェクト800が回転、縮小、及び拡大されずに右側方向820に移動する場合を仮定する。ここで、オブジェクト800は、長方形形状の事物として、斜めに傾いた状態で移動する。観測領域810は同一であるか又は類似のパターンを有するピクセル群811のみを含む。観測領域810に含まれるピクセル群811に基づいて動き分析を行う場合、実際の移動方向が右側方向820にも拘わらず右側下方向812に移動するものと分析される。映像分析装置は、オブジェクト800の外形線のうちの直線部分のみを含む観測領域810ではない直角に折れた部分を含む観測領域830を選択する。映像分析装置は、様々なパターンのピクセル群を含む観測領域を選択することによって、動き分析の正確度を向上させる。
【0109】
他の実施形態による映像分析装置は、LOH(Level of Homogeneity)を用いて動き分析の正確度を向上させる。例えば、映像分析装置は、数式(15)を用いてパッチのLOHを算出し、低いLOHを有するパッチを選択する。ここで、パッチは3×3の大きさ以上のピクセルを含むピクセル群を含む。
【0111】
ここで、θ
ref及びθ
iはそれぞれパッチの中心に位置するピクセルの外形線角度及びi番目の隣接ピクセルの外形線角度である。例えば、外形線角度は、方向性(orientation)に対応する。LOHが低い場合は当該パッチに含まれるピクセル群のパターンが類似することを示し、LOHが高い場合は当該パッチに含まれるピクセル群のパターンが互いに異なることを示す。映像分析装置は、LOHが低いパッチを選択することによって、様々なパターンのピクセル群を含む観測領域を選択する。エッジが分類されることで、エッジの方向性はイメージの主要特徴を決定するために使用される。イメージの主要特徴は、オブジェクトの外形及び/又はオブジェクトの動きを決定するために使用される。
【0112】
図8Bは、LOHを用いた動き分析の正確度の向上を示す一例である。例えば、オブジェクト800が右側方向820に動く場合を仮定する。観測領域810でオブジェクト800の動きを観測する場合、オブジェクト800の外形線は、時刻tでエッジ831のように観測され、時刻t+Δtでエッジ832のように観測される。この場合、オブジェクト800が右側方向820にだけ動いたため、オブジェクト800の実際の動き速度は速度ベクトル840で表現される。もし、LOHを用いた動き分析を利用しなければ、オブジェクト800の動き速度は速度ベクトル850で算出される。速度ベクトル850は、オブジェクト800の実際の動き速度を示す速度ベクトル840と方向及び大きさの両方が異なる。
【0113】
LOHを用いた動き分析を用いる場合、オブジェクト800の動き速度は速度ベクトル860で算出される。速度ベクトル860は、オブジェクト800の実際の動き速度を示す速度ベクトル840と同じ方向を有するものの、依然として速度ベクトル860の大きさは速度ベクトル840の大きさと互いに異なる。
【0114】
図8Cを参照すると、オブジェクトが同じ速度及び方向を有する実際の速度872で動いたとしても、オブジェクトの外形871に応じて算出される速度873の大きさがそれぞれ異なる。例えば、実際に移動する方向(例えば、x軸方向)へのベクトル成分が小さい外形を有するほど、算出される速度の大きさは小さくなる。
【0115】
図8Dを参照すると、映像分析装置は、以下の数式(16)及び数式(17)を用いてオブジェクト800の動き速度の大きさを補正する。より具体的に、映像分析装置は、ステップ881でエッジイベントとしてV
iを受信する。映像分析装置は、V
iを用いてV
p、O
c、t、ωを算出する。ステップ881及びステップ882には、
図1〜
図7を参照して上述した方式がそのまま適用されるため、より詳細な説明を省略する。映像分析装置は、ステップ883でLOHを用いた動き分析によってV
pを算出する。同様に、ステップ883では、
図8Aを参照して上述した方式がそのまま適用される。
【0116】
映像分析装置は、ステップ884で数式(16)を用いてV
igenを算出する。数式(16)に用いられるパラメータの意味は、数式(7)に用いられるパラメータの意味と同一である。
【0118】
映像分析装置は、ステップ885で数式(17)を用いてV
icorを算出する。ここで、θは、V
iとV
igenとの間の角度差として、
図8Bの角度855に該当する。
【0120】
V
iは、オブジェクトの実際の動き方向と異なる方向を有するが、LOHを考慮せずに全ての外形線に対して動き速度を算出したものであるため、実際の動き速度と類似の大きさを有する。一方、V
igenは、オブジェクトの実際の動き方向と同じ方向を有するが、低いLOHの観測範囲にある外形線についてのみ動き速度を算出したものであるため、実際の動き速度よりも小さい大きさを有する。従って、映像分析装置は、数式(17)を用いて、V
iからベクトルの大きさを取得し、V
igenからベクトルの方向を取得することによって、V
icorを算出する。
【0121】
他の実施形態によると、映像分析装置は、ステップ882〜ステップ885を2回以上繰り返す(iteration)。例えば、θが90度である場合にtan90°は無限大であるため、V
icorが算出され難い場合もある。この場合、映像分析装置は2回以上に亘ってV
iを回転させることでV
icorを算出する。ここで、
が満足されなければならず、
はk番目の繰り返しで許容される最大の回転角度である。
【0122】
図9は、本発明の一実施形態によるオブジェクトの移動速度に基づいてユーザ入力を処理する方式を説明するための図である。
【0123】
図9を参照すると、映像分析装置は、オブジェクトの動きに基づいてユーザ入力を処理する。
【0124】
映像分析装置は、
図1〜
図8を参照して説明した方式を用いてオブジェクト910の移動速度915を算出する。映像分析装置は、算出された移動速度915を用いてユーザ入力のためのポイントの相対座標の変化量を算出する。
【0125】
映像分析装置は、相対座標の変化量に基づいてユーザ入力を処理する。例えば、映像分析装置は、算出された相対座標の変化量に応じてディスプレイ920に表示されたカーソルの位置を既存位置921から新規位置922に移動させる。
【0126】
相対座標は、ユーザインターフェースのためのインジケータ(indicator)の相対的位置を示す。ユーザ入力処理装置は、オブジェクトの動きに基づいてユーザインターフェースのためのインジケータの相対的な位置の変化量を算出する。例えば、オブジェクトが右側に1秒の間に1m(1m/s)動く場合、ユーザインターフェースのためのインジケータの相対的位置の変化量は、その方向が右側で、大きさが1mであるベクトルとして算出される。
【0127】
ユーザ入力処理装置は、インジケータの現在の位置からインジケータの相対的位置の変化量だけ移動した新しい位置を算出することによって、インジケータの新しい位置を判断する。ユーザ入力処理装置は、ユーザインターフェースのためのインジケータを現在の位置から新しい位置に移動させる。
【0128】
図示していないが、ユーザ入力処理装置は、認識部及び処理部を含む。認識部は、オブジェクトの動きが検出されたイベント信号を含む入力映像に基づいてオブジェクトの動きを認識する。例えば、認識部は、
図1〜
図8を参照して説明した方式を用いてオブジェクト910の移動速度915を算出する。処理部は、認識部によって認識されたオブジェクトの動きに基づいてユーザ入力のための相対座標を更新する。例えば、処理部は、認識部によって算出された移動速度915を用いて、ユーザ入力のための相対座標の変化量を算出する。処理部は、相対座標の変化量に応じて相対座標を更新し、更新された相対座標を用いてユーザ入力を処理する。
【0129】
図10は、本発明の一実施形態によるオブジェクトの深度に基づいてユーザ入力を処理する方式を説明するための図である。
【0130】
図10を参照すると、映像分析装置は、同一のオブジェクトの動きに対して空間的に離隔した2つの位置で検出された互いに異なる2つのイベント信号を用いてオブジェクトの深度を追加的に分析する。例えば、センサ1020は、左側の目に対応する第1センサ及び右側の目に対応する第2センサを含む。映像分析装置は、両側の目に対応する2つのセンサから出力された映像の差を用いてオブジェクトまでの深度を測定する。
【0131】
以下の表5を参照すると、映像分析装置は、左側の目と右側の目に対応するそれぞれのパッチのLOS(Level of Similarity)を極大化させる方式を用いて2つの映像の差(disparity)を算出する。より具体的に、映像分析装置は、左側の目に対応するセンサから出力されるイベント信号と右側の目に対応するセンサから出力されるイベント信号の両方を処理する。例えば、映像分析装置は、2つのイベント信号のそれぞれを用いてエッジパターンを分類することによって外形線に対応するピクセルを検出し、検出されたピクセルのエッジパターンに基づいて当該ピクセルにおける外形線の方向を判断する。この場合、映像分析装置は、オブジェクトの輪郭の2つが所定間隔だけ離れたまま重なる映像を取得する。映像分析装置は、オブジェクトの輪郭の2つが所定間隔だけ離れたまま重なる映像に表5のアルゴリズムを適用することで、オブジェクトの輪郭の2つが離れた間隔、即ち2つの映像の差を算出する。
【0133】
ここで、(x、y)は映像内のパッチの座標であり、パッチには複数の点が含まれる。(x
i、y
i)は(x、y)座標のパッチに含まれるi番目の点の座標であり、dは2つの映像の差である。2つの映像はそれぞれ左側の目に対応するセンサと右側の目に対応するセンサから受信されるため、2つの映像は主にx軸方向に離れる。従って、dは2つの映像がx軸方向に離隔した程度を示す。θ(x
i、y
i)は、オリエンテーション角度(orientation angle)であり、(x
i、y
i)座標の点で算出された外形線の方向に対応する。
【0134】
lLOS(x、y、d)は(x、y)座標の単一パッチにおけるLOSを評価するための数式であり、rLOS(y、d)はy座標の1次元ラインにおけるLOSを評価するための数式であり、gLOS(d)は映像全体の2次元領域におけるLOSを評価するための数式である。
【0135】
映像分析装置は、LOS(x、y、d)を最大にするdを算出する。LOS(x、y、d)が最大になるためには、θ(x
i、y
i)とθ(x
i+d、y
i)との差が最小にならなければならないため、映像分析装置は、θ(x
i、y
i)とθ(x
i+d、y
i)との差を最小にするdを算出する。
【0136】
映像分析装置は、算出された2つの映像の差が大きいほどオブジェクトの深度を浅く推定し、2つの映像の差が小さいほどオブジェクトの深度を深く推定する。映像分析装置は、推定されたオブジェクトの深度に基づいてユーザ入力を処理する。
【0137】
映像分析装置は、センサ1020からのオブジェクト1010の深度に対応する動作モードを判断する。例えば、センサ1020からの深度に応じて第1動作モード領域1031、第2動作モード領域1032、第3動作モード領域1033、及び背景領域1034が予め設定される。
【0138】
映像分析装置は、オブジェクト1010の深度が第2動作モード領域1032に対応すると判断された場合、オブジェクト1010を用いた入力を第2動作モード領域1032に対応するユーザ入力処理方式で処理する。
【0139】
図11は、本発明の一実施形態による映像分析方法を示した動作フローチャートである。
【0140】
図11を参照すると、映像分析装置は、ステップS1110でイベント情報を読み込む。映像分析装置は、ステップS1120で、発生したイベントの位置及び発生時刻に基づいてイベント発生時刻マップを更新する。映像分析装置は、ステップS1130で、イベント発生時刻マップを参照して発生したイベントの周辺イベント発生時刻のパターンを分析する。
【0141】
映像分析装置は、ステップS1140でイベント発生パターンによりエッジ方向性を分類する。映像分析装置は、ステップS1150でエッジ方向パターン及びイベント発生パターンにより速度成分を抽出する。
【0142】
映像分析装置は、ステップS1160で、物体の動きを分析するためにイベント情報を累積する。映像分析装置は、ステップS1170で、累積したイベントの数が充分であるか否かを判断する。判断結果、累積したイベントの数が充分ではない場合、映像分析装置は、ステップS1175で、累積時間が充分であったか否かを判断する。累積時間が充分ではない場合、映像分析装置はステップS1110に戻って新しいイベント情報を累積する。
【0143】
累積したイベントの数が充分であるか又は累積したイベントの数が充分でなくても累積時間が十分である場合に、映像分析装置は、ステップS1180で物体位置及び動き速度を要素ごとに分離する。映像分析装置は、動きの速度要素として移動速度、膨張又は収縮速度、回転速度を取得する。
【0144】
映像分析装置は、ステップS1190で物体の主な動き要素を判断する。例えば、映像分析装置は、移動速度、膨張又は収縮速度、回転速度のうちの物体の動きに大きい比重を占める少なくとも1つの動き要素を判断する。
【0145】
図11に示した各ステップには、
図1〜
図10を参照して説明した方式がそのまま適用されるため、より詳細な説明は省略する。
【0146】
図12は、本発明の一実施形態による3次元映像分析装置を示すブロック図である。
【0147】
図12を参照すると、3次元映像分析装置1200は、少なくとも2組の映像変化検出部1210、1215、エッジ方向情報抽出部1220、1225、速度情報抽出部1230、1235、及び平均エッジ方向情報抽出部1240、1245を含む。
【0148】
また、3次元映像分析装置1200は、視差マップ(disparity map)抽出部1250、距離情報マッピング部1260、及び3次元位置/動き分析部1270を更に含む。
【0149】
図12に示した各モジュールには、
図1〜
図11を参照して説明した方式がそのまま適用されるため、より詳細な説明は省略する。
【0150】
本発明の実施形態による方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録され得る。コンピュータ読み取り可能な記録媒体は、プログラム命令、データファイル、データ構造などのうちの1つ又はその組合せを含む。記録媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気記録媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気記録媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行される高級言語コードが含まれる。ハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。
【0151】
以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。