(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024066382
(43)【公開日】2024-05-15
(54)【発明の名称】情報処理装置、情報処理方法、及び情報処理プログラム
(51)【国際特許分類】
G06T 7/60 20170101AFI20240508BHJP
H04N 7/01 20060101ALI20240508BHJP
【FI】
G06T7/60 110
H04N7/01 270
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023000320
(22)【出願日】2023-01-04
(31)【優先権主張番号】P 2022175679
(32)【優先日】2022-11-01
(33)【優先権主張国・地域又は機関】JP
(31)【優先権主張番号】P 2022187648
(32)【優先日】2022-11-24
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】591280485
【氏名又は名称】ソフトバンクグループ株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】孫 正義
【テーマコード(参考)】
5C063
5L096
【Fターム(参考)】
5C063AA10
5C063BA10
5L096BA04
5L096CA04
5L096FA52
5L096FA59
5L096FA69
5L096GA51
(57)【要約】 (修正有)
【課題】移動する物体を検出する情報処理装置、情報処理方法及び情報処理プログラムを提供する。
【解決手段】情報処理装置10は、第1のプロセッサMoPU12を備える。第1のプロセッサは、物体の画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を1000フレーム/秒以上のフレームレートで出力する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
フレームレートを変更することが可能なカメラと、
プロセッサと、
を備えた情報処理装置であって、
前記プロセッサは、
前記カメラによって撮像された画像に写る物体を検出し、
検出された前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理装置。
【請求項2】
前記プロセッサは、
前記物体の数に応じて前記フレームレートを変更する際に、
前記物体の数が多いほど、前記フレームレートを高くするように制御し、
前記物体の数が少ないほど、前記フレームレートを低くするように制御する、
請求項1に記載の情報処理装置。
【請求項3】
前記プロセッサは、
前記物体の加速度に応じて前記フレームレートを変更する際に、
前記物体の加速度が大きいほど、前記フレームレートを高くするように制御し、
前記物体の加速度が小さいほど、前記フレームレートを低くするように制御する、
請求項1に記載の情報処理装置。
【請求項4】
前記プロセッサは、
前記物体の大きさに応じて前記フレームレートを変更する際に、
前記物体の大きさが大きいほど、前記フレームレートを高くするように制御し、
前記物体の大きさが小さいほど、前記フレームレートを低くするように制御する、
請求項1に記載の情報処理装置。
【請求項5】
前記プロセッサは、
前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、外部環境に関するスコアを計算し、
前記外部環境に関するスコアと予め設定された閾値とに応じて、前記フレームレートを変更するように制御する、
請求項1に記載の情報処理装置。
【請求項6】
前記プロセッサは、
前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
請求項1に記載の情報処理装置。
【請求項7】
前記情報処理装置は、2つの前記プロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する、
請求項1に記載の情報処理装置。
【請求項8】
フレームレートを変更することが可能なカメラと、
プロセッサと、
を備えた情報処理装置が実行する情報処理方法であって、
前記プロセッサが、
前記カメラによって撮像された画像に写る物体を検出し、
検出された前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理方法。
【請求項9】
フレームレートを変更することが可能なカメラと、
プロセッサと、
を備えた情報処理装置の前記プロセッサに実行させるための情報処理プログラムであって、
前記プロセッサが、
前記カメラによって撮像された画像に写る物体を検出し、
検出された前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
開示の技術は、移動する物体を検出する情報処理装置、情報処理方法、及び情報処理プログラムに関する。
【背景技術】
【0002】
特許文献1には、自動運転機能を有する車両について記載されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【課題を解決するための手段】
【0004】
開示示の技術に係る情報処理装置は、第1のプロセッサを備える。前記第1のプロセッサは、物体の画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を1000フレーム/秒以上のフレームレートで出力する。
【0005】
前記第1のプロセッサは、前記物体の中心点又は重心点の所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力してもよい。前記第1のプロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について前記ベクトル情報を出力してもよい。
【0006】
前記画像は、赤外線画像を含んでいてもよい。前記画像は、互いに同期した可視光画像及び赤外線画像を含んでいてもよい。
【0007】
2つの前記第1のプロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力してもよい。
【0008】
前記第1のプロセッサは、前記物体に照射された電磁波の前記物体からの反射波に基づいて、前記物体までの距離を導出し、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力してもよい。
【0009】
情報処理装置は、前記物体の画像を1000フレーム/秒未満のフレームレートで出力する第2のプロセッサと、前記動き情報と、前記第2のプロセッサから出力された画像とに基づいて、前記物体に対する応答制御を行う第3のプロセッサと、を更に含んでいてもよい。
【0010】
開示の技術に係る情報処理装置は、第1のプロセッサを備える。前記第1のプロセッサは、物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
【0011】
前記情報処理装置は、フレームレートを変更することが可能なカメラを備え、前記第1プロセッサは、外部環境に関するスコアを計算し、前記スコアに応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
【0012】
前記情報処理装置は車両に搭載され、前記第1プロセッサは、前記外部環境に関するスコアとして、前記車両の走行に関する危険度を計算し、前記危険度に応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラ対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
【0013】
前記第1プロセッサは、前記画像から物体を抽出し、前記物体の存在位置が所定領域である場合に、前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
【0014】
前記第1プロセッサは、前記画像から物体を抽出し、前記物体毎にスコアを計算し、前記スコアが所定閾値以上の前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
【0015】
また、開示の技術に係る情報処理装置は、フレームレートを変更することが可能なカメラと、プロセッサと、を備えた情報処理装置であって、前記プロセッサは、前記カメラによって撮像された画像に写る物体を検出し、検出された前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、情報処理装置である。
【0016】
前記プロセッサは、前記物体の数に応じて前記フレームレートを変更する際に、前記物体の数が多いほど、前記フレームレートを高くするように制御し、前記物体の数が少ないほど、前記フレームレートを低くするように制御するようにしてもよい。
【0017】
前記プロセッサは、前記物体の加速度に応じて前記フレームレートを変更する際に、前記物体の加速度が大きいほど、前記フレームレートを高くするように制御し、前記物体の加速度が小さいほど、前記フレームレートを低くするように制御するようにしてもよい。
【0018】
前記プロセッサは、前記物体の大きさに応じて前記フレームレートを変更する際に、前記物体の大きさが大きいほど、前記フレームレートを高くするように制御し、前記物体の大きさが小さいほど、前記フレームレートを低くするように制御するようにしてもよい。
【0019】
前記プロセッサは、前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、外部環境に関するスコアを計算し、前記外部環境に関するスコアと予め設定された閾値とに応じて、前記フレームレートを変更するように制御するようにしてもよい。
【0020】
前記プロセッサは、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力するようにしてもよい。
【0021】
前記情報処理装置は、2つの前記プロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力するようにしてもよい。
【0022】
開示の技術に係る情報処理方法は、フレームレートを変更することが可能なカメラと、プロセッサと、を備えた情報処理装置が実行する情報処理方法であって、前記プロセッサが、前記カメラによって撮像された画像に写る物体を検出し、検出された前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、情報処理方法である。
【0023】
開示の技術に係る情報処理プログラムは、フレームレートを変更することが可能なカメラと、プロセッサと、を備えた情報処理装置の前記プロセッサに実行させるための情報処理プログラムであって、前記プロセッサが、前記カメラによって撮像された画像に写る物体を検出し、検出された前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、情報処理プログラムである。
【0024】
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
【図面の簡単な説明】
【0025】
【
図1】Central Brainを搭載した車両の一例を示す概略図である。
【
図2】開示の技術の実施形態に係る情報処理装置の構成の一例を示すブロック図である。
【
図3】開示の技術の実施形態に係るMoPUからCentral Brainへのデータ転送の態様の一例を示す図である。
【
図4】開示の技術の実施形態に係るMoPUからCentral Brainへのデータ転送の態様の一例を示す図である。
【
図5】開示の技術の実施形態に係るMoPUによる物体の座標検出の態様の一例を示す図である。
【
図6】開示の技術の実施形態に係るMoPUの処理の一例を示す図である。
【
図7】開示の技術の実施形態に係るMoPUの処理の一例を示す図である。
【
図8】開示の技術の実施形態に係る情報処理装置の構成の一例を示すブロック図である。
【
図9】開示の技術の実施形態に係る情報処理装置の構成の一例を示すブロック図である。
【
図10】開示の技術の実施形態を説明するための図である。
【
図11】開示の技術の実施形態を説明するための図である。
【発明を実施するための形態】
【0026】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0027】
<第1実施形態>
開示の技術の実施形態に係る情報処理装置は、車両の制御に関連する多くの情報に基づいて、運転制御に必要なインデックス値を高精度に求めるものであってよい。したがって、本開示の情報処理装置は、少なくとも一部が車両に搭載されて、車両の制御を実現するものであってよい。
【0028】
また、開示の技術の実施形態に係る情報処理装置は、Autonomous DrivingをLevel6によるAI/多変量解析/ゴールシーク/戦略立案/最適確率解/最適スピード解/最適コースマネジメント/エッジにおける多種センサ入力により得られたデータを基にリアルタイムで実現でき、デルタ最適解に基づいて調整される走行システムを提供し得る。
【0029】
図1は、Central Brainを搭載した車両の一例を示す概略図である。Central Brainは、
図1に示すように、複数のGate Wayが通信可能に接続されていてよい。本実施の形態に係るCentral Brainは、Gate Wayを介して取得した複数の情報に基づいて、LeveL6の自動運転を実現し得るものである。
【0030】
「Level6」とは、自動運転を表すレベルであり、完全自動運転を表すLevel5よりも更に上のレベルに相当する。Level5は完全自動運転を表すものの、それは人が運転するのと同等のレベルであり、それでも未だ事故等が発生する確率はある。Level6とは、Level5よりも上のレベルを表すものであり、Level5よりも事故が発生する確率が低いレベルに相当する。
【0031】
Level6における計算力は、Level5の計算力の1000倍程度である。したがって、Level5では実現できなかった高性能な運転制御が実現可能である。
【0032】
図2は、開示の技術の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。情報処理装置10は、IPU(Image Processing Unit)11、MoPU(Motion Processing Unit)12、Central Brain15及びメモリ16を備えている。Central Brain15は、GNPU(Graphics Neural network Processing Unit)13及びCPU(Central Processing Unit)14を含んで構成されている。
【0033】
IPU11は、車両に設置された超高解像度カメラ(図示せず)に内蔵され得る。IPU11は、車両の周囲に存在する物体の画像について、ベイヤ―変換、デモザイク、ノイズ除去、シャープ化等の所定の画像処理を行い、処理された物体の画像を、例えば10フレーム/秒のフレームレート且つ1200万画素の解像度で出力する。IPU11から出力された画像は、Central Brain15及びメモリ16に供給される。IPU11は、開示の技術における「第2のプロセッサ」の一例である。
【0034】
MoPU12は、車両に設置された超高解像度カメラとは別のカメラに内蔵され得る。MoPU12は、1000フレーム/秒以上のフレームレートで撮影された物体の画像から、撮影された物体の動きを示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。すなわち、MoPU12の出力のフレームレートは、IPU11の出力のフレームレートの100倍である。MoPU12は、物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPU12から出力される動き情報には、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報は含まれておらず、当該物体の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。MoPU12から出力された情報は、Central Brain15及びメモリ16に供給される。動き情報が画像情報を含まないことで、Central Brain15及びメモリ16に転送される情報量を画期的に抑制することできる。MoPU12は、開示の技術における「第1のプロセッサ」の一例である。
【0035】
Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、当該物体に対する応答制御として、車両の運転制御を実行する。例えば、Central Brain15は、IPU11から出力された画像に基づいて、車両の周囲に存在する物体(人、動物、道路、信号、標識、横断歩道、障害物、建物など)を認識する。また、Central Brain15は、MoPU12から出力された動き情報に基づいて、車両の周囲に存在する、何であるか認識された物体の動きを認識する。Central Brain15は認識した情報に基づいて、例えば、車輪を駆動するモータの制御(速度制御)、ブレーキ制御、ハンドル制御を行う。Central Brain15において、GNPU13は画像認識に関する処理を担ってもよく、CPU14は、車両制御に関する処理を担ってもよい。Central Brain15は、開示の技術における「第3のプロセッサ」の一例である。
【0036】
一般的に自動運転における画像認識を行うために超高解像度カメラが使用されている。高解像度カメラによって撮影された画像から、当該画像に含まれる物体が何であるかを認識することは可能である。しかしながら、Level6時代の自動運転ではこれだけでは不十分である。Level6時代では、物体の動きをより高精度に認識することも必要である。MoPU12によって物体の動きをより高精度に認識することで、例えば、自動運転によって走行する車両が障害物を回避する回避動作を、より高精度で行うことが可能となる。しかしながら、高解像度カメラでは、1秒間に10フレーム程度しか画像を取得することができず、物体の動きを解析する精度はMoPU12を搭載したカメラに比べると低い。一方、MoPU12を搭載したカメラでは、例えば1000フレーム/秒の高フレームレートでの出力が可能である。
【0037】
そこで、本開示の技術では、IPU11及びMoPU12の2つの独立したプロセッサを用いる。高解像度カメラ(IPU11)には、捉えた物体が何なのかを認識するために必要な画像情報を取得する役割を与え、MoPU12には、物体の動きを検出する役割を与えている。MoPU12は、物体を点としてとらえ、その点の座標がx軸、y軸、z軸上のどの方向に、どの程度の速度で動くかを解析する。物体の全体の輪郭と、その物体が何なのかの検知は、高解像度カメラからの画像によって行うことが可能であることから、MoPU12によって、例えば、物体の中心点がどのように移動するかさえ分かれば、物体全体がどのような挙動をするかがわかる。
【0038】
物体の中心点の移動と速度のみを解析する手法によれば、物体の画像全体がどのように動くかを判断することに比べて、Central Brain15に転送する情報量を大幅に抑制し、Central Brain15における計算量を大幅に低減することが可能である。例えば、1000ピクセル×1000ピクセルの画像を、1000フレーム/秒のフレームレートでCentral Brain15に送信する場合、色情報を含めると、40億ビット/秒のデータをCentral Brain15に送信することになる。MoPU12が、物体の中心点の動きを示す動き情報のみを送信することで、Central Brain15に転送されるデータの量を2万ビット/秒に圧縮することができる。すなわち、Central Brain15に転送されるデータの量が20万分の1に圧縮される。
【0039】
このように、IPU11から出力される低フレームレート且つ高解像度の画像と、MoPU12から出力される高フレームレート且つ軽量の動き情報を組み合わせて用いることで、物体の動きを含む物体認識を、少ないデータ量で実現することが可能となる。
【0040】
なお、1つのMoPU12を用いた場合には、物体の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPU12を用いて、物体の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方法(車両の走行)に沿った軸である。
【0041】
また、
図3に示すように、車両の左側に取り付けられたカメラからの画像及び車両の右側に取り付けられたカメラからの画像を、MoPU12のコア12Aに入力してもよい。これらの画像は、それぞれ、例えば1000ピクセル×1000ピクセルの色情報を含む画像であり、1000フレーム/秒のフレームレートでコア12Aに入力されてもよい。MoPU12のコア12Aは、これらの画像に基づいて、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を1000フレーム/秒のフレームレートでCentral Brain15に転送してもよい。また、
図4に示すように、車両の左側に取り付けられたカメラからの画像及び車両の右側に取り付けられたカメラからの画像を、それぞれ、別々のコア12A
1及び12A
2を用いて処理してもよい。
【0042】
また、以上の説明では、MoPU12が、物体の中心点の動きを示す動き情報を出力する形態を例示した。しかしながら、開示の技術はこの態様に限定されない。MoPU12は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点について動き情報を出力してもよい。
図5には、MoPU12が、画像に含まれる4つの物体のそれぞれについて、当該物体の輪郭を囲むバウンディングボックス21、22、23、24を設定し、バウンディングボックス21、22、23、24の頂点の対角となる2つの座標点について動き情報を出力する態様が例示されている。このように、MoPU12は物体を点としてではなく、一定の大きさを持つオブジェクトとして捉えてもよい。一定の大きさを持つオブジェとして捉える場合は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点だけである必要はなく、輪郭を含む複数の座標点を抽出しても良い。
【0043】
また、
図6に示すように、MoPU12は、可視光画像及び赤外線画像の少なくとも一方に基づいて動き情報を出力してもよい。可視光画像は可視光カメラによって撮影された画像であり、赤外線画像は赤外線カメラによって撮影された画像である。可視光画像及び赤外線画像は、それぞれ、1000フレーム/秒以上のフレームレートでコア12Aに入力される。可視光画像及び赤外線画像は、互いに同期していることが好ましい。MoPU12による物体検出において赤外線画像を用いることで、例えば夜間等の可視光画像による物体検出が困難である場合でも物体検出が可能となる。MoPU12は、可視光画像及び赤外線画像うち、赤外線画像のみに基づいて動き情報を出力してもよいし、可視光画像及び赤外線画像の双方に基づいて動き情報を出力してもよい。
【0044】
また、
図7に示すように、MoPU12は、画像及びレーダー信号に基づいて動き情報を出力してもよい。レーダー信号は、物体に照射された電磁波の当該物体からの反射波に基づく信号である。MoPU12は、画像及びレーダー信号に基づいて、物体までの距離を導出し、当該物体の存在位置を示す点の、三次元直交座標系における3つの軸の各々に沿った動きのベクトル情報を動き情報として出力してもよい。画像は、可視光画像及び赤外線画像の少なくとも1つを含むものであってもよい。画像及びレーダー信号は、1000フレーム/秒以上のフレームレートでコア12Aに入力される。
【0045】
また、以上の説明では、Central Brain15が、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて車両の運転制御を実行する場合を例示したが、開示の技術は、この態様に限定されるものではない。Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、当該物体に対する応答制御として、ロボットの動作制御を行ってもよい。ロボットは例えば、人間の代わりに作業を行う人型のスマートロボットであってもよい。例えば、Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、ロボットの腕、手のひら、指、足の動作制御を行って、当該物体を握る、掴む、抱える、背負う、移動させる、運ぶ、投げる、蹴る、避ける等の動作制御を行ってもよい。IPU11及びMoPU12は、例えば、ロボットの右目及び左目の位置に搭載されてもよい。つまり右目には右目用のIPU11及びMoPU12を搭載し、左目には左目用のIPU11及びMoPU12を搭載してもよい。
【0046】
<第2実施形態>
次に、第2実施形態について説明する。第2実施形態は、画像を撮像する際のフレームレートが可変である点等が第1実施形態と異なる。
【0047】
(車両に搭載される情報処理装置:Smart Car)
図8は、車両に搭載される、第2実施形態に係る情報処理装置210のブロック図である。
図8に示されているように、車両に搭載される情報処理装置210は、左側の目に相当するMoPU12MLと、右側の目に相当するMoPU12MRと、IPU11と、コア12Xと、Central Brain15とを備えている。
【0048】
MoPU12MLは、カメラ30Lと、レーダー32Lと、赤外線カメラ34Lとを備えている。また、MoPU12MRは、カメラ30Rと、レーダー32Rと、赤外線カメラ34Rとを備えている。レーダー32L,32Rは、上述したレーダー信号を検知する。赤外線カメラ34L,34Rは、上述した赤外線画像を取得する。
【0049】
IPU11は、上述したような高解像度カメラ(図示省略)を備えており、高解像度カメラによって撮像された高解像度画像から物体を検知し、物体の種別を表す情報(以下、単に「ラベル情報」と称する。)を出力する。
【0050】
なお、以下では、左側の目に相当するMoPU12MLの処理についてのみ説明する。
【0051】
MoPU12MLが備えるカメラ30Lは、IPU11が備える高解像度カメラ(例えば、10フレーム/秒で撮像)よりも高いフレーム数(120,240,480,960,又は1920フレーム/秒)で画像を撮像する。カメラ30Lは、フレームレートを変更することが可能なカメラである。
【0052】
MoPU12MLのコア12L(例えば、1つ以上のCPUにより構成される)は、30Lが撮像した1フレームの画像毎に特徴点を抽出し、その座標値(X,Y)を出力する。MoPU12MLは、例えば、画像から抽出した物体の中心点(重心点)を特徴点として出力する。なお、特徴点は、物体を疑似的に囲む矩形の対角頂点2点であってもよい。また一定の大きさを持つオブジェとして捉える場合は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点だけである必要はなく、輪郭を含む複数の座標点を抽出しても良い。
【0053】
具体的には、MoPU12MLは、1つの物体から抽出された特徴点の座標値(X,Y)を出力する。なお、例えば、複数の物体(例えば、物体A、物体B、及び物体C等)が1つの画像に写っている場合には、MoPU12MLは、それら複数の物体の各々から抽出された特徴点の座標値(Xn,Yn)を出力するようにしてもよい。各時刻に撮像された画像の特徴点の系列は、物体の動き情報に相当する。
【0054】
また、例えば、暗闇の影響によって、MoPU12MLが物体を識別できない場合が想定される。この場合には、MoPU12MLは、赤外線カメラ34Lを用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ30Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力するようにしてもよい。また、カメラ30Lによる画像の撮像と赤外線カメラ34Lによる赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
【0055】
また、MoPU12MLは、レーダー32Lによって取得された3次元点群データに基づいて、物体のZ軸の座標値を取得してもよい。なお、この場合には、カメラ30Lによる画像の撮像とレーダー32Lによる3次元点群データの取得とを同期させるようにしてもよい。例えば、レーダー32Lによって取得される1秒当たりの3次元点群データの数と、カメラ30Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
【0056】
また、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数と、レーダー32Lによって取得される1秒当たりの3次元点群データの数とを同一にし、データ取得のタイミングを同期させるようにしてもよい。
【0057】
コア12Xは、MoPU12MLから出力された特徴点の座標と、IPU11から出力された対象物のラベル情報(物体が犬なのか、猫なのか、又はクマなのかを表す情報)とを取得する。そして、コア12Xは、ラベル情報と特徴点に対応する座標とを対応付けて出力する。これにより、特徴点が表す物体が何を表しているのかという情報と、特徴点が表す物体の動き情報とを対応付けることが可能になる。
【0058】
以上が左側の目に相当するMoPU12MLの処理である。右側の目に相当するMoPU12MRは、左側の目に相当するMoPU12MLと同様の処理を実行する。
【0059】
なお、MoPU12MLのカメラ30Lによって撮像された画像と、MoPU12MRの30Rによって撮像された画像とに基づいて、ステレオカメラの原理を利用して、特徴点の奥行き方向の座標値Znを更に算出してもよい。
【0060】
(ロボットに搭載される情報処理装置:Smart Robot)
図9は、ロボットに搭載される、第2実施形態に係る情報処理装置310のブロック図である。
図9に示されているように、ロボットに搭載される情報処理装置310は、左側の目に相当するMoPU12MLと、右側の目に相当するMoPU12MRと、赤外線カメラ34と、ストラクチャードライト36と、コア12Xと、Central Brain15とを備えている。ロボットに搭載される情報処理装置310は、車両に搭載される情報処理装置210と同様の機能を有している。
【0061】
例えば、暗闇の影響によって、MoPU12MLが物体を識別できない場合には、MoPU12MLは、赤外線カメラ34を用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ30Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力する。また、カメラ30Lによる画像の撮像と赤外線カメラ34による赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34によって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
【0062】
また、コア12Xは、物体の奥行き方向の座標Znを取得するために、ストラクチャードライト36を使用してもよい。ストラクチャードライト36は、例えば、参考文献(http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf)に開示されている。この場合には、カメラ30L,30Rによる画像の撮像とストラクチャードライト36による3次元データとの計測とを同期させるようにしてもよい。例えば、カメラ30L,30Rによって撮像される1秒当たりの画像数と、ストラクチャードライト36によって計測される1秒当たりの3次元データとを同期させるようにしてもよい(例えば、1920フレーム/秒)。
【0063】
更に、赤外線カメラ34によって撮像された赤外線画像とストラクチャードライト36によって計測された3次元データとの両方を併用してもよい。
【0064】
(外部環境に応じたフレームレートの変更)
情報処理装置210,310は、外部環境に応じてカメラのフレームレートを変更するようにしてもよい。例えば、情報処理装置210,310は、外部環境に関するスコアを計算し、スコアに応じて、カメラ30L,30Rのフレームレートを決定する。そして、情報処理装置210,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30Rに対して出力する。カメラ30L,30Rは、決定されたフレームレートで画像を撮像する。そして、情報処理装置210,310は、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。
【0065】
なお、車両に搭載される情報処理装置210は、図示しない複数種類のセンサを備えている。車両に搭載される情報処理装置210が備える1つ以上のプロセッサは、複数種類のセンサ(図示省略)から取り入れられたセンサ情報(例えば、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、又は周囲の状況(鳥、動物、サッカーボール、事故車、地震、家事、風、台風、大雨、小雨、吹雪、霧、など)等)に基づいて、外部環境に関するスコアとして、自車両が今後どの程度の危険な場所を走行するかの危険度を計算する。
【0066】
そして、情報処理装置210が備える1つ以上のプロセッサは、計算した危険度と閾値とに基づいて、1秒当たりに撮像される画像数(フレームレート)を切り替える。危険度は、例えば、0~1.0の間の値である。この場合、例えば、閾値として、第1閾値、第2閾値、第3閾値、及び第4閾値が予め設定される。例えば、第1閾値=0.2、第2閾値=0.4、第3閾値=0.6、及び第4閾値=0.8と設定され得る。
【0067】
例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値より低い場合は、120フレーム/秒を選択し、そのフレームレートで画像の撮像、レーダー信号の取得、又は赤外線画像の撮像をするように、カメラ30L,30R、レーダー32L,32R、及び赤外線カメラ34L,34Rへ制御信号を出力する。
【0068】
また、例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値以上であり、かつ第4閾値より低い場合は、240,480,960フレーム/秒の何れかを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値以上であり、かつ第2閾値より低い場合は、240フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、情報処理装置210が備える1つ以上のプロセッサは、危険度が第2閾値以上であり、かつ第3閾値より低い場合は、480フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、情報処理装置210が備える1つ以上のプロセッサは、危険度が第3閾値以上であり、かつ第4閾値より低い場合は、960フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第4閾値以上である場合は、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。
【0069】
また、情報処理装置210が備える1つ以上のプロセッサは、危険度を予測する情報としてロングテールインシデントAI(Artificial Intelligence) DATA(例えば、レベル5の自動運転制御方式が実装された車両のTripデータ)又は地図情報等、車両が走行する前から既知である走行に関するビッグデータを利用し、危険度を予測するようにしてもよい。
【0070】
また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、例えば、カメラ30L,30Rに写る物体の速度等に基づいて、外部環境に関するスコアを計算し、そのスコアに応じてフレームレートを変更するようにしてもよい。例えば、外部環境に関するスコアは、物体の速度が速いほど大きくなるように計算される。このため、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが大きい場合には、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが小さい場合には、120フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。その他の制御は、上記の車両に搭載される情報処理装置210と同様である。
【0071】
(物体が検出された領域に応じた特徴点の出力)
情報処理装置210,310は、画像に写る物体の存在位置が所定領域である場合に、物体の存在位置を示す点をするようにしてもよい。この場合、情報処理装置210,310は、物体が検出された領域に応じてその物体の特徴点を出力するか否かを判定する。例えば、車両に搭載される情報処理装置210のコア12L,12Rは、車両が走行する道路領域において検出された物体とは異なる物体(例えば、歩道上に存在している物体)からは特徴点を抽出しないようにする。
図10に、例えば、歩道上に存在している物体からは特徴点を抽出しない場合の処理を説明するための図を示す。
【0072】
図10(A)では、物体B1~B4が抽出されている。本来であれば、物体B1~B4の各々について特徴点を表す座標が抽出される。
【0073】
この場合、例えば、
図10(B)に示されているように、車両に搭載される情報処理装置210が備えるコア12L,12Rは、既知の技術を用いて、車両前方の画像から道路境界Lを逐次検出する。そして、情報処理装置210が備えるコア12L,12Rは、道路境界Lによって特定される道路上に位置する物体B1~B3からのみ特徴点を表す座標を抽出する。
【0074】
また、例えば、情報処理装置210が備えるコア12L,12Rは、道路上に位置する物体B1~B3とは異なる物体B4についてはその物体領域自体を抽出せずに、物体B1~B3からのみ特徴点を表す座標を抽出するようにしてもよい。
【0075】
(物体の動きに応じた特徴点の出力)
情報処理装置210,310は、画像に写る物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出するようにしてもよい。この場合、例えば、情報処理装置210,310は、物体の動きに応じてその物体の特徴点を出力するか否かを判定するようにしてもよい。例えば、情報処理装置210のコア12L,12Rは、車両の走行に影響の無い物体からは特徴点を抽出しないようにしてもよい。具体的には、情報処理装置210のコア12L,12Rは、AIを利用することなどにより、画像に写る物体の移動方向又は速さ等を計算する。そして、例えば、情報処理装置210のコア12L,12Rは、道路から遠ざかっていく歩行者等からは特徴点を抽出しない。一方、情報処理装置210のコア12L,12Rは、道路に近づく物体(例えば、道路に飛び出しそうな子供)からは特徴点を抽出する。
【0076】
また、情報処理装置210が備える1つ以上のプロセッサは、例えば、イベントカメラ(https://dendenblog.xyz/event-based-camera/)によって撮像された画像からも特徴点を抽出することが可能である。
図11に、イベントカメラによって撮像された画像を説明するための図を示す。
【0077】
図11に示されているように、イベントカメラによって撮像された画像は、現時刻に撮像された画像と前時刻に撮像された画像との差異部分が点として抽出される。このため、イベントカメラを利用した場合には、例えば、
図11(B)に示されるように、
図11(A)に示される人物領域のうちの移動している各箇所の点が抽出されてしまう。
【0078】
これに対し、情報処理装置210が備える1つ以上のプロセッサは、
図11(C)に示されるように、物体である人物を抽出した後に、人物領域を表す特徴点の座標(例えば、1点のみ)を抽出する。これにより、Central Brain15及びメモリ16に転送される情報量を抑制させることできる。イベントカメラによって撮像された画像は、物体である人物を任意のフレームレートで抽出できるため、MoPU12ML,12MRに搭載されるカメラ30L,30Rは、最大1920フレーム/秒のフレームレートで画像を撮像するが、イベントカメラの場合は1920フレーム/秒に限らず、それ以上のフレームレートで抽出することもでき、より物体の動き情報を精度良く捉えることができる。
【0079】
以上説明したように、第2実施形態の情報処理装置210,310は、物体が写る画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、コア12X、Central Brain15、及びメモリ16に転送される情報量を抑制させることできる。また、物体の存在位置を示す点とIPU11から出力されたラベル情報とを対応付けることにより、どのような物体がどのような動きをしているのかに関する情報が把握される。特に、MoPU12ML,12MRに搭載されるカメラ30L,30Rは、最大1920フレーム/秒のフレームレートで画像を撮像することが可能であるため、物体の動き情報を精度良く捉えることができる。
【0080】
また、情報処理装置210,310は、フレームレートを変更することが可能なカメラ30L,30Rを備え、外部環境に関するスコアを計算し、当該スコアに応じてカメラのフレームレートを決定する。そして、情報処理装置210,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30Rに対して出力し、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、外部環境に適したフレームレートで画像を撮像することができる。
【0081】
また、情報処理装置210は、外部環境に関するスコアとして、車両の走行に関する危険度を計算し、危険度に応じて、カメラ30L,30Rのフレームレートを決定し、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30R対して出力し、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出する。これにより、車両の走行に関する危険度に応じてフレームレートを変更することができる。
【0082】
また、情報処理装置210,310は、画像から物体を抽出し、物体の存在位置が所定領域である場合に、物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置210,310のコア12L,12Rは、制御処理にとって重要度が低い領域の点を取得せずに済む。
【0083】
また、情報処理装置210,310は、画像から物体を抽出し、物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置210,310のコア12L,12Rは、制御処理にとって重要度が低い物体の点を取得せずに済む。
【0084】
<第3実施形態>
次に、第3実施形態について説明する。なお、第3実施形態の情報処理装置の構成は、第1実施形態又は第2実施形態と同様の構成となるため、同一符号を付して説明を省略する。第3実施形態の情報処理装置は、画像に写る物体の数、画像に写る物体の加速度、及び画像に写る物体の大きさの少なくとも1つに応じて、カメラ(例えば、カメラ30L、レーダー32L、赤外線カメラ34L、カメラ30R、レーダー32R、及び赤外線カメラ34Rの少なくとも1つ)のフレームレートを変更するように制御する点等が、第1実施形態及び第2実施形態と異なる。
【0085】
第1実施形態又は第2実施形態と同様に、車両又はロボットに搭載されているカメラによって画像が撮像され、その画像に写る物体の動きに応じて車両又はロボットの駆動が制御される場合を考える。この場合、例えば、画像に写る物体が複数である場合には、それら複数の物体の各々の動きに応じて車両又はロボットの駆動を制御する必要がある。
【0086】
そのため、画像に写る物体が多い場合には、車両又はロボットに搭載されるカメラのフレームレートを高くしてより多くの画像を取得し、それらの画像を車両又はロボットの制御に利用した方が好ましい。また、画像に写る物体の加速度が大きい場合も、同様に、カメラのフレームレートを高くしてより多くの画像を取得した方が好ましい。また、画像に写る物体の大きさが大きい場合は、その物体が車両又はロボットの近くに存在していることを表している場合もあるため、同様に、カメラのフレームレートを高くしてより多くの画像を取得した方が好ましい。
【0087】
そこで、第3実施形態の情報処理装置の少なくとも1つのプロセッサ(例えば、コア12L,コア12R,及びコア12Xの少なくとも1つ)は、カメラによって撮像された画像に写る物体を検出する。そして、情報処理装置の少なくとも1つのプロセッサは、検出された物体の数、物体の加速度、及び物体の大きさの少なくとも1つに応じて、カメラのフレームレートを変更するように制御する。
【0088】
例えば、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の数が多いほど、カメラのフレームレートを高くするように制御する。また、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の数が少ないほど、カメラのフレームレートを低くするように制御する。
【0089】
具体的には、情報処理装置の少なくとも1つのプロセッサは、第2実施形態と同様に、外部環境に関するスコアの一例として危険度を計算する。
【0090】
この場合、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の数が多いほど、危険度が大きくなるように計算する。また、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の数が少ないほど、危険度が小さくなるように計算する。なお、第2実施形態と同様に、閾値として、第1閾値、第2閾値、第3閾値、及び第4閾値が予め設定され、例えば、第1閾値=0.2、第2閾値=0.4、第3閾値=0.6、及び第4閾値=0.8と設定され得る。
【0091】
例えば、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の数が1つである場合、外部環境に関するスコアの一例である危険度を0.1と計算する。この場合に計算された危険度は、第1閾値よりも低い。このため、情報処理装置の少なくとも1つのプロセッサは、120フレーム/秒を選択し、そのフレームレートで画像の撮像、レーダー信号の取得、又は赤外線画像の撮像をするように、カメラ30L,30R、レーダー32L,32R、及び赤外線カメラ34L,34Rへ制御信号を出力する。
【0092】
また、例えば、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の数が9つである場合、外部環境に関するスコアの一例である危険度を0.9と計算する。この場合に計算された危険度は、第4閾値よりも高い。このため、情報処理装置の少なくとも1つのプロセッサは、1920フレーム/秒を選択し、そのフレームレートで画像の撮像、レーダー信号の取得、又は赤外線画像の撮像をするように、カメラ30L,30R、レーダー32L,32R、及び赤外線カメラ34L,34Rへ制御信号を出力する。
【0093】
また、例えば、情報処理装置の少なくとも1つのプロセッサは、危険度が第1閾値以上であり、かつ第2閾値より低い場合は、240フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、情報処理装置の少なくとも1つのプロセッサは、危険度が第2閾値以上であり、かつ第3閾値より低い場合は、480フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、情報処理装置の少なくとも1つのプロセッサは、危険度が第3閾値以上であり、かつ第4閾値より低い場合は、960フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。
【0094】
そして、第3実施形態の情報処理装置は、2つのプロセッサであるコア12L,12Rを用いて、物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を動き情報として出力する。
【0095】
このように、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の数が多いほど、カメラのフレームレートを高くするように制御する。また、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の数が少ないほど、カメラのフレームレートを低くするように制御する。これにより、画像に写る複数の物体の各々の動きを精度良く捉えることが可能となり、それら複数の物体の動きに応じて車両又はロボットを適切に制御することができる。
【0096】
また、情報処理装置の少なくとも1つのプロセッサは、上記と同様に、画像に写る物体の加速度に応じて、カメラのフレームレートを変更するように制御してもよい。この場合には、情報処理装置の少なくとも1つのプロセッサは、カメラによって撮像された各時刻の画像に基づいて、既知の技術を用いて、画像に写る物体の加速度を計算する。そして、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の加速度が大きいほど、カメラのフレームレートを高くするように制御する。一方、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の加速度が小さいほど、フレームレートを低くするように制御する。なお、複数の物体が画像に写っている場合には、情報処理装置の少なくとも1つのプロセッサは、複数の物体の各々の加速度うち最大又は最小の加速度に応じて、フレームレートを変更するように制御してもよい。又は、複数の物体が画像に写っている場合には、情報処理装置の少なくとも1つのプロセッサは、複数の物体の各々の加速度の平均値に応じて、フレームレートを変更するように制御してもよい。
【0097】
また、情報処理装置の少なくとも1つのプロセッサは、上記と同様に、画像に写る物体の大きさに応じて、カメラのフレームレートを変更するように制御してもよい。この場合には、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の大きさが大きいほど、カメラのフレームレートを高くするように制御する。一方、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の大きさが小さいほど、フレームレートを低くするように制御する。なお、複数の物体が画像に写っている場合には、情報処理装置の少なくとも1つのプロセッサは、複数の物体の各々の大きさのうち最大又は最小の大きさに応じて、フレームレートを変更するように制御してもよい。又は、複数の物体が画像に写っている場合には、情報処理装置の少なくとも1つのプロセッサは、複数の物体の各々の大きさの平均値に応じて、フレームレートを変更するように制御してもよい。
【0098】
以上説明したように、第3実施形態の情報処理装置は、画像に写る物体の数、画像に写る物体の加速度、及び画像に写る物体の大きさの少なくとも1つに応じて、カメラ(例えば、カメラ30L、レーダー32L、赤外線カメラ34L、カメラ30R、レーダー32R、及び赤外線カメラ34Rの少なくとも1つ)のフレームレートを変更するように制御する。そして、第3実施形態の情報処理装置は、物体が写る画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、画像に写る物体の数、画像に写る物体の加速度、及び画像に写る物体の大きさに応じて、適切な数の各時刻の画像を取得することが可能となり、車両又はロボットを適切に制御することができる。より具体的には、第3実施形態の情報処理装置は、画像に写る物体の数が多いほど、カメラのフレームレートを高くするように制御することにより、より短い時間間隔において画像を取得することが可能となり、車両又はロボットを適切に制御することができる。また、第3実施形態の情報処理装置は、画像に写る物体の加速度が大きいほど、カメラのフレームレートを高くするように制御することにより、より短い時間間隔において画像を取得することが可能となり、車両又はロボットを適切に制御することができる。また、第3実施形態の情報処理装置は、画像に写る物体の大きさが大きいほど、カメラのフレームレートを高くするように制御することにより、より短い時間間隔において画像を取得することが可能となり、車両又はロボットを適切に制御することができる。
【0099】
本実施の形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
【0100】
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
【0101】
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
【0102】
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
【0103】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0104】
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
【0105】
(付記1)
第1のプロセッサを備えた情報処理装置であって、
前記第1のプロセッサは、物体の画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を1000フレーム/秒以上のフレームレートで出力する
情報処理装置。
【0106】
(付記2)
前記第1のプロセッサは、前記物体の中心点又は重心点の所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する
付記1に記載の情報処理装置。
【0107】
(付記3)
前記第1のプロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する
付記1に記載の情報処理装置。
【0108】
(付記4)
前記画像は、赤外線画像を含む
付記1に記載の情報処理装置。
【0109】
(付記5)
前記画像は、互いに同期した可視光画像及び赤外線画像を含む
付記1に記載の情報処理装置。
【0110】
(付記6)
2つの前記第1のプロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する
付記1に記載の情報処理装置。
【0111】
(付記7)
前記第1のプロセッサは、前記物体に照射された電磁波の前記物体からの反射波に基づいて、前記物体までの距離を導出し、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する
付記7に記載の情報処理装置。
【0112】
(付記8)
前記物体の画像を1000フレーム/秒未満のフレームレートで出力する第2のプロセッサと、
前記動き情報と、前記第2のプロセッサから出力された画像とに基づいて、前記物体に対する応答制御を行う第3のプロセッサと、
を更に含む付記1に記載の情報処理装置。
【0113】
(付記9)
フレームレートを変更することが可能なカメラと、
プロセッサと、
を備えた情報処理装置であって、
前記プロセッサは、
前記カメラによって撮像された画像に写る物体を検出し、
検出された前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理装置。
【0114】
(付記10)
前記プロセッサは、
前記物体の数に応じて前記フレームレートを変更する際に、
前記物体の数が多いほど、前記フレームレートを高くするように制御し、
前記物体の数が少ないほど、前記フレームレートを低くするように制御する、
付記9に記載の情報処理装置。
【0115】
(付記11)
前記プロセッサは、
前記物体の加速度に応じて前記フレームレートを変更する際に、
前記物体の加速度が大きいほど、前記フレームレートを高くするように制御し、
前記物体の加速度が小さいほど、前記フレームレートを低くするように制御する、
付記9又は付記10に記載の情報処理装置。
【0116】
(付記12)
前記プロセッサは、
前記物体の大きさに応じて前記フレームレートを変更する際に、
前記物体の大きさが大きいほど、前記フレームレートを高くするように制御し、
前記物体の大きさが小さいほど、前記フレームレートを低くするように制御する、
付記9~付記11の何れか1項に記載の情報処理装置。
【0117】
(付記13)
前記プロセッサは、
前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、外部環境に関するスコアを計算し、
前記外部環境に関するスコアと予め設定された閾値とに応じて、前記フレームレートを変更するように制御する、
付記9~付記12の何れか1項に記載の情報処理装置。
【0118】
(付記14)
前記プロセッサは、
前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
付記9~付記13の何れか1項に記載の情報処理装置。
【0119】
(付記15)
前記情報処理装置は、2つの前記プロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する、
付記9~付記14の何れか1項に記載の情報処理装置。
【0120】
(付記16)
フレームレートを変更することが可能なカメラと、
プロセッサと、
を備えた情報処理装置が実行する情報処理方法であって、
前記プロセッサが、
前記カメラによって撮像された画像に写る物体を検出し、
検出された前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理方法。
【0121】
(付記17)
フレームレートを変更することが可能なカメラと、
プロセッサと、
を備えた情報処理装置の前記プロセッサに実行させるための情報処理プログラムであって、
前記プロセッサが、
前記カメラによって撮像された画像に写る物体を検出し、
検出された前記物体の数、前記物体の加速度、及び前記物体の大きさの少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理プログラム。
【符号の説明】
【0122】
10 情報処理装置
11 IPU
12 MoPU
13 GNPU
14 CPU
15 Central Brein