(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-03
(45)【発行日】2024-04-11
(54)【発明の名称】情報処理プログラム、情報処理装置及び情報処理システム
(51)【国際特許分類】
G08G 1/052 20060101AFI20240404BHJP
G08G 1/04 20060101ALI20240404BHJP
G06T 7/00 20170101ALI20240404BHJP
G06T 7/60 20170101ALI20240404BHJP
G01P 3/68 20060101ALI20240404BHJP
G16Y 10/40 20200101ALI20240404BHJP
G16Y 40/10 20200101ALI20240404BHJP
【FI】
G08G1/052
G08G1/04 D
G06T7/00 650B
G06T7/60 200J
G01P3/68 Z
G16Y10/40
G16Y40/10
(21)【出願番号】P 2022003029
(22)【出願日】2022-01-12
【審査請求日】2022-03-18
(73)【特許権者】
【識別番号】501440684
【氏名又は名称】ソフトバンク株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】賀 振宇
(72)【発明者】
【氏名】内藤 達大
(72)【発明者】
【氏名】錦見 正紀
(72)【発明者】
【氏名】鳥島 亮太
【審査官】武内 俊之
(56)【参考文献】
【文献】特開2015-207212(JP,A)
【文献】特開平10-170226(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/052
G08G 1/04
G06T 7/00
G06T 7/60
G01P 3/68
G16Y 10/40
G16Y 40/10
(57)【特許請求の範囲】
【請求項1】
道路の画像を撮像する撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出する検出手順と、
前記検出手順によって検出された前記固定物領域と、前記画像のうち、前記
道路上を走行する車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出し、検出された前記固定物領域の端の位置に基づく前記画像上の複数の基準線を用いて、前
記車両の走行速度に関する速度情報を推定する推定手順と、
をコンピュータに実行させる情報処理プログラム。
【請求項2】
前記推定手順は、
前記画像上で前記外接矩形を前記外接矩形の長辺方向に移動させることにより、前記外接矩形の短辺と前記固定物領域とが交差する交差状態から前記外接矩形の短辺と前記固定物領域とが交差しない非交差状態へと変化する前記固定物領域の端、または、前記非交差状態から前記交差状態へと変化する前記固定物領域の端を検出する、
請求項1に記載の情報処理プログラム。
【請求項3】
前記推定手順は、
前記画像上で前記外接矩形を前記外接矩形の長辺方向に移動させることにより、複数の前記固定物領域の端を検出した場合に、検出された複数の前記固定物領域の端それぞれの位置に基づく前記複数の基準線を用いて、前記速度情報を推定する、
請求項1または2に記載の情報処理プログラム。
【請求項4】
前記推定手順は、
前記外接矩形の短辺と平行な前記複数の基準線を用いて、前記速度情報を推定する、
請求項1~3のいずれか1つに記載の情報処理プログラム。
【請求項5】
前記推定手順は、
動画像である前記画像に撮像された前記車両をトラッキングすることにより推定された前記車両の軌跡に基づいて、前記道路領域を推定する、
請求項1~4のいずれか1つに記載の情報処理プログラム。
【請求項6】
前記推定手順は、
前記車両の軌跡を含む凸包を前記道路領域として推定する、
請求項5に記載の情報処理プログラム。
【請求項7】
前記推定手順は、
前記外接矩形の面積が最小となる最小外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出する、
請求項1~6のいずれか1つに記載の情報処理プログラム。
【請求項8】
前記固定物は、前記道路上に固定された白線であり、
前記検出手順は、
前記固定物領域として、前記白線が撮像された領域である白線領域を検出し、
前記推定手順は、
前記白線領域の長さと前記白線同士の間隔の長さとの比率に基づいて、前記道路の種類を推定し、推定された前記道路の種類に応じて、前記複数の基準線の間の実距離を推定する、
請求項1~7のいずれか1つに記載の情報処理プログラム。
【請求項9】
前記推定手順は、
前記撮像装置によって撮像された動画像を構成する一のフレーム画像中の前記車両の位置を示す第1代表点と、前記一のフレーム画像と時間的に隣り合う次のフレーム画像中の前記車両の位置を示す第2代表点とを連結した線分と、前記基準線とが交差するか否かを判定し、前記線分と前記基準線とが交差すると判定した場合、前記車両が前記基準線を通過したと判定し、前記線分と前記基準線とが交差しないと判定した場合、前記車両が前記基準線を通過していないと判定する手順を含む、
請求項1~8のいずれか1つに記載の情報処理プログラム。
【請求項10】
前記推定手順は、
隣り合う2つの前記基準線のうち一方の前記基準線を通過した前記車両が撮像された第1フレームに対応する時刻と、前記2つの前記基準線のうち他方の前記基準線を通過した前記車両が撮像された第2フレームに対応する時刻との時間差に相当する時間を、前記車両が前記2つの前記基準線の間を通過するのに要した移動時間であると推定する、
請求項1~9のいずれか1つに記載の情報処理プログラム。
【請求項11】
道路の画像を撮像する撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出する検出部と、
前記検出部によって検出された前記固定物領域と、前記画像のうち、前記
道路上を走行する車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出し、検出された前記固定物領域の端の位置に基づく前記画像上の複数の基準線を用いて、前
記車両の走行速度に関する速度情報を推定する推定部と、
を備える情報処理装置。
【請求項12】
撮像装置と、情報処理装置とを、備える情報処理システムであって、
前記撮像装置は、
道路の画像を撮像し、
前記情報処理装置は、
前記撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出し、前記検出された前記固定物領域と、前記画像のうち、前記
道路上を走行する車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、前記固定物領域とに基づいて、前記固定物領域の端を検出し、検出された前記固定物領域の端の位置に基づく前記画像上の複数の基準線を用いて、前
記車両の走行速度に関する速度情報を推定する、
情報処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理プログラム、情報処理装置及び情報処理システムに関する。
【背景技術】
【0002】
従来、道路上を走行する車両の走行速度に関する速度情報を推定する技術が知られている。例えば、車両の進行方向に沿って一定距離に複数設置された撮像装置によって撮像された画像に基づいて、車両の走行速度を推定する技術が知られている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記の従来技術は、車両の速度を求めるために、一定距離間隔に設置された複数の撮像装置を要する。
【0005】
本願は、上記に鑑みてなされたものであって、撮像装置が一台であっても、道路上を走行する車両の走行速度に関する速度情報を精度よく推定することができる情報処理プログラム、情報処理装置及び情報処理システムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本願に係る情報処理プログラムは、道路の画像を撮像する撮像装置から取得した前記画像のうち、前記道路上に固定された固定物が撮像された領域である固定物領域を検出する検出手順と、前記検出手順によって検出された前記固定物領域の位置に基づく前記画像上の複数の基準線を用いて、前記道路上を走行する車両の走行速度に関する速度情報を推定する推定手順と、をコンピュータに実行させる。
【0007】
前記推定手順は、所定の車両が撮像された車両画像と、前記車両画像に撮像された前記所定の車両の位置およびクラスを示す情報との組合せを含む学習データに基づいて、学習された学習済みの機械学習モデルを用いて、前記画像中の車両を検出する手順を含む。
【発明の効果】
【0008】
実施形態の一態様によれば、撮像装置が一台であっても、道路上を走行する車両の走行速度に関する速度情報を精度よく推定することができるといった効果を奏する。
【図面の簡単な説明】
【0009】
【
図1】
図1は、実施形態に係る情報処理システムの構成例を示す図である。
【
図2】
図2は、実施形態に係る情報処理の概要について説明するための図である。
【
図3】
図3は、実施形態に係る道路領域の推定処理の一例を示す図である。
【
図4】
図4は、実施形態に係る固定物領域の端の検出処理の一例を示す図である。
【
図5】
図5は、実施形態に係る道路の種類の推定処理の一例を示す図である。
【
図6】
図6は、実施形態に係る機械学習モデルを用いた画像中の車両の検出処理の一例を示す図である。
【
図7】
図7は、実施形態に係る車両の移動距離の測定処理の一例を示す図である。
【
図8】
図8は、実施形態に係る車両の基準線通過の判定処理の一例を示す図である。
【
図9】
図9は、実施形態に係る車両の移動時間の測定処理の一例を示す図である。
【
図10】
図10は、実施形態に係る検出手順を示すフローチャートである。
【
図11】
図11は、実施形態に係る推定手順を示すフローチャートである。
【
図12】
図12は、第1の変形例に係る情報処理の概要について説明するための図である。
【
図13】
図13は、第2の変形例に係る情報処理の概要について説明するための図である。
【
図14】
図14は、第3の変形例に係る情報処理の概要について説明するための図である。
【
図15】
図15は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【発明を実施するための形態】
【0010】
以下に、本願に係る情報処理プログラム、情報処理装置及び情報処理システムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理プログラム、情報処理装置及び情報処理システムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
【0011】
(実施形態)
〔1.情報処理システムの構成例〕
図1は、実施形態に係る情報処理システムの構成例を示す図である。
図1に示すように、情報処理システム1は、撮像装置10と情報処理装置100とを含む。撮像装置10と情報処理装置100とは、それぞれネットワークNを介して有線又は無線で互いに通信可能に接続される。
【0012】
撮像装置10は、道路の画像を撮像する。具体的には、撮像装置10は、高速道路や一般道路等の車道の動画像を撮像する。例えば、撮像装置10は、固定カメラであり、特定の位置から所定時間連続した動画像を撮像する。撮像装置10は、道路を撮像可能なカメラであれば、道路に設置された固定カメラ、防犯カメラ、車載カメラ、またはドローンに搭載されたカメラなど、いかなる種類のカメラであってもよい。また、撮像装置10の台数は、少なくとも1台以上あればよい。
【0013】
情報処理装置100は、
図2に示す情報処理を実行する情報処理装置である。
図2は、実施形態に係る情報処理の概要について説明するための図である。
図2に示すように、情報処理装置100は、撮像装置10から道路の動画像を取得する。
図2では、動画像を構成する一のフレーム(静止画像、以下、フレーム画像ともいう)G1を示す。フレーム画像G1には、2車線の道路R1上を走行する2台の車両C1およびC2が写っている。また、フレーム画像G1には、車線を区分する白色の破線の一部が道路R1の中央に写っている。ここで、白色の破線とは、白線が撮像された領域である白線領域と、白線同士の間隔とが一定の間隔で並んだ線のことを指す。例えば、白色の破線は、道路が2車線である場合のセンターラインや、道路が2車線以上である場合の車線境界線であってよい。
【0014】
続いて、情報処理装置100は、取得した動画像から複数枚のフレーム画像(例えば、10枚、20枚、50枚、または100枚のフレーム画像等)を取得し、取得した複数枚のフレーム画像を足し合わせて各画素の平均をとることにより、車両や人物といった道路上の移動物体を削除する(ステップS1)。
図2では、フレーム画像G1に写っていた2台の車両C1およびC2を削除した後の合成画像G2を示す。合成画像G2では、車両が削除され、道路R1上の2つの車線を区分する白線のみが道路R1上に写っている。また、情報処理装置100は、合成画像G2に対してハフ変換等の画像処理を行うことで、隣り合う2つの白線それぞれが撮像された領域である白線領域O1およびO2を検出する。なお、白線領域O1およびO2の形状は、道路の進行方向と平行な方向に長い線状とみなせる。
【0015】
また、情報処理装置100は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、道路領域A1を推定する(ステップS2)。ここで、道路領域とは、画像のうち、車両の走行頻度が所定の閾値を超える領域のことを指す。情報処理装置100は、道路領域A1を推定した場合に、推定した道路領域A1を合成画像G2の画像上に描画した合成画像G3を生成してもよい。
図2に示すように、道路領域A1の形状は、道路の進行方向と垂直な方向の長さに対して、道路の進行方向と平行な方向に長く伸びた形となる。また、道路領域A1は、道路の進行方向と垂直な方向の長さが、道路の幅に収まる。
【0016】
続いて、情報処理装置100は、道路領域A1を囲む外接矩形T1を生成する(ステップS3)。例えば、外接矩形T1は、面積が最小となる最小外接矩形である。情報処理装置100は、外接矩形T1を生成した場合に、生成した外接矩形T1を合成画像G2の画像上に描画した合成画像G4を生成してもよい。
図2に示すように、道路領域A1の形状が道路の進行方向と平行な方向に長く伸びた形状となるため、外接矩形T1は、長辺方向が道路の進行方向と平行な長方形となる。
【0017】
続いて、情報処理装置100は、画像上で外接矩形T1を外接矩形T1の長辺方向に移動させることにより、線状である白線領域O1の2つの端のうちの一方の端を検出する。
図2に示すでは、情報処理装置100は、画像上で外接矩形T1をスライドさせることにより、合成画像G4に示す外接矩形T1の一の短辺と白線領域O1とが交差する交差状態から、外接矩形T1の一の短辺と白線領域O1とが交差しない非交差状態へと変化する境界(すなわち、白線O1と白線同士の間隔との境界のうち、一方の境界E12)を検出する。情報処理装置100は、外接矩形T1の一の短辺と白線領域O1とが、交差状態から非交差状態へと変化する境界E12を検出した場合に、検出された境界E12を白線領域O1の端として特定する。
【0018】
続いて、情報処理装置100は、画像上で外接矩形T1を外接矩形の長辺方向にさらに移動させることにより、白線領域O1と隣り合う白線領域O2の端を検出する。例えば、情報処理装置100は、外接矩形T1の一の短辺と白線領域O1とが交差しない非交差状態から、外接矩形T1の一の短辺と白線領域O2とが交差する交差状態へと変化する境界E21(すなわち、白線O2と白線同士の間隔との境界E21およびE22のうち、一方の境界E21)を検出する。続いて、情報処理装置100は、画像上で外接矩形T1を外接矩形の長辺方向にさらに移動させることにより、外接矩形T1の一の短辺と白線領域O2とが交差する交差状態から、外接矩形T1の一の短辺と白線領域O2とが交差しない非交差状態へと変化する境界E22(すなわち、白線O2と白線同士の間隔との境界E21およびE22のうち、他方の境界E22)を検出する。このように、情報処理装置100は、線状である白線領域O2の2つの端E21およびE22のうち、先に検出された白線領域O1の端E12と同じ側の端E22を検出する。情報処理装置100は、外接矩形T1の一の短辺と白線領域O2とが、交差状態から非交差状態へと変化する境界E22を検出した場合に、検出された境界E22を白線領域O2の端として特定する。
【0019】
続いて、情報処理装置100は、隣り合う2つの白線領域O1の端(境界E12)および白線領域O2の端(境界E22)を検出した場合に、検出された白線領域O1の端および白線領域O2の端それぞれの位置に基づく2つの基準線L1およびL2を生成する(ステップS4)。例えば、2つの基準線L1およびL2は、外接矩形T1の短辺と平行な直線である。情報処理装置100は、隣り合う2つの白線領域O1およびO2の端を検出した場合に、検出された白線領域O1の端(境界E12)および白線領域O2の端(境界E22)それぞれの位置に、生成された基準線L1およびL2それぞれを描画した合成画像G5を生成してもよい。
【0020】
続いて、情報処理装置100は、2つの基準線L1およびL2を用いて、道路R1上を走行する車両の走行速度に関する速度情報を推定する。一般的に、道路の種類に応じて、白線の長さおよび白線同士の間隔の長さが決まっている。情報処理装置100は、道路の種類に応じた白線の長さおよび白線同士の間隔の長さを示す情報を取得する。情報処理装置100は、白線の長さおよび白線同士の間隔の長さを示す情報に基づいて、2つの基準線L1とL2の間の実距離を特定する。また、情報処理装置100は、動画像から、2つの基準線L1とL2の間を車両が走行するのに要した時間を特定する。情報処理装置100は、特定された2つの基準線L1とL2の間の実距離を、2つの基準線L1とL2の間を車両が走行するのに要した時間で除することにより、2つの基準線L1とL2の間を走行した車両の走行速度を算出する。
【0021】
なお、上述した
図2では、情報処理装置100が、外接矩形T1の一の短辺と白線領域とが、交差状態から非交差状態へと変化する境界を検出した場合に、検出された境界を白線領域の端として特定する場合について説明したが、これに限られない。具体的には、情報処理装置100は、外接矩形T1の一の短辺と白線領域とが、非交差状態から交差状態へと変化する境界を検出した場合に、検出された境界を白線領域の端として特定してもよい。
【0022】
また、上述した
図2では、車両が自動車である場合について説明したが、車両は自動車に限られない。例えば、本実施形態における車両には、自動車の他に、原動機付自転車(バイク)、自転車、荷車そのほか人もしくは動物の力により、または他の車両に牽引(けんいん)され、レールによらないで運転する車が含まれてよい。
【0023】
ここから、再び
図1を用いて、実施形態に係る情報処理装置100の構成について説明する。
図1に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の利用者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)を有してもよい。
【0024】
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークNと有線又は無線で接続され、例えば、撮像装置10との間で情報の送受信を行う。
【0025】
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、各種プログラム(情報処理プログラムの一例に相当)を記憶する。また、記憶部120は、取得部131が撮像装置10から取得した画像を記憶する。また、記憶部120は、画像中の車両を検出するために用いる学習済みの機械学習モデルM1に関する情報を記憶する。
【0026】
(制御部130)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報処理装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。
【0027】
図1に示すように、制御部130は、取得部131と、検出部132と、推定部133と、提供部134とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、
図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
【0028】
(取得部131)
取得部131は、道路の画像を撮像する撮像装置10から画像を取得する。具体的には、取得部131は、通信部110を介して、撮像装置10から画像を取得する。例えば、取得部131は、固定位置に設置された撮像装置10によって所定時間連続で撮像された動画像を取得する。取得部131は、画像を取得すると、取得した画像を記憶部120に格納する。
【0029】
(検出部132)
検出部132は、取得部131が取得した画像のうち、道路上に固定された白線が撮像された領域である白線領域を検出する。このように、検出部132は、画像のうち、道路上に固定された固定物(例えば、白線)が撮像された領域である固定物領域(例えば、白線領域)を検出する。例えば、検出部132は、取得部131が取得した動画像を取得する。続いて、検出部132は、動画像からn枚(例えば、n=10、20、50、または100等)の異なるフレーム画像を取得する。続いて、検出部132は、取得したn枚のフレーム画像の各画素を(1/n)倍したものを全て足し合わせる。このように、検出部132は、n枚のフレーム画像を足し合わせて各画素の平均をとる画像処理により、道路上を移動する移動物体が削除された合成画像(以下、車両を削除した画像ともいう)を生成する。続いて、検出部132は、生成された合成画像のうち、道路が撮像された領域である道路領域以外の領域を塗りつぶす。続いて、検出部132は、合成画像全体をグレースケール変換する。続いて、検出部132は、グレースケール変換された合成画像に含まれるエッジを抽出する。続いて、検出部132は、エッジを抽出した合成画像をハフ変換して、画像のうち、白線が撮像された領域である白線領域を検出する。
【0030】
(推定部133)
推定部133は、検出部132によって検出された白線領域の位置に基づく画像上の複数の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する。このように、推定部133は、検出部132によって検出された固定物領域(例えば、白線領域)の位置に基づく画像上の複数の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する。より具体的には、推定部133は、画像のうち、車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、白線領域とに基づいて、白線領域の端を検出し、検出された白線領域の端の位置に基づく複数の基準線を用いて、速度情報を推定する。
【0031】
図3は、実施形態に係る道路領域の推定処理の一例を示す図である。
図3に示す画像G11は、取得部131が取得した動画像を構成する一のフレームを示す。推定部133は、取得部131が取得した動画像を取得する。続いて、推定部133は、動画像に撮像された各車両をトラッキングすることにより、各車両の中心座標を繋いだ線を生成し、生成した線を各車両の軌跡として推定する(ステップS21)。推定部133は、各車両の中心座標を繋いだ線を描画した合成画像G12を生成してもよい。
【0032】
続いて、推定部133は、合成画像G12に基づいて、合成画像G12のうち、所定の閾値を超える濃さの画素のみを抽出する(ステップS22)。推定部133は、所定の閾値を超える濃さの画素のみを抽出した合成画像G13を生成してもよい。
【0033】
続いて、推定部133は、合成画像G13に基づいて、合成画像G13のうち、抽出された画素によって構成される各領域の輪郭を抽出し、各領域の外周の長さで各領域をクラスタリングする(ステップS23)。推定部133は、各領域をクラスタリングしたものを可視化した合成画像G14を生成してもよい。
【0034】
続いて、推定部133は、クラスタリングされた各領域が凸包になるように各領域を塗りつぶす(ステップS24)。推定部133は、各領域が凸包になるように塗りつぶされた状態を可視化した合成画像G15を生成してもよい。
【0035】
続いて、推定部133は、凸包に塗りつぶされた各領域のうち、面積が最大となるクラスタの領域を抽出し、抽出したクラスタの領域を道路領域として推定する。このように、推定部133は、車両の軌跡を含む凸包を道路領域として推定する。
図3に示す例では、推定部133は、面積が最大となるクラスタに属する要素が2つあるので、2つの要素のうち最も面積の大きい方を道路領域として推定する(ステップS25)。推定部133は、推定された道路領域を可視化した合成画像G16を生成してもよい。
【0036】
続いて、推定部133は、検出部132によって生成された車両を削除した画像に推定された道路領域を重畳する(ステップS25)。推定部133は、車両を削除した画像に推定された道路領域を重畳した合成画像G31を生成してもよい。
【0037】
図4は、実施形態に固定物領域の端の検出処理の一例を示す図である。
図4に示す画像G31は、
図3で生成された合成画像G31を示す。推定部133は、合成画像G31に基づいて、合成画像G31のうち、推定された道路領域を囲む外接矩形を生成する(ステップS31)。推定部133は、外接矩形を生成した場合に、車両を削除した画像に生成した外接矩形を重畳した合成画像G41を生成してもよい。
【0038】
続いて、推定部133は、車両を削除した画像上で外接矩形を外接矩形の長辺方向に移動させることにより、外接矩形の短辺と白線領域とが交差する交差状態から外接矩形の短辺と白線領域とが交差しない非交差状態へと変化する白線領域の端、または、非交差状態から交差状態へと変化する白線領域の端を検出する。推定部133は、画像上で外接矩形を外接矩形の長辺方向に移動させることにより、複数の白線領域の端を検出した場合に、検出された複数の白線領域の端それぞれの位置に基づく複数の基準線を生成する(ステップS41)。例えば、推定部133は、検出された複数の白線領域の端それぞれの位置に外接矩形の短辺と平行な複数の基準線を生成する。推定部133は、車両を削除した画像に生成した複数の基準線を重畳した合成画像G51を生成してもよい。
【0039】
続いて、推定部133は、白線に対して基準線の角度が直角になるように調整した複数の基準線を生成してもよい(ステップS42)。例えば、推定部133は、白線領域の端を検出した場合に、白線の長手方向に沿った直線の角度を算出する。続いて、推定部133は、算出した角度に対して、基準線の角度が直角となるように配置された複数の基準線を生成する。推定部133は、車両を削除した画像に角度が直角になるように調整した複数の基準線を重畳した合成画像G52を生成してもよい。これにより、情報処理装置100は、道路の進行方向に対して垂直な複数の基準線に基づいて速度情報を推定することができるので、速度情報をより精度よく推定することができる。
【0040】
また、道路の規格により、国内の一般道路における白線の長さは5mであり、白線同士の間隔の長さは5mであると決まっている。つまり、国内の一般道路は、白線領域の長さと白線同士の間隔の長さとの比率が1:1であり、白線領域の長さと白線同士の間隔の長さの合計の長さが10mである。また、道路の規格により、国内の高速道路における白線の長さは8mであり、白線同士の間隔の長さは12mであると決まっている。つまり、国内の高速道路は、白線領域の長さと白線同士の間隔の長さとの比率が1:1.5であり、白線領域の長さと白線同士の間隔の長さの合計の長さが20mである。すなわち、高速道路における白線領域の長さと白線同士の間隔の長さの合計の長さは、一般道路における白線領域の長さと白線同士の間隔の長さの合計の長さの2倍である。
【0041】
図5は、実施形態に道路の種類の推定処理の一例を示す図である。推定部133は、白線領域の長さと白線同士の間隔の長さとの比率に基づいて、道路の種類を推定する。
図5に示す画像G61は、取得部131が取得した動画像を構成する一のフレームを示す。推定部133は、画像G61のうち、道路が撮像された領域である道路領域以外の領域を塗りつぶす。続いて、推定部133は、合成画像全体をグレースケール変換する。続いて、推定部133は、グレースケール変換された合成画像に含まれるエッジを抽出する。続いて、推定部133は、エッジを抽出した合成画像をハフ変換して、合成画像のうち、白線が撮像された領域である白線領域を検出する。続いて、推定部133は、ハフ変換された合成画像に含まれる4つの白線領域の端それぞれを示す4つの点に座標を与えて射影変換する。
図5に示す画像G62は、画像G61に示す4つの点を射影変換した後の合成画像である。
図5に示す射影変換後の画像G62における白線領域の長さは73ピクセルであり、白線同士の間隔の長さは106ピクセルである。このとき、推定部133は、射影変換後の画像G62における白線領域の長さと白線同士の間隔の長さとの比率を1:1.45であると算出する。推定部133は、算出した比率が1:1.45であり、一般道路における白線領域の長さと白線同士の間隔の長さとの比率(1:1)よりも、高速道路における白線領域の長さと白線同士の間隔の長さとの比率(1:1.5)に近いので、画像G62に撮像された道路が高速道路であると推定する。
【0042】
続いて、推定部133は、推定された道路の種類に応じて、速度情報を推定する。例えば、推定部133は、推定された道路の種類が一般道路である場合には、2つの基準線の間の実距離を10mと特定する。また、推定部133は、推定された道路の種類が高速道路である場合には、2つの基準線の間の実距離を20mと特定する。また、推定部133は、動画像から、2つの基準線の間を車両が走行するのに要した時間を特定する。推定部133は、特定された2つの基準線の間の実距離を、2つの基準線の間を車両が走行するのに要した時間で除することにより、2つの基準線の間を走行した車両の走行速度を算出する。
【0043】
図6は、実施形態に係る機械学習モデルを用いた画像中の車両の検出処理の一例を示す図である。推定部133は、車両が撮像された画像等を学習データとして学習した学習済の機械学習モデルM1を用いて、画像中の車両を検出する。具体的には、推定部133は、車両が撮像された画像と、画像に撮像された車両の位置およびクラス(車両)を示す情報との組合せを含む学習データに基づいて、学習された機械学習モデルM1を取得する。より具体的には、推定部133は、車両が撮像された画像を入力情報として機械学習モデルに入力した場合に、画像に撮像された車両の位置およびクラス(車両)を示す情報が付加された画像を出力情報として出力するよう学習された機械学習モデルM1を取得する。例えば、推定部133は、記憶部120を参照して、記憶部120に記憶された学習済みの機械学習モデルM1を取得する。続いて、推定部133は、学習済みの機械学習モデルM1を取得すると、取得部131が取得した画像を学習済みの機械学習モデルに入力し、学習済みの機械学習モデルM1から出力された車両の位置およびクラス(車両)を示す情報が付加された画像を推定結果として取得する。
図6では、推定部133は、検出された各車両の位置情報として、各車両に外接する矩形の座標情報が付加された画像を推定結果として取得する。例えば、推定部133は、検出された各車両の位置情報として、車両に外接する矩形の中心点の位置を示す座標情報が付加された画像を推定結果として取得してよい。
【0044】
なお、推定部133が取得する学習済みの機械学習モデルM1は、例えば、畳み込みニューラルネットワークまたは回帰型ニューラルネットワークなどのニューラルネットワークによる機械学習によって生成されるが、かかる例に限定されない。例えば、推定部133が取得する学習済みの機械学習モデルM1は、ニューラルネットワークに代えて、線形回帰またはロジスティック回帰といった学習アルゴリズムによる機械学習を用いて生成されてもよい。
【0045】
図7は、実施形態に係る車両の移動距離の測定処理の一例を示す図である。
図7では、推定部133は、画像に撮像された道路が高速道路であると推定する。続いて、推定部133は、道路の種類が高速道路であると推定したので、画像中の基準線1および基準線2の間の実距離を20mと特定する。続いて、推定部133は、画像中の基準線1および基準線2の間の実距離を20mと特定したので、画像中の基準線1および基準線2の間を通過する車両を検出した場合、検出された車両の移動距離を20mと特定する。
【0046】
図8は、実施形態に係る車両の基準線通過の判定処理の一例を示す図である。推定部133は、取得部131が取得した各フレーム画像に、各フレーム画像中の車両の代表点の位置を示す座標情報(以下、位置情報ともいう)を記録する。例えば、推定部133は、各フレーム画像中の各車両を検出し、検出された各車両に外接する矩形の中心点の位置座標を代表点の位置座標として各フレーム画像と対応付けて記録してよい。また、推定部133は、現在のフレーム画像を取得し、取得された現在のフレーム画像中の所定の車両の代表点と、現在のフレーム画像と時間的に隣り合う次のフレーム画像中の所定の車両の代表点とを連結した線分が基準線と交差するか否かを判定する。推定部133は、現在のフレーム画像中の所定の車両の代表点と、次のフレーム画像中の所定の車両の代表点とを連結した線分が基準線と交差すると判定した場合、所定の車両が基準線を通過したと判定する。一方、推定部133は、現在のフレーム画像中の所定の車両の代表点と、次のフレーム画像中の所定の車両の代表点とを連結した線分が基準線と交差しないと判定した場合、所定の車両が基準線を通過していないと判定する。
【0047】
図9は、実施形態に係る車両の移動時間の測定処理の一例を示す図である。推定部133は、撮像装置10によって撮像された動画像のフレームレート(frame rate)に基づいて、画像中の車両の移動時間を推定する。
図9では、動画像のフレームレートが30(fps)である場合について説明する。推定部133は、車両が道路上の一つ目の基準線1を通過した瞬間のフレーム(以下、第1フレームともいう)に対応する時刻を記録する。例えば、推定部133は、車両が基準線1を通過した瞬間のフレームに対応する時刻として、30枚中、5枚目のフレームに対応する時刻を記録する。続いて、推定部133は、車両が道路上の二つ目の基準線2を通過した瞬間のフレーム(以下、第2フレームともいう)に対応する時刻を記録する。例えば、推定部133は、車両が基準線2を通過した瞬間のフレームに対応する時刻として、30枚中、17枚目のフレームに対応する時刻を記録する。続いて、推定部133は、車両が基準線2を通過した瞬間の第2フレームに対応する時刻と、車両が基準線1を通過した瞬間の第1フレームに対応する時刻との時間差を算出し、算出した時間差に対応する時間を、車両が基準線1と基準線2の間を通過するのに要した移動時間であると推定する。例えば、推定部133は、動画像のフレームレートが30(fps)である場合、17枚目のフレームに対応する時刻と、5枚目のフレームに対応する時刻との時間差を「(17-5)/30=0.4秒」と算出する。続いて、推定部133は、算出した時間差である「0.4秒」を車両が基準線1と基準線2の間を通過するのに要した移動時間であると推定する。このように、推定部133は、隣り合う2つの基準線のうち一方の基準線を通過した車両が撮像された第1フレームに対応する時刻と、2つの基準線のうち他方の基準線を通過した車両が撮像された第2フレームに対応する時刻との時間差に相当する時間を、車両が2つの基準線の間を通過するのに要した移動時間であると推定する。
【0048】
なお、
図9では、推定部133が、動画像のフレームレートに基づいて、画像中の車両の移動時間を推定する場合について説明したが、推定部133は、画像中の車両の移動時間を推定する方法はこれに限られない。例えば、推定部133は、車両が基準線1および基準線2を通過したそれぞれの時刻を取得し、取得したそれぞれの時刻の差分を車両が基準線1と基準線2の間を通過するのに要した移動時間であると推定してもよい。
【0049】
続いて、推定部133は、推定された速度情報に基づいて、道路の交通情報を推定する。例えば、推定部133は、推定された速度情報に基づいて、交通情報として、全国の各道路における渋滞情報、各道路における通行止めまたは事故の発生状況等の情報を推定する。
【0050】
(提供部134)
提供部134は、推定部133によって推定された道路の交通情報を提供する。具体的には、提供部134は、推定部133によって推定された道路の交通情報を利用者の端末装置に送信する。
【0051】
〔2.情報処理手順〕
図10は、実施形態に係る検出手順を示すフローチャートである。
図10に示すように、情報処理装置100の取得部131は、道路の画像を撮像する撮像装置10から画像を取得する(ステップS101)。また、情報処理装置100の検出部132は、取得部131が取得した画像から車両や人物といった移動物体を削除する(ステップS102)。続いて、検出部132は、移動物体を削除した画像のうち、道路上に固定された固定物が撮像された領域である固定物領域を検出する(ステップS103)。
【0052】
図11は、実施形態に係る推定手順を示すフローチャートである。
図11に示すように、情報処理装置100の取得部131は、道路の画像を撮像する撮像装置10から画像を取得する(ステップS201)。また、情報処理装置100の推定部133は、車両の軌跡に基づいて、道路領域を推定する(ステップS202)。続いて、推定部133は、道路領域の外接矩形を生成する(ステップS203)。続いて、推定部133は、画像上で外接矩形の長辺方向に外接矩形の短辺を移動させることにより、固定物領域の端を検出する(ステップS204)。続いて、推定部133は、固定物領域の端を2以上検出したか否かを判定する(ステップS205)。推定部133は、固定物領域の端を2以上検出したと判定した場合(ステップS205;Yes)、検出された2つの固定物領域の端それぞれの位置に基づく2本の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する(ステップS206)。一方、推定部133は、固定物領域の端を2以上検出していないと判定した場合(ステップS205;No)、ステップS204の処理を繰り返す。
【0053】
〔3.変形例〕
上述した実施形態に係る情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
【0054】
〔3-1.第1の変形例〕
図12は、第1の変形例に係る情報処理の概要について説明するための図である。上述した実施形態では、情報処理装置100が、1つの道路R1上に固定された白線領域の位置に基づく2つの基準線L1およびL2を用いて速度情報を推定する場合について説明した。
図12では、情報処理装置100が、隣り合う2つの道路R2およびR3上にそれぞれ固定された白線領域の位置に基づく2本の基準線を用いて速度情報を推定する場合について説明する。
【0055】
図12は、動画像に写っていた車両を削除した後の合成画像G7を示す。
図12では、車両が削除された後の隣り合う2つの道路R2およびR3が合成画像G7に写っている。また、合成画像G7には、左側の道路R2上の2つの車線を区分する白線が撮像された白線領域O11およびO12が道路R3上に写っている。また、合成画像G7には、右側の道路R3上の2つの車線を区分する白線が撮像された白線領域O21およびO22が道路R3上に写っている。
【0056】
具体的には、検出部132は、合成画像G7に対してハフ変換等の画像処理を行うことで、左側の道路R2上の白線領域O11およびO12、ならびに、右側の道路R3上の白線領域O21およびO22を検出する。なお、
図12では、白線領域O11およびO12の各形状は、道路R2の進行方向と平行な方向に長い線状とみなせる。また、白線領域O21およびO22の各形状は、道路R3の進行方向と平行な方向に長い線状とみなせる。
【0057】
また、図示は省略するが、推定部133は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、各道路の道路領域をそれぞれ推定する。続いて、推定部133は、各道路領域を囲む外接矩形をそれぞれ生成する。続いて、推定部133は、各道路上で各外接矩形を各外接矩形の長辺方向に移動させることにより、道路R2上で隣り合う2つの白線領域O11およびO12の端、ならびに、道路R3上で隣り合う2つの白線領域O21およびO22の端をそれぞれ特定する。続いて、推定部133は、道路R2上の白線領域O11の端と道路R3上の白線領域O21の端を繋ぐ基準線L3、および、道路R2上の白線領域O12の端と道路R3上の白線領域O22の端を繋ぐ基準線L4を用いて、速度情報を推定する。
【0058】
これにより、情報処理装置100は、1つの道路上の白線領域に基づく複数の基準線を用いた場合と比べて、遠近法の影響で生じる画像中の距離の誤差を小さくすることができるため、速度情報をより精度よく推定することができる。
【0059】
〔3-2.第2の変形例〕
図13は、第2の変形例に係る情報処理の概要について説明するための図である。上述した実施形態では、情報処理装置100が、道路上に固定された白線が撮像された白線領域を検出し、検出された白線領域の位置に基づく画像上の複数の基準線を用いて速度情報を推定する場合について説明したが、これに限られない。具体的には、情報処理装置100は、白線以外にも、画像中の道路の進行方向の距離の基準となる基準点を含む固定物が撮像された固定物領域であれば、どのような固定物領域の位置に基づく画像上の複数の基準線を用いて速度情報を推定してもよい。例えば、固定物は、車線を区分する白線の他に、横断歩道の白線または停止線の白線であってよい。
【0060】
図13では、情報処理装置100が、白線領域の代わりに、横断歩道が撮像された歩道領域の位置に基づく画像上の複数の基準線を用いて速度情報を推定する点が上述した実施形態と異なる。
図13は、動画像に写っていた車両を削除した後の合成画像G81を示す。
図13では、車両が削除された後の道路上に固定された横断歩道が合成画像G81に写っている。なお、
図13では、情報処理装置100が、直線状の道路上に固定された横断歩道の幅(つまり、車両の進行方向の長さ)を示すデータを外部のデータベース等から取得できた場合に、以下の処理を行う。
【0061】
具体的には、検出部132は、合成画像G81に対してハフ変換等の画像処理を行うことで、道路上に固定された横断歩道の7つの白線それぞれが撮像された7つの白線領域O31~O37を検出する。なお、
図13では、白線領域O31~O37の各形状は、道路の進行方向と平行な方向に長い線状とみなせる。
【0062】
また、図示は省略するが、推定部133は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、道路の道路領域を推定する。続いて、推定部133は、道路領域を囲む外接矩形を生成する。続いて、推定部133は、道路上で外接矩形を外接矩形の長辺方向に移動させることにより、各白線領域O31~O37の一方の端、および、各白線領域O31~O37の他方の端をそれぞれ特定する。続いて、推定部133は、各白線領域O31~O37の一方の端を繋ぐ基準線L6、および、各白線領域O31~O37の他方の端を繋ぐ基準線L7を用いて、速度情報を推定する。
【0063】
〔3-3.第3の変形例〕
図14は、第3の変形例に係る情報処理の概要について説明するための図である。
図14では、情報処理装置100が、歩道領域の両端の位置に基づく画像上の複数の基準線を用いて速度情報を推定する代わりに、横断歩道から所定の範囲内に位置する停止線の一端および歩道領域の一端の位置に基づく画像上の複数の基準線を用いて速度情報を推定する点が
図13と異なる。
図14は、動画像に写っていた車両を削除した後の合成画像G82を示す。
図14では、
図13と同様に、車両が削除された後の道路上に固定された横断歩道および横断歩道から所定の範囲内に位置する停止線(
図13参照)が合成画像G82に写っている。なお、
図14では、情報処理装置100が、直線状の道路上に固定された横断歩道の端を結ぶ線と停止線との距離を示すデータを外部のデータベース等から取得できた場合に、以下の処理を行う。
【0064】
具体的には、検出部132は、合成画像G82に対してハフ変換等の画像処理を行うことで、道路上に固定された横断歩道の7つの白線それぞれが撮像された7つの白線領域O31~O37、および、横断歩道から所定の範囲内に位置する停止線が撮像された白線領域O4(
図13参照)を検出する。なお、
図14では、白線領域O31~O37の各形状は、道路の進行方向と平行な方向に長い線状とみなせる。また、白線領域O4の形状は、道路の進行方向と垂直な方向に長い線状とみなせる。
【0065】
また、図示は省略するが、推定部133は、取得した動画像に撮像された各車両をトラッキングすることにより各車両の軌跡を推定し、推定した各車両の軌跡に基づいて、道路の道路領域を推定する。続いて、推定部133は、道路領域を囲む外接矩形を生成する。続いて、推定部133は、道路上で外接矩形を外接矩形の長辺方向に移動させることにより、各白線領域O31~O37の両端のうち停止線に近い方の端、および、白線領域O4の端をそれぞれ特定する。続いて、推定部133は、各白線領域O31~O37の停止線に近い方の端を繋ぐ基準線L7、および、白線領域O4の端と平行な基準線L8を用いて、速度情報を推定する。
【0066】
〔4.効果〕
上述したように、実施形態に係る情報処理装置100は、検出部132と推定部133を備える。検出部132は、道路の画像を撮像する撮像装置10から取得した画像のうち、道路上に固定された固定物が撮像された領域である固定物領域を検出する。推定部133は、検出部132によって検出された固定物領域の位置に基づく画像上の複数の基準線を用いて、道路上を走行する車両の走行速度に関する速度情報を推定する。
【0067】
これにより、情報処理装置100は、撮像装置が一台であっても、道路上を走行する車両の走行速度に関する速度情報を精度よく推定することができる。
【0068】
また、推定部133は、画像のうち、車両の走行頻度が所定の閾値を超える領域を含む道路領域を囲む外接矩形と、固定物領域とに基づいて、固定物領域の端を検出し、検出された固定物領域の端の位置に基づく複数の基準線を用いて、速度情報を推定する。
【0069】
これにより、情報処理装置100は、例えば、道路の両端等の直線を含むことなく、道路の中央付近に固定された白線に基づいて、速度情報を精度よく推定することができる。
【0070】
また、推定部133は、画像上で外接矩形を外接矩形の長辺方向に移動させることにより、外接矩形の短辺と固定物領域とが交差する交差状態から外接矩形の短辺と固定物領域とが交差しない非交差状態へと変化する固定物領域の端、または、非交差状態から交差状態へと変化する固定物領域の端を検出する。
【0071】
これにより、情報処理装置100は、道路の進行方向に沿って、固定物領域の端を適切に検出することができる。
【0072】
また、推定部133は、画像上で外接矩形を外接矩形の長辺方向に移動させることにより、複数の固定物領域の端を検出した場合に、検出された複数の固定物領域の端それぞれの位置に基づく複数の基準線を用いて、速度情報を推定する。
【0073】
これにより、情報処理装置100は、複数の基準線を用いて、速度情報を精度よく推定することができる。
【0074】
また、推定部133は、外接矩形の短辺と平行な複数の基準線を用いて、速度情報を推定する。
【0075】
これにより、情報処理装置100は、速度情報をより精度よく推定することができる。
【0076】
また、推定部133は、動画像である画像に撮像された車両をトラッキングすることにより推定された車両の軌跡に基づいて、道路領域を推定する。
【0077】
これにより、情報処理装置100は、道路のうち、車両の走行頻度が所定の閾値を超える領域を適切に推定することができる。
【0078】
また、推定部133は、車両の軌跡を含む凸包を道路領域として推定する。
【0079】
これにより、情報処理装置100は、道路のうち、車両の走行頻度が所定の閾値を超える領域を適切に推定することができる。
【0080】
また、推定部133は、外接矩形の面積が最小となる最小外接矩形と、固定物領域とに基づいて、固定物領域の端を検出する。
【0081】
これにより、情報処理装置100は、固定物領域の端を精度よく推定することができる。
【0082】
また、固定物は、道路上に固定された白線である。検出部132は、固定物領域として、白線が撮像された領域である白線領域を検出する。推定部133は、白線領域の長さと白線同士の間隔の長さとの比率に基づいて、道路の種類を推定し、推定された道路の種類に応じて、複数の基準線の間の実距離を推定する。
【0083】
これにより、情報処理装置100は、道路の種類に応じて、画像中の複数の基準線の間の実距離を精度よく推定することができるので、速度情報をより精度よく推定することができる。
【0084】
また、推定部133は、所定の車両が撮像された車両画像と、車両画像に撮像された所定の車両の位置およびクラスを示す情報との組合せを含む学習データに基づいて、学習された学習済みの機械学習モデルを用いて、画像中の車両を検出する。
【0085】
これにより、情報処理装置100は、画像中の車両を精度よく検出することができるため、速度情報をより精度よく推定することができる。
【0086】
また、推定部133は、一のフレーム画像中の車両の位置を示す第1代表点と、一のフレーム画像と時間的に隣り合う次のフレーム画像中の車両の位置を示す第2代表点とを連結した線分と、基準線とが交差するか否かを判定し、線分と基準線とが交差すると判定した場合、車両が基準線を通過したと判定し、線分と基準線とが交差しないと判定した場合、車両が基準線を通過していないと判定する。
【0087】
これにより、情報処理装置100は、車両が基準線を通過したか否かを精度よく判定することができるため、速度情報をより精度よく推定することができる。
【0088】
また、推定部133は、隣り合う2つの基準線のうち一方の基準線を通過した車両が撮像された第1フレームに対応する時刻と、2つの基準線のうち他方の基準線を通過した車両が撮像された第2フレームに対応する時刻との時間差に相当する時間を、車両が2つの基準線の間を通過するのに要した移動時間であると推定する。
【0089】
これにより、情報処理装置100は、車両が複数の基準線の間を通過するのに要した移動時間を精度よく判定することができるため、速度情報をより精度よく推定することができる。
【0090】
また、推定部133は、推定された速度情報に基づいて、道路の交通情報を推定する。
【0091】
これにより、情報処理装置100は、精度の良い速度情報に基づくため、道路の交通情報を精度よく推定することができる。
【0092】
〔5.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば
図15に示すような構成のコンピュータ1000によって実現される。
図15は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
【0093】
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
【0094】
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
【0095】
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
【0096】
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
【0097】
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
【0098】
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【0099】
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
【0100】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0101】
また、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。
【0102】
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
【0103】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。
【符号の説明】
【0104】
1 情報処理システム
10 撮像装置
100 情報処理装置
110 通信部
120 記憶部
130 制御部
131 取得部
132 検出部
133 推定部
134 提供部