(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023167690
(43)【公開日】2023-11-24
(54)【発明の名称】評価方法、プログラム、及び、評価システム
(51)【国際特許分類】
G06V 40/20 20220101AFI20231116BHJP
G06T 7/00 20170101ALI20231116BHJP
【FI】
G06V40/20
G06T7/00 350C
【審査請求】未請求
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2022079051
(22)【出願日】2022-05-12
(71)【出願人】
【識別番号】000002945
【氏名又は名称】オムロン株式会社
(74)【代理人】
【識別番号】100145403
【弁理士】
【氏名又は名称】山尾 憲人
(74)【代理人】
【識別番号】100189555
【弁理士】
【氏名又は名称】徳山 英浩
(72)【発明者】
【氏名】籔内 智浩
(72)【発明者】
【氏名】岩本 直人
(72)【発明者】
【氏名】佐々木 勇輝
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096BA02
5L096CA04
5L096DA02
5L096FA67
5L096FA69
5L096GA51
5L096HA03
5L096HA09
5L096HA11
5L096JA11
5L096JA18
5L096KA04
(57)【要約】
【課題】移動体の移動方向の評価の精度の向上を可能にする、評価方法、プログラム、及び、評価システムを提供する。
【解決手段】評価方法は、複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される。複数の学習済みモデルは、画像中の移動体の全体に基づく全体情報の入力に対して、移動体の移動方向の評価を出力するように学習された簡易モデル(低解像度モデル5)と、全体情報と移動体の部位に基づく部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された詳細モデル(中解像度モデル6、高解像度モデル7)とを含む。評価方法は、対象画像から検出された移動体の画像の解像度が閾値未満である場合、簡易モデルに全体情報を入力して、移動体の移動方向の評価を出力させる。評価方法は、解像度が閾値以上である場合、詳細モデルに全体情報及び部位情報を入力して、移動体の移動方向の評価を出力させる。
【選択図】
図2
【特許請求の範囲】
【請求項1】
複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法であって、
前記複数の学習済みモデルは、
画像情報中の移動体の全体に基づく1又は複数の全体情報の入力に対して、前記移動体の移動方向の評価を出力するように学習された簡易モデルと、
前記1又は複数の全体情報の少なくとも一つと、前記移動体の1又は複数の部位に基づく1又は複数の部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された詳細モデルと、
を含み、
前記評価方法は、
対象画像情報から検出された前記移動体の画像の解像度が閾値未満である場合に、前記複数の学習済みモデルから前記簡易モデルを選択し、前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報を、前記簡易モデルに入力して、前記簡易モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させ、
前記解像度が前記閾値以上である場合に、前記複数の学習済みモデルから前記詳細モデルを選択し、前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報の少なくとも一つと前記1又は複数の部位情報とを、前記詳細モデルに入力して、前記詳細モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させる、
評価方法。
【請求項2】
複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法であって、
前記複数の学習済みモデルは、
画像情報中の移動体の全体に基づく1又は複数の全体情報の入力に対して、前記移動体の移動方向の評価を出力するように学習された簡易モデルと、
前記1又は複数の全体情報の少なくとも一つと、前記移動体の1又は複数の部位に基づく1又は複数の部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された詳細モデルと、
を含み、
前記評価方法は、
対象画像情報から検出された前記移動体の画像の解像度が閾値未満であることを確認し、
前記解像度が前記閾値未満であることを確認したことに応答して前記複数の学習済みモデルから前記簡易モデルを選択し、
前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報を、前記簡易モデルに入力して、前記簡易モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させる、
評価方法。
【請求項3】
複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法であって、
前記複数の学習済みモデルは、
画像情報中の移動体の全体に基づく1又は複数の全体情報の入力に対して、前記移動体の移動方向の評価を出力するように学習された簡易モデルと、
前記1又は複数の全体情報の少なくとも一つと、前記移動体の1又は複数の部位に基づく1又は複数の部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された詳細モデルと、
を含み、
前記評価方法は、
対象画像情報から検出された前記移動体の画像の解像度が閾値以上であることを確認し、
前記解像度が前記閾値以上であることを確認したことに応答して前記複数の学習済みモデルから前記詳細モデルを選択し、
前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報の少なくとも一つと前記1又は複数の部位情報とを、前記詳細モデルに入力して、前記詳細モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させる、
評価方法。
【請求項4】
前記解像度は、前記対象画像情報から検出された前記移動体のバウンディングボックスの面積に基づいて決定される、
請求項1~3のいずれか一つに記載の評価方法。
【請求項5】
前記1又は複数の全体情報は、前記移動体の位置、前記移動体の速度、及び、前記移動体の全体の画像の少なくとも一つを含む、
請求項1~3のいずれか一つに記載の評価方法。
【請求項6】
前記1又は複数の部位情報は、前記移動体の前記1又は複数の部位の位置、前記移動体の1又は複数の部位の向き、前記移動体の1又は複数の部位の画像、及び、前記移動体の前記複数の部位の関連性に基づく情報の少なくとも一つを含む、
請求項1~3のいずれか一つに記載の評価方法。
【請求項7】
前記1又は複数の部位の位置は、前記移動体の顔の位置を含む、
請求項6に記載の評価方法。
【請求項8】
前記1又は複数の部位の向きは、前記移動体の顔の向きと前記移動体の視線との少なくとも一つを含む、
請求項6に記載の評価方法。
【請求項9】
前記1又は複数の部位の画像は、前記移動体の顔の画像を含む、
請求項6に記載の評価方法。
【請求項10】
前記複数の部位の関連性に基づく情報は、前記移動体の姿勢に関する情報を含む、
請求項6に記載の評価方法。
【請求項11】
前記移動体の移動方向の評価は、前記移動体の移動方向が第1移動方向である確率と前記移動体の移動方向が第2移動方向である確率とを含み、
前記第1移動方向は、前記移動体が対象物に向かう方向であり、
前記第2移動方向は、前記移動体が対象物を回避する方向である、
請求項1~3のいずれか一つに記載の評価方法。
【請求項12】
複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法であって、
前記複数の学習済みモデルは、
画像情報中の移動体の全体に基づく1又は複数の全体情報と、前記移動体の1又は複数の第1部位に基づく1又は複数の第1部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された第1モデルと、
前記1又は複数の全体情報の少なくとも一つと、前記1又は複数の第1部位情報の少なくとも一つと、前記移動体の1又は複数の第2部位に基づく1又は複数の第2部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された第2モデルと、
を含み、
前記1又は複数の第2部位は、前記1又は複数の第1部位よりも小さく、
前記評価方法は、
対象画像情報から検出された前記移動体の画像の解像度が閾値未満である場合に、前記複数の学習済みモデルから前記第1モデルを選択し、前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報と前記1又は複数の第1部位情報とを、前記第1モデルに入力して、前記第1モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させ、
前記解像度が前記閾値以上である場合に、前記複数の学習済みモデルから前記第2モデルを選択し、前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報の少なくとも一つと前記1又は複数の第1部位情報の少なくとも一つと前記1又は複数の第2部位情報とを、前記第2モデルに入力して、前記第2モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させる、
評価方法。
【請求項13】
複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法であって、
前記複数の学習済みモデルは、
画像情報中の移動体の全体に基づく1又は複数の全体情報と、前記移動体の1又は複数の第1部位に基づく1又は複数の第1部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された第1モデルと、
前記1又は複数の全体情報の少なくとも一つと、前記1又は複数の第1部位情報の少なくとも一つと、前記移動体の1又は複数の第2部位に基づく1又は複数の第2部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された第2モデルと、
を含み、
前記1又は複数の第2部位は、前記1又は複数の第1部位よりも小さく、
前記評価方法は、
対象画像情報から検出された前記移動体の画像の解像度が閾値未満であることを確認し、
前記解像度が前記閾値未満であることを確認したことに応答して前記複数の学習済みモデルから前記第1モデルを選択し、
前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報と前記1又は複数の第1部位情報とを、前記第1モデルに入力して、前記第1モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させる、
評価方法。
【請求項14】
複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法であって、
前記複数の学習済みモデルは、
画像情報中の移動体の全体に基づく1又は複数の全体情報と、前記移動体の1又は複数の第1部位に基づく1又は複数の第1部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された第1モデルと、
前記1又は複数の全体情報の少なくとも一つと、前記1又は複数の第1部位情報の少なくとも一つと、前記移動体の1又は複数の第2部位に基づく1又は複数の第2部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された第2モデルと、
を含み、
前記1又は複数の第2部位は、前記1又は複数の第1部位よりも小さく、
前記評価方法は、
対象画像情報から検出された前記移動体の画像の解像度が閾値以上であることを確認し、
前記解像度が前記閾値以上であることを確認したことに応答して前記複数の学習済みモデルから前記第2モデルを選択し、
前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報の少なくとも一つと前記1又は複数の第1部位情報の少なくとも一つと前記1又は複数の第2部位情報とを、前記第2モデルに入力して、前記第2モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させる、
評価方法。
【請求項15】
請求項1~3及び12~14のいずれか一つに記載の評価方法を、前記演算回路に実行させるための、
プログラム。
【請求項16】
複数の学習済みモデルを記憶する記憶装置と、
前記記憶装置にアクセス可能な演算回路と、
を備え、
前記複数の学習済みモデルは、
画像情報中の移動体の全体に基づく1又は複数の全体情報の入力に対して、前記移動体の移動方向の評価を出力するように学習された簡易モデルと、
前記1又は複数の全体情報の少なくとも一つと、前記移動体の1又は複数の部位に基づく1又は複数の部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された詳細モデルと、
を含み、
前記演算回路は、
対象画像情報から検出された前記移動体の画像の解像度が閾値未満である場合に、前記複数の学習済みモデルから前記簡易モデルを選択し、前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報を、前記簡易モデルに入力して、前記簡易モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させ、
前記解像度が前記閾値以上である場合に、前記複数の学習済みモデルから前記詳細モデルを選択し、前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報の少なくとも一つと前記1又は複数の部位情報とを、前記詳細モデルに入力して、前記詳細モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させる、
評価システム。
【請求項17】
複数の学習済みモデルを記憶する記憶装置と、
前記記憶装置にアクセス可能な演算回路と、
を備え、
前記複数の学習済みモデルは、
画像情報中の移動体の全体に基づく1又は複数の全体情報と、前記移動体の1又は複数の第1部位に基づく1又は複数の第1部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された第1モデルと、
前記1又は複数の全体情報の少なくとも一つと、前記1又は複数の第1部位情報の少なくとも一つと、前記移動体の1又は複数の第2部位に基づく1又は複数の第2部位情報との入力に対して、前記移動体の移動方向の評価を出力するように学習された第2モデルと、
を含み、
前記1又は複数の第2部位は、前記1又は複数の第1部位よりも小さく、
前記演算回路は、
対象画像情報から検出された前記移動体の画像の解像度が閾値未満である場合に、前記複数の学習済みモデルから前記第1モデルを選択し、前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報と前記1又は複数の第1部位情報とを、前記第1モデルに入力して、前記第1モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させ、
前記解像度が前記閾値以上である場合に、前記複数の学習済みモデルから前記第2モデルを選択し、前記対象画像情報から検出された前記移動体の前記1又は複数の全体情報の少なくとも一つと前記1又は複数の第1部位情報の少なくとも一つと前記1又は複数の第2部位情報とを、前記第2モデルに入力して、前記第2モデルに前記対象画像情報から検出された前記移動体の移動方向の評価を出力させる、
評価システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、評価方法、プログラム(コンピュータプログラム)、及び、評価システムに関する。
【背景技術】
【0002】
非特許文献1は、ディープニューラルネットワークモデルを利用して歩行者の横断意図を予測するための技術を開示する。非特許文献1では、車両速度、歩行者のバウンディングボックス、及び、歩行者の姿勢のキーポイントから、非視覚ベースの特徴量を抽出し、画像の局所的なコンテキストと画像の全体的なコンテキストとから視覚ベースの特徴量を抽出し、非視覚ベースの特徴量と視覚ベースの特徴量を融合した特徴量により、歩行者の横断意図を予測する。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Dongfang Yang,他4名,“Predicting Pedestrian Crossing Intention with Feature Fusion and Spatio-Temporal Attention”,[online],2021年4月12日,[2022年4月11日検索],Cornell University,インターネット<URL:https://arxiv.org/abs/2104.05485>
【発明の概要】
【発明が解決しようとする課題】
【0004】
非特許文献1に開示された技術では、車両速度、歩行者のバウンディングボックス、歩行者の姿勢のキーポイント、画像の局所的なコンテキスト、及び、画像の全体的なコンテキストといった様々な情報を用いることで、歩行者の横断意図の高精度な予測ができることが期待される。
【0005】
歩行者の横断意図の予測といった移動体の移動方向の評価においては、非特許文献1で開示されているような様々な情報それ自体の精度も、移動体の移動方向の評価の精度に影響を及ぼし得る。そのため、単純に、移動体の移動方向の評価に利用する情報を増やしただけでは、必ずしも、移動体の移動方向の評価の精度の向上につながらない場合がある。
【0006】
本開示は、移動体の移動方向の評価の精度の向上を可能にする、評価方法、プログラム、及び、評価システムを提供する。
【課題を解決するための手段】
【0007】
本開示の一態様にかかる評価方法は、複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法である。複数の学習済みモデルは、画像情報中の移動体の全体に基づく1又は複数の全体情報の入力に対して、移動体の移動方向の評価を出力するように学習された簡易モデルと、1又は複数の全体情報の少なくとも一つと、移動体の1又は複数の部位に基づく1又は複数の部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された詳細モデルと、を含む。評価方法は、対象画像情報から検出された移動体の画像の解像度が閾値未満である場合に、複数の学習済みモデルから簡易モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報を、簡易モデルに入力して、簡易モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。評価方法は、解像度が閾値以上である場合に、複数の学習済みモデルから詳細モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報の少なくとも一つと1又は複数の部位情報とを、詳細モデルに入力して、詳細モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。
【0008】
本開示の一態様にかかる評価方法は、複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法である。複数の学習済みモデルは、画像情報中の移動体の全体に基づく1又は複数の全体情報の入力に対して、移動体の移動方向の評価を出力するように学習された簡易モデルと、1又は複数の全体情報の少なくとも一つと、移動体の1又は複数の部位に基づく1又は複数の部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された詳細モデルと、を含む。評価方法は、対象画像情報から検出された移動体の画像の解像度が閾値未満であることを確認し、解像度が閾値未満であることを確認したことに応答して複数の学習済みモデルから簡易モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報を、簡易モデルに入力して、簡易モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。
【0009】
本開示の一態様にかかる評価方法は、複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法である。複数の学習済みモデルは、画像情報中の移動体の全体に基づく1又は複数の全体情報の入力に対して、移動体の移動方向の評価を出力するように学習された簡易モデルと、1又は複数の全体情報の少なくとも一つと、移動体の1又は複数の部位に基づく1又は複数の部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された詳細モデルと、を含む。評価方法は、対象画像情報から検出された移動体の画像の解像度が閾値以上であることを確認し、解像度が閾値以上であることを確認したことに応答して複数の学習済みモデルから詳細モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報の少なくとも一つと1又は複数の部位情報とを、詳細モデルに入力して、詳細モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。
【0010】
本開示の一態様にかかる評価方法は、複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法である。複数の学習済みモデルは、画像情報中の移動体の全体に基づく1又は複数の全体情報と、移動体の1又は複数の第1部位に基づく1又は複数の第1部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された第1モデルと、1又は複数の全体情報の少なくとも一つと、1又は複数の第1部位情報の少なくとも一つと、移動体の1又は複数の第2部位に基づく1又は複数の第2部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された第2モデルと、を含む。1又は複数の第2部位は、1又は複数の第1部位よりも小さい。評価方法は、対象画像情報から検出された移動体の画像の解像度が閾値未満である場合に、複数の学習済みモデルから第1モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報と1又は複数の第1部位情報とを、第1モデルに入力して、第1モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。評価方法は、解像度が閾値以上である場合に、複数の学習済みモデルから第2モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報の少なくとも一つと1又は複数の第1部位情報の少なくとも一つと1又は複数の第2部位情報とを、第2モデルに入力して、第2モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。
【0011】
本開示の一態様にかかる評価方法は、複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法である。複数の学習済みモデルは、画像情報中の移動体の全体に基づく1又は複数の全体情報と、移動体の1又は複数の第1部位に基づく1又は複数の第1部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された第1モデルと、1又は複数の全体情報の少なくとも一つと、1又は複数の第1部位情報の少なくとも一つと、移動体の1又は複数の第2部位に基づく1又は複数の第2部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された第2モデルと、を含む。1又は複数の第2部位は、1又は複数の第1部位よりも小さい。評価方法は、対象画像情報から検出された移動体の画像の解像度が閾値未満であることを確認し、解像度が閾値未満であることを確認したことに応答して複数の学習済みモデルから第1モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報と1又は複数の第1部位情報とを、第1モデルに入力して、第1モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。
【0012】
本開示の一態様にかかる評価方法は、複数の学習済みモデルを記憶する記憶装置にアクセス可能な演算回路で実行される評価方法である。複数の学習済みモデルは、画像情報中の移動体の全体に基づく1又は複数の全体情報と、移動体の1又は複数の第1部位に基づく1又は複数の第1部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された第1モデルと、1又は複数の全体情報の少なくとも一つと、1又は複数の第1部位情報の少なくとも一つと、移動体の1又は複数の第2部位に基づく1又は複数の第2部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された第2モデルと、を含む。1又は複数の第2部位は、1又は複数の第1部位よりも小さい。評価方法は、対象画像情報から検出された移動体の画像の解像度が閾値以上であることを確認し、解像度が閾値以上であることを確認したことに応答して複数の学習済みモデルから第2モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報の少なくとも一つと1又は複数の第1部位情報の少なくとも一つと1又は複数の第2部位情報とを、第2モデルに入力して、第2モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。
【0013】
本開示の一態様にかかるプログラムは、上記のいずれかの評価方法を、演算回路に実行させるための、プログラムである。
【0014】
本開示の一態様にかかる評価システムは、複数の学習済みモデルを記憶する記憶装置と、記憶装置にアクセス可能な演算回路と、を備える。複数の学習済みモデルは、画像情報中の移動体の全体に基づく1又は複数の全体情報の入力に対して、移動体の移動方向の評価を出力するように学習された簡易モデルと、1又は複数の全体情報の少なくとも一つと、移動体の1又は複数の部位に基づく1又は複数の部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された詳細モデルと、を含む。演算回路は、対象画像情報から検出された移動体の画像の解像度が閾値未満である場合に、複数の学習済みモデルから簡易モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報を、簡易モデルに入力して、簡易モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。演算回路は、解像度が閾値以上である場合に、複数の学習済みモデルから詳細モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報の少なくとも一つと1又は複数の部位情報とを、詳細モデルに入力して、詳細モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。
【0015】
本開示の一態様にかかる評価システムは、複数の学習済みモデルを記憶する記憶装置と、記憶装置にアクセス可能な演算回路と、を備える。複数の学習済みモデルは、画像情報中の移動体の全体に基づく1又は複数の全体情報と、移動体の1又は複数の第1部位に基づく1又は複数の第1部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された第1モデルと、1又は複数の全体情報の少なくとも一つと、1又は複数の第1部位情報の少なくとも一つと、移動体の1又は複数の第2部位に基づく1又は複数の第2部位情報との入力に対して、移動体の移動方向の評価を出力するように学習された第2モデルと、を含む。1又は複数の第2部位は、1又は複数の第1部位よりも小さい。演算回路は、対象画像情報から検出された移動体の画像の解像度が閾値未満である場合に、複数の学習済みモデルから第1モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報と1又は複数の第1部位情報とを、第1モデルに入力して、第1モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。演算回路は、解像度が閾値以上である場合に、複数の学習済みモデルから第2モデルを選択し、対象画像情報から検出された移動体の1又は複数の全体情報の少なくとも一つと1又は複数の第1部位情報の少なくとも一つと1又は複数の第2部位情報とを、第2モデルに入力して、第2モデルに対象画像情報から検出された移動体の移動方向の評価を出力させる。
【発明の効果】
【0016】
本開示の態様は、移動体の移動方向の評価の精度の向上を可能にする。
【図面の簡単な説明】
【0017】
【
図1】一実施の形態にかかる評価システムを備える移動装置の構成例のブロック図
【
図2】
図1の評価システムで実行される処理の一例のフローチャート
【
図5】
図1の移動装置と移動体との位置関係の説明図
【
図6】遠距離にある移動体が写る画像の一例の概略図
【
図7】中距離にある移動体が写る画像の一例の概略図
【
図8】近距離にある移動体が写る画像の一例の概略図
【
図9】
図1の評価システムが備える低解像度モデルの構成例の概略説明図
【
図10】
図1の評価システムが備える中解像度モデルの構成例の概略説明図
【
図11】
図1の評価システムが備える高解像度モデルの構成例の概略説明図
【発明を実施するための形態】
【0018】
[1.実施の形態]
[1.1 構成]
図1は、一実施の形態にかかる移動装置1の構成例のブロック図である。移動装置1は、例えば、自律移動可能なロボットである。移動装置1は、評価システム2と、撮像システム3と、制御システム4とを備える。
【0019】
評価システム2は、移動体10の移動方向(移動意図)の評価を行うためのシステムである。換言すれば、評価システム2は、移動体10の移動予測を行うためのシステムである。本実施の形態において、評価システム2は、移動体10の写る画像情報を撮像システム3から取得し、移動体10の移動方向の評価の結果を制御システム4に提供し、制御システム4にて移動体10の移動方向の評価の結果に応じた動作を実行させるために用いられる。
【0020】
移動体10は、評価システム2による移動方向の評価の対象となる視認可能な物体である。移動体10は、自律的に移動可能な物体である。つまり、移動体10の状態には、移動している状態と、停止している状態とが含まれ得る。本実施の形態では、移動体10は、人(一例として、歩行者)である。以下では、「移動体」を「人」と表記する場合があるが、これは移動体を人に限定する趣旨ではなく、単に文章の煩雑さを避けて説明を分かりやすくするためである。したがって、移動体10は、人に限らず、人以外の動物等の生物であってもよい。移動体10は、生物に限らず、無生物であってもよい。無生物の例としては、二輪車、自動車、船舶、航空機等の乗り物やドローン等を含む移動物体が挙げられる。移動体10は、物体の全体に限らず、物体の一部であってもよい。
【0021】
撮像システム3は、対象画像情報を生成するためのシステムである。対象画像情報は、移動体10が写る1以上の画像のデータを含み得る。対象画像情報は、移動体10が写る静止画像のデータであってもよいし、移動体10が写る動画像のデータであってもよい。本実施の形態では、「移動体10が写る」は、移動体10の全部ではなく少なくとも一部が写ることを含む。例えば、移動体10が人である場合、人の顔が写る画像は、移動体10が写る画像であるといえる。撮像システム3は、評価システム2に通信可能に接続され、対象画像情報を評価システム2に提供することが可能である。撮像システム3は、1以上のカメラ(デジタルカメラ)を含む。
【0022】
制御システム4は、移動体10の移動方向の評価の結果に応じた動作を実行する機能を持つシステムである。一例では、制御システム4は、移動装置1の移動(行動)の制御に利用され得る。制御システム4は、移動体10の移動方向の評価の結果に応じて移動装置1の移動を決定することができる。制御システム4は、評価システム2に通信可能に接続され、移動体10の移動方向の評価の結果を評価システム2から受け取ることが可能である。制御システム4は、1以上のメモリ及び1以上のプロセッサ等を含むコンピュータシステムを含む。
【0023】
図1に示すように、評価システム2は、インターフェース21と、記憶装置22と、演算回路23と、を備える。
【0024】
インターフェース21は、評価システム2への情報の入力、及び、評価システム2からの情報の出力に利用される。インターフェース21は、入出力装置211と、通信装置212と、を含む。入出力装置211は、ユーザからの情報の入力のための入力装置、及び、ユーザへの情報の出力のための出力装置としての機能を有する。入出力装置211は、1以上のヒューマン・マシン・インターフェースを備える。ヒューマン・マシン・インターフェースの例としては、キーボード、ポインティングデバイス(マウス、トラックボール等)、タッチパッド等の入力装置、ディスプレイ、スピーカ等の出力装置、タッチパネル等の入出力装置が挙げられる。通信装置212は、外部装置又はシステムと通信可能に接続される。本実施の形態では、通信装置212は、通信ネットワークを通じた撮像システム3及び制御システム4との通信に用いられる。通信装置212は、1以上の通信インターフェースを備える。通信装置212は、通信ネットワークに接続可能であり、通信ネットワークを通じた通信を行う機能を有する。通信装置112は、所定の通信プロトコルに準拠している。所定の通信プロトコルは、周知の様々な有線及び無線通信規格から選択され得る。
【0025】
記憶装置22は、演算回路23が利用する情報及び演算回路23で生成される情報を記憶するために用いられる。記憶装置22は、1以上のストレージ(非一時的な記憶媒体)を含む。ストレージは、例えば、ハードディスクドライブ、光学ドライブ、及びソリッドステートドライブ(SSD)のいずれであってもよい。また、ストレージは、内蔵型、外付け型、およびNAS(network-attached storage)型のいずれであってもよい。
【0026】
記憶装置22に記憶される情報は、複数の学習済みモデルを含む。複数の学習済みモデルは、低解像度モデル5と、中解像度モデル6と、高解像度モデル7と、を含む。なお、低解像度モデル5、中解像度モデル6及び高解像度モデル7に関して、「低」、「中」、「高」という用語は、これらを容易に区別することを目的として用いられている。
図1では、記憶装置22が、低解像度モデル5と、中解像度モデル6と、高解像度モデル7との全てを記憶している状態を示している。低解像度モデル5と、中解像度モデル6と、高解像度モデル7とは常に記憶装置22に記憶されている必要はなく、演算回路23で必要とされるときに記憶装置22に記憶されていればよい。
【0027】
低解像度モデル5と、中解像度モデル6と、高解像度モデル7とは、移動体10の移動方向の評価に用いられる。低解像度モデル5と、中解像度モデル6と、高解像度モデル7とについては、後に詳細に説明する。
【0028】
演算回路23は、評価システム2の動作を制御する回路である。演算回路23は、インターフェース21に接続され、記憶装置22にアクセス可能(つまり、低解像度モデル5と、中解像度モデル6と、高解像度モデル7とにアクセス可能)である。演算回路23は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。1以上のプロセッサが(1以上のメモリ又は記憶装置22に記憶された)プログラムを実行することで、演算回路23としての機能を実現する。プログラムは、ここでは記憶装置22に予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
【0029】
演算回路23は、移動体10の移動方向の評価のために、
図2に示す評価方法を実行する。
図2は、
図1の評価システムの処理の一例のフローチャートである。
【0030】
演算回路23は、対象画像情報を取得する処理を実行する(S11)。本実施の形態において、演算回路23は、インターフェース21を通じて撮像システム3から対象画像情報を取得する。
【0031】
図3は、対象画像情報に含まれる、移動体10の写る画像の第1例を示す概略図である。
図4は、対象画像情報に含まれる、移動体10の写る画像の第2例を示す概略図である。
図3及び
図4において、移動体10は、手前に移動している。つまり、移動体10は移動装置1に接近している。
図3の画像では、移動体10は前を向いて歩いている。
図4の画像では、移動体10は下を向いており、前を向いて歩いていない。
【0032】
演算回路23は、対象画像情報に含まれる画像から移動体10を検出する処理を実行する(S12)。画像からの移動体10の検出は、従来周知の方法により実現されてよい。画像からの移動体10の検出は、例えば、エッジ検出等の画像処理技術により実現されてよいし、学習済みモデルを利用して実現されてもよい。
図3及び
図4に示すように、本実施の形態において、演算回路23は、画像から、移動体10を示すバウンディングボックスBを抽出する。バウンディングボックスBは、移動体10を囲う矩形のボックス(矩形の境界線)である。より詳細には、バウンディングボックスBは、移動体10をちょうど囲う大きさの矩形のボックスである。そのため、バウンディングボックスBの幅W及び高さHは、画像上の移動体10の大きさに応じて変化する。バウンディングボックスBは、従来周知の技術により設定され得る。例えば、バウンディングボックスBは、画像における矩形の注目領域出に移動体10が含まれるか否かに基づいて設定されてよいし(例えば、特許第4447245号公報参照)、人の骨格の検出技術(例えば、OpenPose等の姿勢推定モデル)を利用して検出された人の骨格を内包するように設定されてよい。
【0033】
演算回路23は、対象画像情報に含まれる画像から検出された移動体10に関して、移動体10の画像の解像度の判定をする処理を行う(S13)。本実施の形態において、演算回路23は、移動体10の画像の解像度が、低解像度、中解像度、高解像度のいずれに該当するかを判定する。
【0034】
移動体10の画像の解像度は、画像において移動体10を表示するために用いられている画素数に対応する。移動体10の画像の解像度は、例えば、撮像システム3から移動体10までの距離、撮像システム3のカメラの性能(分解能)、移動体10の実空間上での大きさによって変化し得る。撮像システム3から移動体10までの距離が遠くなればなるほど、撮像システム3から得られる画像において、移動体10の大きさが小さくなるから、移動体10の画像の画素数は減少し、移動体10の画像の解像度が低くなる。撮像システム3のカメラの性能(分解能)が低い場合には、撮像システム3から得られる画像自体の解像度が低いから、移動体10の画像の画素数が減り、解像度は低下する。撮像システム3のカメラの性能(分解能)が高い場合には、撮像システム3から得られる画像自体の解像度が高いから、移動体10の画像の画素数が増え、解像度は高くなる。撮像システム3から移動体10までの距離が同じでも、撮像システム3のカメラの分解能によって、移動体10の画像の解像度が変化する。移動体10の実空間上での大きさは、例えば、人の体格(身長等)、又は、車の車高等が挙げられる。一例として、身長が180cmの成人と、身長が80cmの子供とでは、子供の方が画素数が少なくなるため、解像度は低下する傾向にある。
【0035】
図5は、移動装置1(撮像システム3)と移動体11,12,13との位置関係の説明図である。本実施の形態において、移動装置1が撮像システム3を備えるから、撮像システム3から移動体11,12,13までの距離は、移動装置1から移動体11,12,13までの距離と等しい。
図5において、移動体11は遠距離、移動体12は中距離、移動体13は近距離にある。例えば、移動装置1から移動体11までの距離D1は7m、移動装置1から移動体12までの距離D2は5m、移動装置1から移動体13までの距離D3は3mである。
【0036】
図6は、遠距離にある移動体11が写る画像の一例の概略図である。
図7は、中距離にある移動体12が写る画像の一例の概略図である。
図8は、近距離にある移動体13が写る画像の一例の概略図である。
【0037】
図6の移動体11のバウンディングボックスB1、
図7の移動体12のバウンディングボックスB2、及び、
図8の移動体13のバウンディングボックスB3のなかでは、バウンディングボックスB1の面積が最も小さく、バウンディングボックスB3の面積が最も大きい。バウンディングボックスB1,B2,B3の面積は、画像に対するバウンディングボックスB1,B2,B3の大きさで規定される。
図6,
図7,
図8に示すように、バウンディングボックスB1,B2,B3の面積は、画像におけるバウンディングボックスB1,B2,B3の幅W1,W2,W3に対応する画素数とバウンディングボックスB1,B2,B3の高さH1,H2,H3に対応する画素数との積で表される。
【0038】
バウンディングボックスを構成する画素数は、バウンディングボックスの面積に正比例する。バウンディングボックスの面積が大きいことは、移動体10の画像の解像度が高いことを意味する。バウンディングボックスの面積が小さいことは、移動体10の画像の解像度が低いことを意味する。
図6,
図7及び
図8では、移動体11の画像の解像度が最も低く、移動体13の画像の解像度が最も高く、移動体12の解像度は移動体11の画像の解像度と移動体13の画像の解像度との間である。
【0039】
図6,
図7及び
図8から明らかなように、近距離にある移動体13ほど、画像において移動体13が占める範囲が大きくなる。画像において移動体13が占める範囲が大きくなると、移動体13の画像を構成する画素数が増えるから、移動体13の解像度が高くなる。
図6,
図7及び
図8から明らかなように、遠距離にある移動体11ほど、画像において移動体11が占める範囲が小さくなる。画像において移動体11が占める範囲が小さくなると、移動体11の画像を構成する画素数が減るから、移動体11の解像度が低くなる。つまり、撮像システム3から移動体10までの距離が遠くなればなるほど、移動体10の画像の解像度は低くなる。撮像システム3から移動体10までの距離が近くなればなるほど、移動体10の画像の解像度は高くなる。
【0040】
本実施の形態において、演算回路23は、移動体10のバウンディングボックスの面積に基づいて移動体10の画像の解像度を決定する。一例として、演算回路23は、移動体10のバウンディングボックスの面積を、移動体10の画像の解像度としてよい。演算回路23は、移動体10のバウンディングボックスの面積を閾値と比較することで、移動体10の画像の解像度の判定をする。例えば、演算回路23は、バウンディングボックスの面積が第1閾値未満である場合に、移動体10の画像の解像度が低解像度であると判定してよい。本実施の形態において、演算回路23は、バウンディングボックスの面積が第1閾値以上であるが第2閾値未満である場合に、移動体10の画像の解像度が中解像度であると判定してよい。演算回路23は、バウンディングボックスの面積が第2閾値以上である場合に、移動体10の画像の解像度が高解像度であると判定してよい。
【0041】
第1閾値は、低解像度と中解像度とを区分けするための閾値である。例えば、画像の画素数が360×270である場合、バウンディングボックスの画素数が30×90未満であれば、移動体10の画像の解像度が低解像度であると考えてよい。この場合、第1閾値は2700である。第2閾値は、中解像度と高解像度とを区分けするための閾値である。例えば、画像の画素数が360×270である場合、バウンディングボックスの画素数が60×180以上であれば、移動体10の画像の解像度が高解像度であると考えてよい。この場合、第2閾値は10800である。
【0042】
対象画像情報が複数の画像を含む場合、複数の画像それぞれに写る移動体10のバウンディングボックスの代表値が、閾値(第1閾値、第2閾値)と比較されてよい。代表値の例としては、平均値、最小値、最大値、中央値、及び、最頻値が挙げられる。これによって、複数の画像のバウンディングボックスの変化によって、移動体10の画像の解像度が低解像度、中解像度、高解像度のいずれに該当するかの判断が短期間で変わってしまう可能性を低減できる。
【0043】
図6~
図8の移動体11~13を比較すると、
図6の移動体11の画像では、移動体11の全体は比較的明確であるが、移動体11の頭等の部位は比較的不明確である。例えば、
図6では、移動体11の顔の向きを精度良く決定することは難しい。
図7の移動体12の画像では、移動体12の全体は比較的明確であり、移動体11の頭R等の部位も比較的明確である。ただし、移動体11の目又は骨格点等の頭よりも小さい部位は比較的不明確である。例えば、
図7では、移動体11の視線又は移動体11の姿勢を精度良く決定することは難しい。
図8の移動体13の画像では、移動体13の全体は比較的明確であり、移動体13の頭R等の部位(第1部位)も比較的明確である。さらに、移動体13の目又は骨格点P等の頭よりも小さい部位(第2部位)も比較的明確である。そのため、
図8の移動体13については、移動体11の視線又は移動体11の姿勢も精度良く決定でき得る。
【0044】
移動体10の画像の解像度が低くなるほど、移動体10の全体ではなく部位から得られる情報の精度は低くなる傾向にある。そして、精度が低い情報を用いることは、移動体10の移動方向の評価の精度の低下の一因となり得る。
【0045】
このような観点から、評価システム2は、移動体10の画像の解像度に応じた複数の学習済みモデル(低解像度モデル5、中解像度モデル6及び高解像度モデル7)を備える。演算回路23は、移動体10の画像の解像度に応じて、複数の学習済みモデル(低解像度モデル5、中解像度モデル6及び高解像度モデル7)から、移動体10の移動方向の評価に用いる学習済みモデルを選択する。
【0046】
より詳細には、演算回路23は、対象画像情報から検出された移動体10の画像の解像度が第1閾値未満であることを確認し、解像度が第1閾値未満であることを確認したことに応答して複数の学習済みモデルから低解像度モデル5を選択する。演算回路23は、対象画像情報から検出された移動体10の画像の解像度が第1閾値以上であることを確認し、解像度が第1閾値以上であることを確認したことに応答して複数の学習済みモデルから中解像度モデル6又は高解像度モデル7を選択する。この場合、演算回路23は、対象画像情報から検出された移動体10の画像の解像度が第2閾値未満であることを確認し、解像度が第2閾値未満であることを確認したことに応答して複数の学習済みモデル(中解像度モデル6及び高解像度モデル7)から中解像度モデル6を選択する。一方、演算回路23は、対象画像情報から検出された移動体10の画像の解像度が第2閾値以上であることを確認し、解像度が第2閾値以上であることを確認したことに応答して複数の学習済みモデル(中解像度モデル6及び高解像度モデル7)から高解像度モデル7を選択する。
【0047】
図2に示すように、移動体10の画像の解像度が低解像度である場合(S13;低解像度)、演算回路23は、低解像度モデル5を選択する(S21)。
【0048】
低解像度モデル5は、移動体10の画像の解像度が低解像度である場合に用いられる。低解像度モデル5は、画像情報中の移動体10の全体に基づく1又は複数の全体情報の入力に対して、移動体10の移動方向の評価を出力するように学習された簡易モデルである。
【0049】
1又は複数の全体情報は、移動体10の位置、移動体10の速度、及び、移動体10の全体の画像の少なくとも一つを含む。移動体10の位置は、例えば、実空間における移動体10の絶対的な位置、又は、実空間における移動装置1に対する移動体10の位置(相対位置)である。移動体10の速度は、例えば、移動体10の絶対的な速度、又は、移動装置1に対する移動体10の速度(相対速度)である。移動体10の全体の画像は、例えば、移動体10に対応するバウンディングボックスで囲まれた画像である。
【0050】
本実施の形態において、移動体10の移動方向の評価は、移動体10の移動方向が第1移動方向である確率と移動体10の移動方向が第2移動方向である確率とを含む。第1移動方向は、移動体10が対象物に向かう方向である。第2移動方向は、移動体10が対象物を回避する方向である。本実施の形態において、対象物は、例えば、移動装置1である。つまり、移動体10の移動方向の評価は、移動体10が移動装置1を回避しようとするかどうかの確率を表しているといえる。この観点から、移動体10の移動方向の評価は、移動体10が移動装置1を回避しよう確率を示す回避意図スコアであるといえる。よって、評価システム2は、学習済みモデルを利用して、人領域画像の構成解像度に基づく前方歩行者の回避意図予測を実行しているといえる。
【0051】
図9は、低解像度モデル5の構成例の概略説明図である。
図9では、対象画像情報は、時系列順の複数の画像Gを含む。複数の画像Gから、移動体10のバウンディングボックスBが検出される。各バウンディングボックスBから、複数の全体情報I11,I12,I13が得られる。これによって、時系列順の全体情報I11、時系列順の全体情報I12、及び、時系列順の全体情報I13が得られる。
図9において、全体情報I11は移動体10の位置であり、全体情報I12は移動体10の速度であり、全体情報I13は移動体10の全体の画像である。
【0052】
図9の低解像度モデル5は、全体情報I11,I12,I13の入力に対して、移動体10の移動方向の評価O1を出力する。
図9の低解像度モデル5は、第1ネットワーク機構511と、第1アテンション機構512と、第2ネットワーク機構521と、第2アテンション機構522と、第3ネットワーク機構53と、結合部54と、出力部55とを含む。
【0053】
第1ネットワーク機構511は、時系列順の全体情報I11から特徴量を抽出する。第1ネットワーク機構511は、例えば、長・短記憶(Long short-term memory;LSTM)又はゲート付き回帰型ユニット(Gated recurrent unit;GRU)等の回帰型ニューラルネットワーク(Recurrent neural network;RNN)のアーキテクチャを含む。第1アテンション機構512は、時系列順の全体情報I11のうちのどの全体情報I11に着目すべきかを決定するテンポラルアテンション機構を含む。これによって、時系列順の全体情報I11のうち最も重要と考えられる全体情報I11の特徴量が抽出され、結合部54に入力される。
【0054】
第2ネットワーク機構521は、時系列順の全体情報I12から特徴量を抽出する。第2ネットワーク機構521は、例えば、長・短記憶(LSTM)又はゲート付き回帰型ユニット(GRU)等の回帰型ニューラルネットワーク(RNN)のアーキテクチャを含む。第2アテンション機構522は、時系列順の全体情報I12のうちのどの全体情報I12に着目すべきかを決定するテンポラルアテンション機構を含む。これによって、時系列順の全体情報I12のうち最も重要と考えられる全体情報I12の特徴量が抽出され、結合部54に入力される。
【0055】
第3ネットワーク機構53は、時系列順の全体情報I13から特徴量を抽出する。上述したように、全体情報I13は、移動体10の全体の画像である。第3ネットワーク機構53は、例えば、3次元畳み込みニューラルネットワーク(3D-convolutional neural network;3DCNN)、又は、畳み込みニューラルネットワーク(Convolutional neural network;CNN)と回帰型ニューラルネットワーク(RNN)との組み合わせのアーキテクチャを含む。これによって、時系列順の全体情報I13から特徴量が抽出され、結合部54に入力される。
【0056】
結合部54は、全体情報I11,I12,I13の特徴量をまとめて出力部55に入力する。
図9の場合、結合部54は、第1アテンション機構512からの時系列順の全体情報I11のうち最も重要と考えられる全体情報I11の特徴量と、第2アテンション機構522からの時系列順の全体情報I12のうち最も重要と考えられる全体情報I12の特徴量と、第3ネットワーク機構53からの時系列順の全体情報I13の特徴量とを、出力部55に入力する。
【0057】
出力部55は、結合部54からの特徴量から、移動体10の移動方向の評価O1を出力する。出力部55は、例えば、全結合層を含む。全結合層は、例えば、ソフトマックス関数を含む。
【0058】
図2に示すように、演算回路23は、対象画像情報から検出された移動体10の画像の解像度が低解像度である場合に(S13;低解像度)、複数の学習済みモデルから簡易モデル(低解像度モデル5)を選択し(S21)、低解像度モデル5で評価を行う(S22)。より詳細には、演算回路23は、対象画像情報から検出された移動体10の全体情報I11,I12,I13を、低解像度モデル5に入力して、低解像度モデル5に対象画像情報から検出された移動体10の移動方向の評価O1を出力させる。これによって、評価システム2は、低解像度の場合に精度の低い可能性が高い情報(後述の部位情報)を用いずに移動体10の移動方向の評価を行う。その結果、評価システム2は、移動体10の移動方向の評価の精度の向上を可能にする。
【0059】
移動体10の画像の解像度が中解像度である場合(S13;中解像度)、演算回路23は、中解像度モデル6を選択する(S31)。
図2に示すように、移動体10の画像の解像度が高解像度である場合(S13;高解像度)、演算回路23は、高解像度モデル7を選択する(S41)。
【0060】
中解像度モデル6及び高解像度モデル7の各々は、移動体10の画像の解像度が中解像度である場合に用いられる。中解像度モデル6は、画像情報中の移動体10の全体に基づく1又は複数の全体情報の少なくとも一つと、画像情報中の移動体10の1又は複数の部位に基づく1又は複数の部位情報との入力に対して、移動体10の移動方向の評価を出力するように学習された詳細モデルである。
【0061】
1又は複数の部位情報は、例えば、移動体10の1又は複数の部位の位置、移動体10の1又は複数の部位の向き、移動体10の1又は複数の部位の画像、及び、移動体10の複数の部位の関連性に基づく情報との少なくとも一つを含む。部位の位置の例としては、移動体10の顔の位置が挙げられる。部位の向きの例としては、移動体の顔の向きと移動体の視線とが挙げられる。部位の画像の例としては、移動体の顔の画像が挙げられる。複数の部位の関連性に基づく情報の例としては、移動体の姿勢に関する情報が挙げられる。
【0062】
移動体10の部位は、第1部位と、第1部位より小さい第2部位とに分類され得る。第1部位は、移動体10の身体の部位、例えば、
図7に示す顔Rである。第1部位は、顔に限らず、頭、腕、胴、脚等であってもよい。第2部位は、移動体10の身体の部位よりも小さい部位である。第2部位は、第1部位との比較においては、移動体10において点としてとらえることが可能である。第2部位の例としては、例えば、
図8に示す骨格点Pが挙げられる。第2部位は、骨格点に限らず、目、鼻、指、関節等であってもよい。
【0063】
この点から、部位情報は、第1部位に基づく第1部位情報と、第2部位に基づく第2部位情報とに分類され得る。第2部位情報を精度良く得るためには、第1部位情報に比べて、移動体10の画像の解像度が高い必要がある。
【0064】
本実施の形態において、中解像度モデル6は、全体情報に加えて、第1部位情報を用いる。つまり、中解像度モデル6は、画像情報中の移動体10の全体に基づく1又は複数の全体情報と、移動体10の1又は複数の第1部位に基づく1又は複数の第1部位情報との入力に対して、移動体10の移動方向の評価を出力するように学習された第1モデルである。
【0065】
本実施の形態において、高解像度モデル7は、全体情報及び第1部位情報に加えて、第2部位情報を用いる。つまり、高解像度モデル7は、画像情報中の移動体10の全体に基づく1又は複数の全体情報の少なくとも一つと、1又は複数の第1部位情報の少なくとも一つと、1又は複数の第2部位情報との入力に対して、移動体10の移動方向の評価を出力するように学習された第2モデルである。
【0066】
図10は、中解像度モデル6の構成例の概略説明図である。
図10では、対象画像情報は、時系列順の複数の画像Gを含む。複数の画像Gから、移動体10のバウンディングボックスBが検出される。各バウンディングボックスBから、複数の全体情報I11,I12,I13が得られる。これによって、時系列順の全体情報I11、時系列順の全体情報I12、及び、時系列順の全体情報I13が得られる。
図10において、全体情報I11は移動体10の位置であり、全体情報I12は移動体10の速度であり、全体情報I13は移動体10の全体の画像である。
【0067】
図10では、複数の画像Gから、移動体10の顔のバウンディングボックスRが検出される。各バウンディングボックスRから、複数の第1部位情報I21,I22,I23が得られる。これによって、時系列順の第1部位情報I21、時系列順の第1部位情報I22、及び、時系列順の第1部位情報I23が得られる。
図10において、第1部位情報I21は移動体10の顔の位置であり、第1部位情報I22は移動体10の顔の向きであり、第1部位情報I23は移動体10の顔の画像である。
【0068】
図10の中解像度モデル6は、全体情報I11,I12,I13、及び、部位情報I21,I22,I23の入力に対して、移動体10の移動方向の評価O2を出力する。
図10の中解像度モデル6は、第1ネットワーク機構611と、第1アテンション機構612と、第2ネットワーク機構621と、第2アテンション機構622と、第3ネットワーク機構63と、第4ネットワーク機構641と、第4アテンション機構642と、第5ネットワーク機構651と、第5アテンション機構652と、第6ネットワーク機構66と、結合部67と、出力部68とを含む。
【0069】
第1ネットワーク機構611と、第1アテンション機構612と、第2ネットワーク機構621と、第2アテンション機構622と、第3ネットワーク機構63とは、
図9の低解像度モデル5の第1ネットワーク機構511と、第1アテンション機構512と、第2ネットワーク機構521と、第2アテンション機構522と、第3ネットワーク機構53とそれぞれ同様である。
【0070】
第4ネットワーク機構641は、時系列順の第1部位情報I21から特徴量を抽出する。第4ネットワーク機構641は、例えば、長・短記憶(LSTM)又はゲート付き回帰型ユニット(GRU)等の回帰型ニューラルネットワーク(RNN)のアーキテクチャを含む。第4アテンション機構642は、時系列順の第1部位情報I21のうちのどの第1部位情報I21に着目すべきかを決定するテンポラルアテンション機構を含む。これによって、時系列順の第1部位情報I21のうち最も重要と考えられる第1部位情報I21の特徴量が抽出され、結合部67に入力される。
【0071】
第5ネットワーク機構651は、時系列順の第1部位情報I22から特徴量を抽出する。第5ネットワーク機構651は、例えば、長・短記憶(LSTM)又はゲート付き回帰型ユニット(GRU)等の回帰型ニューラルネットワーク(RNN)のアーキテクチャを含む。第5アテンション機構652は、時系列順の第1部位情報I22のうちのどの第1部位情報I22に着目すべきかを決定するテンポラルアテンション機構を含む。これによって、時系列順の第1部位情報I22のうち最も重要と考えられる第1部位情報I22の特徴量が抽出され、結合部67に入力される。
【0072】
第6ネットワーク機構66は、時系列順の第1部位情報I23から特徴量を抽出する。上述したように、第1部位情報I23は、移動体10の顔(第1部位)の画像である。第6ネットワーク機構66は、例えば、3次元畳み込みニューラルネットワーク(3DCNN)、又は、畳み込みニューラルネットワーク(CNN)と回帰型ニューラルネットワーク(RNN)との組み合わせのアーキテクチャを含む。これによって、時系列順の第1部位情報I23から特徴量が抽出され、結合部67に入力される。
【0073】
結合部67は、全体情報I11,I12,I13の特徴量及び部位情報(第1部位情報)I21,I22,I23の特徴量をまとめて出力部68に入力する。
図10の場合、結合部67は、第1アテンション機構612からの時系列順の全体情報I11のうち最も重要と考えられる全体情報I11の特徴量と、第2アテンション機構622からの時系列順の全体情報I12のうち最も重要と考えられる全体情報I12の特徴量と、第3ネットワーク機構63からの時系列順の全体情報I13の特徴量と、第4アテンション機構642からの時系列順の第1部位情報I21のうち最も重要と考えられる第1部位情報I21の特徴量と、第5アテンション機構652からの時系列順の第1部位情報I22のうち最も重要と考えられる第1部位情報I22の特徴量と、第6ネットワーク機構66からの時系列順の第1部位情報I23の特徴量とを、出力部68に入力する。
【0074】
出力部68は、結合部67からの特徴量から、移動体10の移動方向の評価O2を出力する。出力部68は、例えば、全結合層を含む。全結合層は、例えば、ソフトマックス関数を含む。
【0075】
図2に示すように、演算回路23は、対象画像情報から検出された移動体10の画像の解像度が中解像度である場合に(S13;中解像度)、複数の学習済みモデルから中解像度モデル6(詳細モデル、第1モデル)を選択し(S31)、中解像度モデル6で評価を行う(S32)。より詳細には、演算回路23は、対象画像情報から検出された移動体10の全体情報I11,I12,I13及び部位情報(第1部位情報)I21,I22,I23を、中解像度モデル6に入力して、中解像度モデル6に対象画像情報から検出された移動体10の移動方向の評価O2を出力させる。これによって、評価システム2は、中解像度の場合に精度の低い可能性が高い情報(第2部位情報)を用いずに移動体10の移動方向の評価を行う。その結果、評価システム2は、移動体10の移動方向の評価の精度の向上を可能にする。
【0076】
図11は、高解像度モデル7の構成例の概略説明図である。
図11では、対象画像情報は、時系列順の複数の画像Gを含む。複数の画像Gから、移動体10のバウンディングボックスBが検出される。各バウンディングボックスBから、複数の全体情報I11,I12,I13が得られる。これによって、時系列順の全体情報I11、時系列順の全体情報I12、及び、時系列順の全体情報I13が得られる。
図11において、全体情報I11は移動体10の位置であり、全体情報I12は移動体10の速度であり、全体情報I13は移動体10の全体の画像である。
【0077】
図11では、複数の画像Gから、移動体10の顔(第1部位)のバウンディングボックスRが検出される。各バウンディングボックスRから、複数の第1部位情報I21,I22,I23が得られる。これによって、時系列順の第1部位情報I21、時系列順の第1部位情報I22、及び、時系列順の第1部位情報I23が得られる。
図11において、第1部位情報I21は移動体10の顔の位置であり、第1部位情報I22は移動体10の顔の向きであり、第1部位情報I23は移動体10の顔の画像である。
【0078】
図11では、複数の画像Gから、移動体10の複数の骨格点(第2部位)Pが検出される。複数の骨格点Pの関連性に基づいて、第2部位情報I31が得られる。これによって、時系列順の第2部位情報I31が得られる。
図11において、第2部位情報I31は、例えば、移動体10の姿勢の情報である。いくつかの例では、第2部位情報は、骨格点の情報、骨格点の位置、骨格点の隣接情報を含むこともできる。
【0079】
図11の高解像度モデル7は、全体情報I11,I12,I13、第1部位情報I21,I22,I23、及び第2部位情報I31の入力に対して、移動体10の移動方向の評価O3を出力する。
図11の高解像度モデル7は、第1ネットワーク機構711と、第1アテンション機構712と、第2ネットワーク機構721と、第2アテンション機構722と、第3ネットワーク機構73と、第4ネットワーク機構741と、第4アテンション機構742と、第5ネットワーク機構751と、第5アテンション機構752と、第6ネットワーク機構76と、第7ネットワーク機構771と、第7アテンション機構772と、結合部78と、出力部79とを含む。
【0080】
第1ネットワーク機構711と、第1アテンション機構712と、第2ネットワーク機構721と、第2アテンション機構722と、第3ネットワーク機構73とは、
図9の低解像度モデル5の第1ネットワーク機構511と、第1アテンション機構512と、第2ネットワーク機構521と、第2アテンション機構522と、第3ネットワーク機構53とそれぞれ同様である。
【0081】
第4ネットワーク機構741と、第4アテンション機構742と、第5ネットワーク機構751と、第5アテンション機構752と、第6ネットワーク機構76とは、
図10の中解像度モデル6の第4ネットワーク機構641と、第4アテンション機構642と、第5ネットワーク機構651と、第5アテンション機構652と、第6ネットワーク機構66とそれぞれ同様である。
【0082】
第7ネットワーク機構771は、時系列順の第2部位情報I31から特徴量を抽出する。第7ネットワーク機構771は、例えば、長・短記憶(LSTM)又はゲート付き回帰型ユニット(GRU)等の回帰型ニューラルネットワーク(RNN)のアーキテクチャを含む。第7アテンション機構772は、時系列順の第2部位情報I31のうちのどの第2部位情報I31に着目すべきかを決定するテンポラルアテンション機構を含む。これによって、時系列順の第2部位情報I31のうち最も重要と考えられる第2部位情報I31の特徴量が抽出され、結合部78に入力される。
【0083】
結合部78は、全体情報I11,I12,I13の特徴量、部位情報(第1部位情報)I21,I22,I23の特徴量、及び、部位情報(第2部位情報)I31の特徴量をまとめて出力部79に入力する。
図11の場合、結合部78は、第1アテンション機構712からの時系列順の全体情報I11のうち最も重要と考えられる全体情報I11の特徴量と、第2アテンション機構722からの時系列順の全体情報I12のうち最も重要と考えられる全体情報I12の特徴量と、第3ネットワーク機構73からの時系列順の全体情報I13の特徴量と、第4アテンション機構742からの時系列順の第1部位情報I21のうち最も重要と考えられる第1部位情報I21の特徴量と、第5アテンション機構752からの時系列順の第1部位情報I22のうち最も重要と考えられる第1部位情報I22の特徴量と、第6ネットワーク機構66からの時系列順の第1部位情報I23の特徴量と、第7アテンション機構772からの時系列順の第2部位情報I31のうち最も重要と考えられる第2部位情報I31の特徴量とを、出力部79に入力する。
【0084】
出力部79は、結合部78からの特徴量から、移動体10の移動方向の評価O3を出力する。出力部79は、例えば、全結合層を含む。全結合層は、例えば、ソフトマックス関数を含む。
【0085】
図2に示すように、演算回路23は、対象画像情報から検出された移動体10の画像の解像度が高解像度である場合に(S13;高解像度)、複数の学習済みモデルから高解像度モデル7(詳細モデル、第2モデル)を選択し(S41)、高解像度モデル7で評価を行う(S42)。より詳細には、演算回路23は、対象画像情報から検出された移動体10の全体情報I11,I12,I13、部位情報(第1部位情報)I21,I22,I23、及び部位情報(第2部位情報)I31を、高解像度モデル7に入力して、高解像度モデル7に対象画像情報から検出された移動体10の移動方向の評価O3を出力させる。これによって、評価システム2は、高解像度の場合に、中解像度の場合よりも情報を増やして移動体10の移動方向の評価を行う。その結果、評価システム2は、移動体10の移動方向の評価の精度の向上を可能にする。
【0086】
以上述べた評価システム2による移動体10の移動方向の評価の結果は、移動装置1の制御システム4において移動装置1の動作の決定に用いられ得る。
【0087】
図12~
図14は、移動装置1の動作の一例の説明図である。
図12において、移動装置1の進行予定経路M1に、移動体10が存在する。移動体10は移動方向V0に移動中である。
図12において、移動方向V0は、移動装置1に対する移動体10の相対速度ベクトルで表されている。
【0088】
移動装置1では、評価システム2が、移動体10の移動方向の評価を実行する。移動体10の移動方向の評価は、移動体10の移動方向が第1移動方向V1である確率と移動体10の移動方向が第2移動方向V2である確率とを含む。第1移動方向V1は、移動体10が対象物(移動装置1)に向かう方向である。第2移動方向V2は、移動体10が対象物(移動装置1)を回避する方向である。
【0089】
移動体10の移動方向が第1移動方向V1である確率が高い場合には、移動体10が移動装置1の近接エリア1aに到達し、移動装置1と衝突する可能性が高い。この場合、
図13に示すように、移動装置1では、制御システム4が移動装置1の進行予定経路M1を、進行予定経路M2に変更し、移動体10との衝突を回避する行動をとることができる。
【0090】
移動体10の移動方向が第2移動方向V2である確率が高い場合には、移動体10が移動装置1と衝突する可能性が低い。この場合、
図14に示すように、移動装置1では、制御システム4が移動装置1の進行予定経路M1を維持する行動をとる。
【0091】
このように、移動装置1では、評価システム2から得られる移動体10の移動方向の評価に基づいて制御システム4が移動装置1の行動を制御することにより、移動装置1と移動体10との衝突の可能性を低減できる。特に、移動装置1は、単に移動体10との衝突を徹底的に避けるような移動体10の移動を優先した移動方針ではなく、移動体10が移動装置1との衝突を回避する行動をとるかどうかを考慮した譲り合いを考慮した移動方針により進行予定経路を設定することがでる。これによって、移動装置1は、移動体10とのスムーズなすれ違いを実現することができ得る。
【0092】
[1.2 効果等]
以上述べた評価方法は、複数の学習済みモデルを記憶する記憶装置22にアクセス可能な演算回路23で実行される。複数の学習済みモデルは、画像情報中の移動体10~13の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報I11~I13の入力に対して、移動体10の移動方向の評価を出力するように学習された簡易モデル(低解像度モデル5)と、1又は複数の全体情報I11~I13の少なくとも一つと、移動体10の1又は複数の部位R,Pに基づく1又は複数の部位情報I21~I23,I31との入力に対して、移動体10の移動方向の評価を出力するように学習された詳細モデル(中解像度モデル6,高解像度モデル7)と、を含む。
【0093】
ここで、評価方法は、対象画像情報から検出された移動体10~13の画像の解像度が閾値(第1閾値)未満であることを確認し、解像度が閾値(第1閾値)未満であることを確認したことに応答して複数の学習済みモデルから簡易モデル(低解像度モデル5)を選択し、対象画像情報から検出された移動体10の1又は複数の全体情報I11~I13を、簡易モデル(低解像度モデル5)に入力して、簡易モデル(低解像度モデル5)に対象画像情報から検出された移動体10の移動方向の評価O1を出力させる。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0094】
あるいは、評価方法は、対象画像情報から検出された移動体10~13の画像の解像度が閾値(第1閾値)以上であることを確認し、解像度が閾値(第1閾値)以上であることを確認したことに応答して複数の学習済みモデルから詳細モデル(中解像度モデル6,高解像度モデル7)を選択し、対象画像情報から検出された移動体10~13の1又は複数の全体情報I11~I13の少なくとも一つと1又は複数の部位情報I21~I23,I31とを、詳細モデル(中解像度モデル6,高解像度モデル7)に入力して、詳細モデル(中解像度モデル6,高解像度モデル7)に対象画像情報から検出された移動体10の移動方向の評価O2,O3を出力させる。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0095】
評価方法において、解像度は、対象画像情報から検出された移動体10~13のバウンディングボックスB,B1~B3の面積に基づいて決定される。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0096】
評価方法において、1又は複数の全体情報I11~I13は、移動体10~13の位置、移動体10~13の速度、及び、移動体10~13の全体(バウンディングボックスB,B1~B3)の画像の少なくとも一つを含む。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0097】
評価方法において、1又は複数の部位情報I21,I22,I23,I31は、移動体10~13の1又は複数の部位R,Pの位置、移動体10~13の1又は複数の部位R,Pの向き、移動体10~13の1又は複数の部位R,Pの画像、及び、移動体10~13の複数の部位R,Pの関連性に基づく情報の少なくとも一つを含む。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0098】
評価方法において、1又は複数の部位R,Pの位置は、移動体10~13の顔の位置を含む。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0099】
評価方法において、1又は複数の部位R,Pの向きは、移動体10~13の顔の向きと移動体10~13の視線との少なくとも一つを含む。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0100】
評価方法において、1又は複数の部位R,Pの画像は、移動体10~13の顔の画像を含む。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0101】
評価方法において、複数の部位R,Pの関連性に基づく情報は、移動体10~13の姿勢に関する情報を含む。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0102】
評価方法において、移動体10~13の移動方向の評価は、移動体10~13の移動方向が第1移動方向である確率と移動体10~13の移動方向が第2移動方向である確率とを含む。第1移動方向は、移動体10~13が対象物(移動装置1)に向かう方向である。第2移動方向は、移動体10~13が対象物(移動装置1)を回避する方向である。この構成は、移動体10~13の移動方向を考慮した対象物の効率の良い移動を可能にする。
【0103】
別の観点から、以上述べた評価方法は、複数の学習済みモデルを記憶する記憶装置22にアクセス可能な演算回路23で実行される。複数の学習済みモデルは、画像情報中の移動体10~13の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報I11~I13と、移動体10~13の1又は複数の第1部位Rに基づく1又は複数の第1部位情報I21~I23との入力に対して、移動体10~13の移動方向の評価O2を出力するように学習された第1モデル(中解像度モデル6)と、1又は複数の全体情報I11~I13の少なくとも一つと、1又は複数の第1部位情報I21~I23の少なくとも一つと、移動体10~13の1又は複数の第2部位Pに基づく1又は複数の第2部位情報I31との入力に対して、移動体10~13の移動方向の評価O3を出力するように学習された第2モデル(高解像度モデル7)と、を含む。1又は複数の第2部位Pは、1又は複数の第1部位Rよりも小さい。
【0104】
ここで、評価方法は、対象画像情報から検出された移動体10~13の画像の解像度が閾値(第2閾値)未満であることを確認し、解像度が閾値(第2閾値)未満であることを確認したことに応答して複数の学習済みモデルから第1モデル(中解像度モデル6)を選択し、対象画像情報から検出された移動体10~13の1又は複数の全体情報I11~I13と1又は複数の第1部位情報I21~I23とを、第1モデル(中解像度モデル6)に入力して、第1モデル(中解像度モデル6)に対象画像情報から検出された移動体10~13の移動方向の評価O2を出力させる。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0105】
あるいは、評価方法は、対象画像情報から検出された移動体10~13の画像の解像度が閾値(第2閾値)以上であることを確認し、距離D1~D3が未満以上であることを確認したことに応答して複数の学習済みモデルから第2モデル(高解像度モデル7)を選択し、対象画像情報から検出された移動体10~13の1又は複数の全体情報I11~I13の少なくとも一つと1又は複数の第1部位情報I21~I23の少なくとも一つと1又は複数の第2部位情報I31とを、第2モデル(高解像度モデル7)に入力して、第2モデル(高解像度モデル7)に対象画像情報から検出された移動体10~13の移動方向の評価O3を出力させる。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0106】
以上述べたプログラムは、上記の評価方法を、演算回路23に実行させるための、プログラムである。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0107】
以上述べた評価システム2は、複数の学習済みモデルを記憶する記憶装置22と、記憶装置22にアクセス可能な演算回路23と、を備える。複数の学習済みモデルは、画像情報中の移動体10~13の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報I11~I13の入力に対して、移動体10の移動方向の評価を出力するように学習された簡易モデル(低解像度モデル5)と、1又は複数の全体情報I11~I13の少なくとも一つと、移動体10の1又は複数の部位R,Pに基づく1又は複数の部位情報I21~I23,I31との入力に対して、移動体10の移動方向の評価を出力するように学習された詳細モデル(中解像度モデル6,高解像度モデル7)と、を含む。演算回路23は、対象画像情報から検出された移動体10~13の画像の解像度が閾値(第1閾値)未満である場合に、複数の学習済みモデルから簡易モデル(低解像度モデル5)を選択し、対象画像情報から検出された移動体10~13の1又は複数の全体情報I11~I13を、簡易モデル(低解像度モデル5)に入力して、簡易モデル(低解像度モデル5)に対象画像情報から検出された移動体10の移動方向の評価O1を出力させる。演算回路23は、解像度が閾値(第1閾値)以上である場合に、複数の学習済みモデルから詳細モデル(中解像度モデル6,高解像度モデル7)を選択し、対象画像情報から検出された移動体10の1又は複数の全体情報I11~I13の少なくとも一つと1又は複数の部位情報I21~I23,I31とを、詳細モデル(中解像度モデル6,高解像度モデル7)に入力して、詳細モデル(中解像度モデル6,高解像度モデル7)に対象画像情報から検出された移動体10~13の移動方向の評価O2,O3を出力させる。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0108】
以上述べた評価システム2は、複数の学習済みモデルを記憶する記憶装置22と、記憶装置22にアクセス可能な演算回路23と、を備える。複数の学習済みモデルは、画像情報中の移動体10~13の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報I11~I13と、移動体10~13の1又は複数の第1部位Rに基づく1又は複数の第1部位情報I21~I23との入力に対して、移動体10~13の移動方向の評価O2を出力するように学習された第1モデル(中解像度モデル6)と、1又は複数の全体情報I11~I13の少なくとも一つと、1又は複数の第1部位情報I21~I23の少なくとも一つと、移動体10~13の1又は複数の第2部位Pに基づく1又は複数の第2部位情報I31との入力に対して、移動体10~13の移動方向の評価O3を出力するように学習された第2モデル(高解像度モデル7)と、を含む。1又は複数の第2部位Pは、1又は複数の第1部位Rよりも小さい。演算回路23は、対象画像情報から検出された移動体10~13の画像の解像度が閾値(第2閾値)未満である場合に、複数の学習済みモデルから第1モデル(中解像度モデル6)を選択し、対象画像情報から検出された移動体10~13の1又は複数の全体情報I11~I13と1又は複数の第1部位情報I21~I23とを、第1モデル(中解像度モデル6)に入力して、第1モデル(中解像度モデル6)に対象画像情報から検出された移動体10~13の移動方向の評価O2を出力させる。演算回路23は、解像度が閾値(第2閾値)以上である場合に、複数の学習済みモデルから第2モデル(高解像度モデル7)を選択し、対象画像情報から検出された移動体10~13の1又は複数の全体情報I11~I13の少なくとも一つと1又は複数の第1部位情報I21~I23の少なくとも一つと1又は複数の第2部位情報I31とを、第2モデル(高解像度モデル7)に入力して、第2モデル(高解像度モデル7)に対象画像情報から検出された移動体10~13の移動方向の評価O3を出力させる。この構成は、移動体10~13の移動方向の評価の精度の向上を可能にする。
【0109】
[2.変数例]
本開示の実施の形態は、上記実施の形態に限定されない。上記実施の形態は、本開示の課題を達成できれば、設計等に応じて種々の変更が可能である。以下に、上記実施の形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。
【0110】
一変形例では、複数の学習済みモデルは、低解像度モデル5、中解像度モデル6及び高解像度モデル7の全てではなく、これらのうちの2つを含んでもよい。例えば、演算回路23は、対象画像情報から検出された移動体10の画像の解像度が閾値未満である場合に低解像度モデル5を選択し、対象画像情報から検出された移動体10の画像の解像度が閾値以上である場合に中解像度モデル6又は高解像度モデル7を選択してよい。例えば、演算回路23は、対象画像情報から検出された移動体10の画像の解像度が閾値未満である場合に中解像度モデル6を選択し、対象画像情報から検出された移動体10の画像の解像度が閾値以上である場合に高解像度モデル7を選択してよい。
【0111】
一変形例において、低解像度モデル5として用いられる簡易モデルは、画像情報中の移動体10の全体に基づく1又は複数の全体情報I11~I13の入力に対して、移動体10の移動方向の評価を出力するように学習されてよい。簡易モデルにおいて、全体情報の数は特に限定されない。
【0112】
一変形例において、中解像度モデル6又は高解像度モデル7として用いられる詳細モデルは、画像情報中の移動体10の全体に基づく1又は複数の全体情報I11~I13の少なくとも一つと、画像情報中の移動体10の1又は複数の部位に基づく1又は複数の部位情報I21~I23との入力に対して、移動体10の移動方向の評価を出力するように学習されてよい。詳細モデルにおいて、全体情報の数及び部位情報の数は特に限定されない。特に、詳細モデルは、必ずしも、簡易モデルに用いる全体情報の全てを用いる必要はない。
【0113】
一変形例において、中解像度モデル6として用いられる第1モデルは、画像情報中の移動体10の全体に基づく1又は複数の全体情報I11~I13と、画像情報中の移動体10の1又は複数の第1部位に基づく1又は複数の第1部位情報I21~I23との入力に対して、移動体10の移動方向の評価を出力するように学習されてよい。第1モデルにおいて、全体情報の数、及び、第1部位情報の数は特に限定されない。
【0114】
一変形例において、高解像度モデル7として用いられる第2モデルは、画像情報中の移動体10の全体に基づく1又は複数の全体情報I11~I13の少なくとも一つと、画像情報中の移動体10の1又は複数の第1部位に基づく1又は複数の第1部位情報I21~I23の少なくとも一つと、画像情報中の移動体10の1又は複数の第2部位に基づく1又は複数の第2部位情報I31の少なくとも一つとの入力に対して、移動体10の移動方向の評価を出力するように学習されてよい。第2モデルにおいて、全体情報の数、第1部位情報の数、及び第2部位情報の数は特に限定されない。特に、第2モデルは、必ずしも、第1モデルに用いる全体情報の全て及び第1部位情報の全てを用いる必要はない。
【0115】
一変形例では、評価システム2のインターフェース21は、入出力装置と通信装置との両方を備える必要はない。
【0116】
一変形例では、撮像システム3は、性能(分解能)が異なる複数のカメラを備えてよい。評価システム2は、性能(分解能)が異なる複数のカメラからそれぞれ得られる対象画像情報に対して、移動体の移動方向の評価を行ってよい。
【0117】
一変形例では、評価システム2は、必ずしも移動装置1に搭載されていなくてもよい。評価システム2は、移動装置1以外の装置又はシステムに利用可能である。例えば、評価システム2は、移動体10との衝突の警告を出す警報システムに利用されてよい。評価システム2は、複数台のサーバ等のコンピュータシステムで実現されてもよい。つまり、評価システム2における複数の機能(構成要素)が、1つの筐体内に集約されていることは必須ではなく、評価システム2の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、評価システム2の少なくとも一部の機能、例えば、演算回路23の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。
【0118】
[3.態様]
上記実施の形態及び変形例から明らかなように、本開示は、下記の態様を含む。以下では、実施の形態との対応関係を明示するためだけに、符号を括弧付きで付している。なお、文章の見やすさを考慮して2回目以降の括弧付きの符号の記載を省略する場合がある。
【0119】
第1の態様は、複数の学習済みモデルを記憶する記憶装置(22)にアクセス可能な演算回路(23)で実行される評価方法である。前記複数の学習済みモデルは、画像情報中の移動体(10~13)の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報(I11~I13)の入力に対して、前記移動体(10)の移動方向の評価を出力するように学習された簡易モデル(低解像度モデル5)と、前記1又は複数の全体情報(I11~I13)の少なくとも一つと、前記移動体(10)の1又は複数の部位(R,P)に基づく1又は複数の部位情報(I21~I23,I31)との入力に対して、前記移動体(10)の移動方向の評価を出力するように学習された詳細モデル(中解像度モデル6,高解像度モデル7)と、を含む。前記評価方法は、対象画像情報から検出された前記移動体(10~13)の画像の解像度が閾値(第1閾値)未満である場合に、前記複数の学習済みモデルから前記簡易モデル(低解像度モデル5)を選択し、前記対象画像情報から検出された前記移動体(10~13)の前記1又は複数の全体情報(I11~I13)を、前記簡易モデル(低解像度モデル5)に入力して、前記簡易モデル(低解像度モデル5)に前記対象画像情報から検出された前記移動体(10)の移動方向の評価(O1)を出力させる。前記評価方法は、前記解像度が前記閾値(第1閾値)以上である場合に、前記複数の学習済みモデルから前記詳細モデル(中解像度モデル6,高解像度モデル7)を選択し、前記対象画像情報から検出された前記移動体(10)の前記1又は複数の全体情報(I11~I13)の少なくとも一つと前記1又は複数の部位情報(I21~I23,I31)とを、前記詳細モデル(中解像度モデル6,高解像度モデル7)に入力して、前記詳細モデル(中解像度モデル6,高解像度モデル7)に前記対象画像情報から検出された前記移動体(10~13)の移動方向の評価(O2,O3)を出力させる。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0120】
第2の態様は、複数の学習済みモデルを記憶する記憶装置(22)にアクセス可能な演算回路(23)で実行される評価方法である。前記複数の学習済みモデルは、画像情報中の移動体(10~13)の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報(I11~I13)の入力に対して、前記移動体(10)の移動方向の評価を出力するように学習された簡易モデル(低解像度モデル5)と、前記1又は複数の全体情報(I11~I13)の少なくとも一つと、前記移動体(10)の1又は複数の部位(R,P)に基づく1又は複数の部位情報(I21~I23,I31)との入力に対して、前記移動体(10)の移動方向の評価を出力するように学習された詳細モデル(中解像度モデル6,高解像度モデル7)と、を含む。前記評価方法は、対象画像情報から検出された前記移動体(10~13)の画像の解像度が閾値(第1閾値)未満であることを確認し、前記解像度が前記閾値(第1閾値)未満であることを確認したことに応答して前記複数の学習済みモデルから前記簡易モデル(低解像度モデル5)を選択し、前記対象画像情報から検出された前記移動体(10)の前記1又は複数の全体情報(I11~I13)を、前記簡易モデル(低解像度モデル5)に入力して、前記簡易モデル(低解像度モデル5)に前記対象画像情報から検出された前記移動体(10)の移動方向の評価(O1)を出力させる。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0121】
第3の態様は、複数の学習済みモデルを記憶する記憶装置(22)にアクセス可能な演算回路(23)で実行される評価方法である。前記複数の学習済みモデルは、画像情報中の移動体(10~13)の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報(I11~I13)の入力に対して、前記移動体(10)の移動方向の評価を出力するように学習された簡易モデル(低解像度モデル5)と、前記1又は複数の全体情報(I11~I13)の少なくとも一つと、前記移動体(10)の1又は複数の部位(R,P)に基づく1又は複数の部位情報(I21~I23,I31)との入力に対して、前記移動体(10)の移動方向の評価を出力するように学習された詳細モデル(中解像度モデル6,高解像度モデル7)と、を含む。前記評価方法は、対象画像情報から検出された前記移動体(10~13)の画像の解像度が閾値(第1閾値)以上であることを確認し、前記解像度が前記閾値(第1閾値)以上であることを確認したことに応答して前記複数の学習済みモデルから前記詳細モデル(中解像度モデル6,高解像度モデル7)を選択し、前記対象画像情報から検出された前記移動体(10~13)の前記1又は複数の全体情報(I11~I13)の少なくとも一つと前記1又は複数の部位情報(I21~I23,I31)とを、前記詳細モデル(中解像度モデル6,高解像度モデル7)に入力して、前記詳細モデル(中解像度モデル6,高解像度モデル7)に前記対象画像情報から検出された前記移動体(10)の移動方向の評価(O2,O3)を出力させる。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0122】
第4の態様は、第1~第3の態様のいずれか一つに基づく評価方法である。第4の態様において、前記解像度は、前記対象画像情報から検出された前記移動体(10~13)のバウンディングボックス(B,B1~B3)の面積に基づいて決定される。この態様は、距離(D1~D3)を実際に計測する必要がないから、評価方法の実施に必要な設備のコストを低減できる。
【0123】
第5の態様は、第1~第4の態様のいずれか一つに基づく評価方法である。第5の態様において、前記1又は複数の全体情報(I11~I13)は、前記移動体(10~13)の位置、前記移動体(10~13)の速度、及び、前記移動体(10~13)の全体(バウンディングボックスB,B1~B3)の画像の少なくとも一つを含む。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0124】
第6の態様は、第1~第5の態様のいずれか一つに基づく評価方法である。第6の態様において、前記1又は複数の部位情報(I21,I22,I23,I31)は、前記移動体(10~13)の前記1又は複数の部位(R,P)の位置、前記移動体(10~13)の1又は複数の部位(R,P)の向き、前記移動体(10~13)の1又は複数の部位(R,P)の画像、及び、前記移動体(10~13)の前記複数の部位(R,P)の関連性に基づく情報の少なくとも一つを含む。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0125】
第7の態様は、第6の態様に基づく評価方法である。第7の態様において、前記1又は複数の部位(R,P)の位置は、前記移動体(10~13)の顔の位置を含む。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0126】
第8の態様は、第6又は第7の態様に基づく評価方法である。第8の態様において、前記1又は複数の部位(R,P)の向きは、前記移動体(10~13)の顔の向きと前記移動体(10~13)の視線との少なくとも一つを含む。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0127】
第9の態様は、第6~第8の態様のいずれか一つに基づく評価方法である。第9の態様において、前記1又は複数の部位(R,P)の画像は、前記移動体(10~13)の顔の画像を含む。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0128】
第10の態様は、第6~第9の態様のいずれか一つに基づく評価方法である。第10の態様において、前記複数の部位(R,P)の関連性に基づく情報は、前記移動体(10~13)の姿勢に関する情報を含む。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0129】
第11の態様は、第1~第10の態様のいずれか一つに基づく評価方法である。第10の態様において、前記移動体(10~13)の移動方向の評価は、前記移動体(10~13)の移動方向が第1移動方向である確率と前記移動体(10~13)の移動方向が第2移動方向である確率とを含む。前記第1移動方向は、前記移動体(10~13)が対象物(移動装置1)に向かう方向である。前記第2移動方向は、前記移動体(10~13)が対象物(移動装置1)を回避する方向である。この態様は、移動体(10~13)の移動方向を考慮した対象物の効率の良い移動を可能にする。
【0130】
第12の態様は、複数の学習済みモデルを記憶する記憶装置(22)にアクセス可能な演算回路(23)で実行される評価方法である。前記複数の学習済みモデルは、画像情報中の移動体(10~13)の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報(I11~I13)と、前記移動体(10~13)の1又は複数の第1部位(R)に基づく1又は複数の第1部位情報(I21~I23)との入力に対して、前記移動体(10~13)の移動方向の評価(O2)を出力するように学習された第1モデル(中解像度モデル6)と、前記1又は複数の全体情報(I11~I13)の少なくとも一つと、前記1又は複数の第1部位情報(I21~I23)の少なくとも一つと、前記移動体(10~13)の1又は複数の第2部位(P)に基づく1又は複数の第2部位情報(I31)との入力に対して、前記移動体(10~13)の移動方向の評価(O3)を出力するように学習された第2モデル(高解像度モデル7)と、を含む。前記1又は複数の第2部位(P)は、前記1又は複数の第1部位(R)よりも小さい。前記評価方法は、対象画像情報から検出された前記移動体(10~13)の画像の解像度が閾値(第2閾値)未満である場合に、前記複数の学習済みモデルから前記第1モデル(中解像度モデル6)を選択し、前記対象画像情報から検出された前記移動体(10~13)の前記1又は複数の全体情報(I11~I13)と前記1又は複数の第1部位情報(I21~I23)とを、前記第1モデル(中解像度モデル6)に入力して、前記第1モデル(中解像度モデル6)に前記対象画像情報から検出された前記移動体(10~13)の移動方向の評価(O2)を出力させる。前記評価方法は、前記解像度が前記閾値(第2閾値)以上である場合に、前記複数の学習済みモデルから前記第2モデル(高解像度モデル7)を選択し、前記対象画像情報から検出された前記移動体(10~13)の前記1又は複数の全体情報(I11~I13)の少なくとも一つと前記1又は複数の第1部位情報(I21~I23)の少なくとも一つと前記1又は複数の第2部位情報(I31)とを、前記第2モデル(高解像度モデル7)に入力して、前記第2モデル(高解像度モデル7)に前記対象画像情報から検出された前記移動体(10~13)の移動方向の評価(O3)を出力させる。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0131】
第13の態様は、複数の学習済みモデルを記憶する記憶装置(22)にアクセス可能な演算回路(23)で実行される評価方法である。前記複数の学習済みモデルは、画像情報中の移動体(10~13)の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報(I11~I13)と、前記移動体(10~13)の1又は複数の第1部位(R)に基づく1又は複数の第1部位情報(I21~I23)との入力に対して、前記移動体(10~13)の移動方向の評価(O2)を出力するように学習された第1モデル(中解像度モデル6)と、前記1又は複数の全体情報(I11~I13)の少なくとも一つと、前記1又は複数の第1部位情報(I21~I23)の少なくとも一つと、前記移動体(10~13)の1又は複数の第2部位(P)に基づく1又は複数の第2部位情報(I31)との入力に対して、前記移動体(10~13)の移動方向の評価(O3)を出力するように学習された第2モデル(高解像度モデル7)と、を含む。前記1又は複数の第2部位(P)は、前記1又は複数の第1部位(R)よりも小さい。前記評価方法は、対象画像情報から検出された前記移動体(10~13)の画像の解像度が閾値(第2閾値)未満であることを確認し、前記解像度が前記閾値(第2閾値)未満であることを確認したことに応答して前記複数の学習済みモデルから前記第1モデル(中解像度モデル6)を選択し、前記対象画像情報から検出された前記移動体(10~13)の前記1又は複数の全体情報(I11~I13)と前記1又は複数の第1部位情報(I21~I23)とを、前記第1モデル(中解像度モデル6)に入力して、前記第1モデル(中解像度モデル6)に前記対象画像情報から検出された前記移動体(10~13)の移動方向の評価(O2)を出力させる。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0132】
第14の態様は、複数の学習済みモデルを記憶する記憶装置(22)にアクセス可能な演算回路(23)で実行される評価方法である。前記複数の学習済みモデルは、画像情報中の移動体(10~13)の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報(I11~I13)と、前記移動体(10~13)の1又は複数の第1部位(R)に基づく1又は複数の第1部位情報(I21~I23)との入力に対して、前記移動体(10~13)の移動方向の評価(O2)を出力するように学習された第1モデル(中解像度モデル6)と、前記1又は複数の全体情報(I11~I13)の少なくとも一つと、前記1又は複数の第1部位情報(I21~I23)の少なくとも一つと、前記移動体(10~13)の1又は複数の第2部位(P)に基づく1又は複数の第2部位情報(I31)との入力に対して、前記移動体(10~13)の移動方向の評価(O3)を出力するように学習された第2モデル(高解像度モデル7)と、を含む。前記1又は複数の第2部位(P)は、前記1又は複数の第1部位(R)よりも小さい。前記評価方法は、対象画像情報から検出された前記移動体(10~13)の画像の解像度が閾値(第2閾値)以上であることを確認し、前記解像度が前記第2閾値以上であることを確認したことに応答して前記複数の学習済みモデルから前記第2モデル(高解像度モデル7)を選択し、前記対象画像情報から検出された前記移動体(10~13)の前記1又は複数の全体情報(I11~I13)の少なくとも一つと前記1又は複数の第1部位情報(I21~I23)の少なくとも一つと前記1又は複数の第2部位情報(I31)とを、前記第2モデル(高解像度モデル7)に入力して、前記第2モデル(高解像度モデル7)に前記対象画像情報から検出された前記移動体(10~13)の移動方向の評価(O3)を出力させる。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0133】
第15の態様は、第1~第14の態様のいずれか一つに基づく評価方法を、前記演算回路(23)に実行させるための、プログラムである。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0134】
第16の態様は、評価システム(2)であって、複数の学習済みモデルを記憶する記憶装置(22)と、前記記憶装置(22)にアクセス可能な演算回路(23)と、を備える。前記複数の学習済みモデルは、画像情報中の移動体(10~13)の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報(I11~I13)の入力に対して、前記移動体(10)の移動方向の評価を出力するように学習された簡易モデル(低解像度モデル5)と、前記1又は複数の全体情報(I11~I13)の少なくとも一つと、前記移動体(10)の1又は複数の部位(R,P)に基づく1又は複数の部位情報(I21~I23,I31)との入力に対して、前記移動体(10)の移動方向の評価を出力するように学習された詳細モデル(中解像度モデル6,高解像度モデル7)と、を含む。前記演算回路(23)は、対象画像情報から検出された前記移動体(10~13)の画像の解像度が閾値(第1閾値)未満である場合に、前記複数の学習済みモデルから前記簡易モデル(低解像度モデル5)を選択し、前記対象画像情報から検出された前記移動体(10~13)の前記1又は複数の全体情報(I11~I13)を、前記簡易モデル(低解像度モデル5)に入力して、前記簡易モデル(低解像度モデル5)に前記対象画像情報から検出された前記移動体(10)の移動方向の評価(O1)を出力させる。前記演算回路(23)は、前記解像度が前記閾値(第1閾値)以上である場合に、前記複数の学習済みモデルから前記詳細モデル(中解像度モデル6,高解像度モデル7)を選択し、前記対象画像情報から検出された前記移動体(10)の前記1又は複数の全体情報(I11~I13)の少なくとも一つと前記1又は複数の部位情報(I21~I23,I31)とを、前記詳細モデル(中解像度モデル6,高解像度モデル7)に入力して、前記詳細モデル(中解像度モデル6,高解像度モデル7)に前記対象画像情報から検出された前記移動体(10~13)の移動方向の評価(O2,O3)を出力させる。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0135】
第17の態様は、評価システム(2)であって、複数の学習済みモデルを記憶する記憶装置(22)と、前記記憶装置(22)にアクセス可能な演算回路(23)と、を備える。前記複数の学習済みモデルは、画像情報中の移動体(10~13)の全体(バウンディングボックスB,B1~B3)に基づく1又は複数の全体情報(I11~I13)と、前記移動体(10~13)の1又は複数の第1部位(R)に基づく1又は複数の第1部位情報(I21~I23)との入力に対して、前記移動体(10~13)の移動方向の評価(O2)を出力するように学習された第1モデル(中解像度モデル6)と、前記1又は複数の全体情報(I11~I13)の少なくとも一つと、前記1又は複数の第1部位情報(I21~I23)の少なくとも一つと、前記移動体(10~13)の1又は複数の第2部位(P)に基づく1又は複数の第2部位情報(I31)との入力に対して、前記移動体(10~13)の移動方向の評価(O3)を出力するように学習された第2モデル(高解像度モデル7)と、を含む。前記1又は複数の第2部位(P)は、前記1又は複数の第1部位(R)よりも小さい。前記演算回路(23)は、対象画像情報から検出された前記移動体(10~13)の画像の解像度が閾値(第2閾値)未満である場合に、前記複数の学習済みモデルから前記第1モデル(中解像度モデル6)を選択し、前記対象画像情報から検出された前記移動体(10~13)の前記1又は複数の全体情報(I11~I13)と前記1又は複数の第1部位情報(I21~I23)とを、前記第1モデル(中解像度モデル6)に入力して、前記第1モデル(中解像度モデル6)に前記対象画像情報から検出された前記移動体(10~13)の移動方向の評価(O2)を出力させる。前記演算回路(23)は、前記解像度が前記閾値(第2閾値)以上である場合に、前記複数の学習済みモデルから前記第2モデル(高解像度モデル7)を選択し、前記対象画像情報から検出された前記移動体(10~13)の前記1又は複数の全体情報(I11~I13)の少なくとも一つと前記1又は複数の第1部位情報(I21~I23)の少なくとも一つと前記1又は複数の第2部位情報(I31)とを、前記第2モデル(高解像度モデル7)に入力して、前記第2モデル(高解像度モデル7)に前記対象画像情報から検出された前記移動体(10~13)の移動方向の評価(O3)を出力させる。この態様は、移動体(10~13)の移動方向の評価の精度の向上を可能にする。
【0136】
なお、第2~第11の態様は、第16又は第17の態様にも適宜変更して適用することが可能である。
【0137】
[4.用語]
本開示では、機械学習に関する用語を以下のように定義して用いる。
【0138】
「学習済みモデル」とは「学習済みパラメータ」が組み込まれた「推論プログラム」をいう。
【0139】
「学習済みパラメータ」とは、学習用データセットを用いた学習の結果、得られたパラメータ(係数)をいう。学習済みパラメータは、学習用データセットを学習用プログラムに対して入力することで、一定の目的のために機械的に調整されることで生成される。学習済みパラメータは、学習の目的にあわせて調整されているものの、単体では単なるパラメータ(数値等の情報)にすぎず、これを推論プログラムに組み込むことで初めて学習済みモデルとして機能する。例えば、ディープラーニングの場合には、学習済みパラメータの中で主要なものとしては、各ノード間のリンクの重み付けに用いられるパラメータ等がこれに該当する。
【0140】
「推論プログラム」とは、組み込まれた学習済みパラメータを適用することで、入力に対して一定の結果を出力することを可能にするプログラムをいう。例えば、入力として与えられた画像に対して、学習の結果として取得された学習済みパラメータを適用し、当該画像に対する結果(認証や判定)を出力するための一連の演算手順を規定したプログラムである。
【0141】
「学習用データセット」とは、訓練データセットともいい、生データに対して、欠測値や外れ値の除去等の前処理や、ラベル情報(正解データ)等の別個のデータの付加等、あるいはこれらを組み合わせて、変換・加工処理を施すことによって、対象とする学習の手法による解析を容易にするために生成された二次的な加工データをいう。学習用データセットには、生データに一定の変換を加えていわば「水増し」されたデータを含むこともある。
【0142】
「生データ」とは、ユーザやベンダ、その他の事業者や研究機関等により一次的に取得されたデータであって、データベースに読み込むことができるよう変換・加工処理されたものをいう。
【0143】
「学習用プログラム」とは、学習用データセットの中から一定の規則を見出し、その規則を表現するモデルを生成するためのアルゴリズムを実行するプログラムをいう。具体的には、採用する学習手法による学習を実現するために、コンピュータに実行させる手順を規定するプログラムがこれに該当する。
【産業上の利用可能性】
【0144】
本開示は、評価方法、プログラム(コンピュータプログラム)、及び、評価システムに適用可能である。具体的には、画像に写る移動体の移動方向の評価に関する評価方法、プログラム(コンピュータプログラム)、及び、評価システムに、本開示は適用可能である。
【符号の説明】
【0145】
1 移動装置(対象物)
2 評価システム
22 記憶装置
23 演算回路
5 低解像度モデル(簡易モデル)
6 中解像度モデル(詳細モデル、第1モデル)
7 高解像度モデル(詳細モデル、第2モデル)
10,11~13 移動体
B,B1~B3 バウンディングボックス
R 部位(第1部位)
P 部位(第2部位)
D1~D3 距離
I11~I13 全体情報
I21~I23 部位情報(第1部位情報)
I31 部位情報(第2部位情報)
O1~O3 評価
V1 第1移動方向
V2 第2移動方向