(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-11-16
(45)【発行日】2022-11-25
(54)【発明の名称】場面深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム
(51)【国際特許分類】
G06T 7/579 20170101AFI20221117BHJP
G06T 7/00 20170101ALI20221117BHJP
G06T 7/70 20170101ALI20221117BHJP
H04N 5/232 20060101ALI20221117BHJP
【FI】
G06T7/579
G06T7/00 350C
G06T7/70 Z
H04N5/232
(21)【出願番号】P 2021565990
(86)(22)【出願日】2021-02-08
(86)【国際出願番号】 CN2021076038
(87)【国際公開番号】W WO2021218282
(87)【国際公開日】2021-11-04
【審査請求日】2021-11-05
(31)【優先権主張番号】202010348872.2
(32)【優先日】2020-04-28
(33)【優先権主張国・地域又は機関】CN
【早期審査対象出願】
(73)【特許権者】
【識別番号】518209698
【氏名又は名称】シェンチェン センスタイム テクノロジー カンパニー リミテッド
【氏名又は名称原語表記】SHENZHEN SENSETIME TECHNOLOGY CO.,LTD
(74)【代理人】
【識別番号】110001427
【氏名又は名称】弁理士法人前田特許事務所
(72)【発明者】
【氏名】ハン タオ
(72)【発明者】
【氏名】ジャン ジャンポン
(72)【発明者】
【氏名】チョン フイ
【審査官】小池 正彦
(56)【参考文献】
【文献】国際公開第2019/099684(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/579
G06T 7/00
G06T 7/70
H04N 5/232
(57)【特許請求の範囲】
【請求項1】
時刻tの目標画像フレームを取得するステップと、
場面深度予測ネットワークによって、時刻t-1の
場面深度に関連する第1隠れ状態情報を用いて前記目標画像フレームに対して
場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップであって、前記
場面深度予測ネットワークは、
サンプル画像フレーム系列に基づいて、カメラ運動予測ネットワーク
により得られた前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を利用して損失関数を構築し、前記損失関数によりトレーニングして得られるステップと、を含み、
場面深度予測ネットワークによって、時刻t-1の
場面深度に関連する第1隠れ状態情報を用いて前記目標画像フレームに対して
場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップは、
前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップであって、前記第1特徴マップは
場面深度に関連する特徴マップであるステップと、
前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップと、
時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップと、を含む
場面深度予測方法。
【請求項2】
前記時刻t-1の前記第1隠れ状態情報は時刻t-1の異なるスケールにおける前記第1隠れ状態情報を含み、
前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップは、
前記目標画像フレームに対してマルチスケールダウンサンプリングを行って、前記目標画像フレームに対応する、異なるスケールにおける前記第1特徴マップを決定するステップを含み、
前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップは、
いずれか1つのスケールに対して、当該スケールにおける前記第1特徴マップと時刻t-1の当該スケールにおける前記第1隠れ状態情報に基づいて、時刻tの当該スケールにおける前記第1隠れ状態情報を決定するステップを含み、
時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップは、
時刻tの異なるスケールにおける前記第1隠れ状態情報に対して特徴融合を行って、前記予測深度マップを決定するステップを含む
請求項1に記載の方法。
【請求項3】
時刻tに対応する
前記サンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
カメラ運動予測ネットワークによって、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップと、
トレーニング対象である
場面深度予測ネットワークによって、時刻t-1の前記第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して
場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象である
場面深度予測ネットワークをトレーニングして、前記
場面深度予測ネットワークを得るステップと、を更に含む
請求項1又は2に記載の方法。
【請求項4】
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、
前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、
前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、
前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を含む
請求項3に記載の方法。
【請求項5】
時刻tに対応する画像フレーム系列を取得するステップであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含むステップと、
カメラ運動予測ネットワークによって、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップであって、前記カメラ運動予測ネットワークは、
サンプル画像フレーム系列に基づいて、場面深度予測ネットワーク
により得られたサンプル予測深度マップを利用して損失関数を構築し、前記損失関数によりトレーニングして得られるステップと、を含み、
カメラ運動予測ネットワークによって、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップは、
前記画像フレーム系列に対して特徴抽出を行って、前記画像フレーム系列に対応する第2特徴マップを決定するステップであって、前記第2特徴マップはカメラ運動に関連する特徴マップであるステップと、
前記第2特徴マップと時刻t-1の前記第2隠れ状態情報に基づいて、時刻tの前記第2隠れ状態情報を決定するステップと、
時刻tの前記第2隠れ状態情報に基づいて、前記予測カメラ運動を決定するステップと、を含む
カメラ運動予測方法。
【請求項6】
前記予測カメラ運動は、前記画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む
請求項5に記載の方法。
【請求項7】
時刻tに対応する
前記サンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
場面深度予測ネットワークによって、時刻t-1の
場面深度に関連する第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して
場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップと、
トレーニング対象であるカメラ運動予測ネットワークによって、時刻t-1の前記第2隠れ状態情報を用いて、前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を更に含み、
場面深度予測ネットワークによって、時刻t-1の
場面深度に関連する第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して
場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップは、
前記第1サンプル画像フレームに対して特徴抽出を行い、前記第1サンプル画像フレームに対応する第1特徴マップを決定するステップであって、前記第1特徴マップは、
場面深度に関連する特徴マップである、ステップと、
前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップと、
時刻tの前記第1隠れ状態情報に基づいて、前記サンプル予測深度マップを決定するステップと、を含む、
請求項5又は6に記載の方法。
【請求項8】
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、
前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、
前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、
前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を含む
請求項7に記載の方法。
【請求項9】
時刻tの目標画像フレームを取得するように構成される第1取得モジュールと、
場面深度予測ネットワークによって、時刻t-1の
場面深度に関連する第1隠れ状態情報を用いて、前記目標画像フレームに対して
場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するように構成される第1
場面深度予測モジュールであって、前記
場面深度予測ネットワークは、
サンプル画像フレーム系列に基づいて、カメラ運動予測ネットワーク
により得られた前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を利用して損失関数を構築し、前記損失関数によりトレーニングして得られる第1
場面深度予測モジュールと、を備え、
前記第1
場面深度予測モジュールは、
前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するように構成される第1決定サブモジュールであって、前記第1特徴マップは
場面深度に関連する特徴マップである第1決定サブモジュールと、
前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するように構成される第2決定サブモジュールと、
時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するように構成される第3決定サブモジュールと、を備える
場面深度予測装置。
【請求項10】
時刻tに対応する画像フレーム系列を取得するように構成される第2取得モジュールであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含む第1取得モジュールと、
カメラ運動予測ネットワークによって、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するように構成される第1カメラ運動予測モジュールであって、前記カメラ運動予測ネットワークは、
サンプル画像フレーム系列に基づいて、場面深度予測ネットワーク
により得られたサンプル予測深度マップを利用して損失関数を構築し、前記損失関数によりトレーニングして得られる第1カメラ運動予測モジュールと、を備え、
前記第1カメラ運動予測モジュールは、
前記画像フレーム系列に対して特徴抽出を行って、前記画像フレーム系列に対応する第2特徴マップを決定するように構成される第1決定サブモジュールであって、前記第2特徴マップはカメラ運動に関連する特徴マップである第1決定サブモジュールと、
前記第2特徴マップと時刻t-1の前記第2隠れ状態情報に基づいて、時刻tの前記第2隠れ状態情報を決定するように構成される第2決定サブモジュールと、
時刻tの前記第2隠れ状態情報に基づいて、前記予測カメラ運動を決定するように構成される第3決定サブモジュールと、を備える
カメラ運動予測装置。
【請求項11】
プロセッサと、
プロセッサ実行可能指令を記憶するように構成されるメモリと、を備え、
前記プロセッサは前記メモリに記憶された指令を呼び出して請求項1~8のいずれか一項に記載の方法を実行するように構成される電子機器。
【請求項12】
コンピュータプログラム指令が記憶されており、前記コンピュータプログラム指令がプロセッサに、請求項1~8のいずれか一項に記載の方法を実行させるコンピュータ可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本願は、出願番号が202010348872.2であり、出願日が2020年4月28日である中国特許出願に基づいて提出するものであり、この中国特許出願の優先権を主張し、この中国特許出願の全てが参照によって本願に組み込まれる。
【0002】
本開示は、コンピュータの技術分野に関し、場面深度とカメラ運動を予測する方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラムに関するが、それらに限定されない。
【背景技術】
【0003】
単眼画像収集装置(例えば、単眼カメラ)が収集した画像を入力として場面深度及びカメラ運動を予測することは、この20年以来コンピュータビジョン分野で活発且つ重要な研究方向であり、拡張現実、無人運転及び移動ロボットの位置決定と走行誘導等の多くの分野に広く利用されている。
【発明の概要】
【0004】
本開示の実施例は、場面深度とカメラ運動を予測する方法及び装置、電子機器、媒体並びにプログラムの技術的解決手段を提供する。
【0005】
本開示の実施例は、時刻tの目標画像フレームを取得するステップと、場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含み、前記場面深度予測ネットワークは、カメラ運動予測ネットワークの補助でトレーニングして得られるステップとを含む場面深度予測方法を提供する。
【0006】
本開示のいくつかの実施例で、場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップは、前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップであって、前記第1特徴マップは場面深度に関連する特徴マップであるステップと、前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップと、時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップとを含む。
【0007】
本開示のいくつかの実施例で、時刻t-1の前記第1隠れ状態情報は時刻t-1の異なるスケールにおける前記第1隠れ状態情報を含み、前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップは、前記目標画像フレームに対してマルチスケールダウンサンプリングを行って、前記目標画像フレームに対応する、異なるスケールにおける前記第1特徴マップを決定するステップを含み、前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップは、いずれか1つのスケールに対して、当該スケールにおける前記第1特徴マップと時刻t-1の当該スケールにおける前記第1隠れ状態情報に基づいて、時刻tの当該スケールにおける前記第1隠れ状態情報を決定するステップを含み、時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップは、時刻tの異なるスケールにおける前記第1隠れ状態情報に対して特徴融合を行って、前記予測深度マップを決定するステップを含む。
【0008】
本開示のいくつかの実施例で、前記方法は、時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、トレーニング対象である場面深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、前記損失関数により、前記トレーニング対象である場面深度予測ネットワークをトレーニングして、前記場面深度予測ネットワークを得るステップと、を更に含む。
【0009】
本開示のいくつかの実施例で、前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップとを含む。
【0010】
本開示の実施例は、時刻tに対応する画像フレーム系列を取得するステップであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含むステップと、カメラ運動予測ネットワークによって、時刻t-1の第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、前記カメラ運動予測ネットワークは、場面深度予測ネットワークの補助でトレーニングして得られるステップとを含むカメラ運動予測方法を更に提供する。
【0011】
本開示のいくつかの実施例で、カメラ運動予測ネットワークによって、時刻t-1の第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップは、前記画像フレーム系列に対して特徴抽出を行って、前記画像フレーム系列に対応する第2特徴マップを決定するステップであって、前記第2特徴マップはカメラ運動に関連する特徴マップであるステップと、前記第2特徴マップと時刻t-1の前記第2隠れ状態情報に基づいて、時刻tの前記第2隠れ状態情報を決定するステップと、時刻tの前記第2隠れ状態情報に基づいて、前記予測カメラ運動を決定するステップとを含む。
【0012】
本開示のいくつかの実施例で、前記予測カメラ運動は、前記画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む。
【0013】
本開示のいくつかの実施例で、前記方法は、時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を更に含む。
【0014】
本開示のいくつかの実施例で、前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を含む。
【0015】
本開示の実施例は、時刻tの目標画像フレームを取得するように構成される第1取得モジュールと、場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するように構成される第1場面深度予測モジュールであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含み、前記場面深度予測ネットワークは、カメラ運動予測ネットワークの補助でトレーニングして得られる第1場面深度予測モジュールとを備える場面深度予測装置を更に提供する。
【0016】
本開示のいくつかの実施例で、前記第1場面深度予測モジュールは、前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するように構成される第1決定サブモジュールであって、前記第1特徴マップは場面深度に関連する特徴マップである第1決定サブモジュールと、前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するように構成される第2決定サブモジュールと、時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するように構成される第3決定サブモジュールと、を備える。
【0017】
本開示のいくつかの実施例で、時刻t-1の前記第1隠れ状態情報は時刻t-1の異なるスケールにおける前記第1隠れ状態情報を含み、前記第1決定サブモジュールは、具体的に、前記目標画像フレームに対してマルチスケールダウンサンプリングを行って、前記目標画像フレームに対応する、異なるスケールにおける前記第1特徴マップを決定するように構成され、前記第2決定サブモジュールは、具体的に、いずれか1つのスケールに対して、当該スケールにおける前記第1特徴マップと時刻t-1の当該スケールにおける前記第1隠れ状態情報に基づいて、時刻tの当該スケールにおける前記第1隠れ状態情報を決定するように構成され、前記第3決定サブモジュールは、具体的に、時刻tの異なるスケールにおける前記第1隠れ状態情報に対して特徴融合を行って、前記予測深度マップを決定するように構成される。
【0018】
本開示のいくつかの実施例で、前記装置は、
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
トレーニング対象である場面深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象である場面深度予測ネットワークをトレーニングして、前記場面深度予測ネットワークを得るステップと、を実行するように構成される第1トレーニングモジュールを更に備える。
【0019】
本開示のいくつかの実施例で、前記第1トレーニングモジュールは、具体的に、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される。
【0020】
本開示の実施例は、時刻tに対応する画像フレーム系列を取得するように構成される第2取得モジュールであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含む第2取得モジュールと、カメラ運動予測ネットワークによって、時刻t-1の第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するように構成される第1カメラ運動予測モジュールであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、前記カメラ運動予測ネットワークは、場面深度予測ネットワークの補助でトレーニングして得られる第1カメラ運動予測モジュールと、を備えるカメラ運動予測装置を更に提供する。
【0021】
本開示のいくつかの実施例で、前記第1カメラ運動予測モジュールは、前記画像フレーム系列に対して特徴抽出を行って、前記画像フレーム系列に対応する第2特徴マップを決定するように構成される第6決定サブモジュールであって、前記第2特徴マップはカメラ運動に関連する特徴マップである第6決定サブモジュールと、前記第2特徴マップと時刻t-1の前記第2隠れ状態情報に基づいて、時刻tの前記第2隠れ状態情報を決定するように構成される第7決定サブモジュールと、時刻tの前記第2隠れ状態情報に基づいて、前記予測カメラ運動を決定するように構成される第8決定サブモジュールと、を備える。
【0022】
本開示のいくつかの実施例で、前記予測カメラ運動は、前記画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む。
【0023】
本開示のいくつかの実施例で、前記装置は、
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、
トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を実行するように構成される第2トレーニングモジュールを更に備える。
【0024】
本開示のいくつかの実施例で、前記第2トレーニングモジュールは、具体的に、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される。
【0025】
本開示の実施例は、プロセッサと、プロセッサ実行可能指令を記憶するように構成されるメモリと、を備え、前記プロセッサは前記メモリに記憶された指令を呼び出して上記のいずれか1種の方法を実行するように構成される電子機器を更に提供する。
【0026】
本開示の実施例は、コンピュータプログラム指令が記憶されており、前記コンピュータプログラム指令がプロセッサに実行される時に、上記のいずれか1種の方法を実現するコンピュータ可読記憶媒体を更に提供する。
【0027】
本開示の実施例は、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で実行される時に、前記電子機器内のプロセッサが上記のいずれか1種の方法を実現するための指令を実行するコンピュータプログラムを更に提供する。
【0028】
本開示の実施例で、時刻tに対応する目標画像フレームを取得し、隣接時刻の間で、場面深度は時系列的な関連関係があるので、時刻t-1の場面深度に関連する第1隠れ状態情報を用いて、場面深度予測ネットワークによって目標画像フレームに対して場面深度予測を行うことで、目標画像フレームに対応する予測精度の高い予測深度マップを得ることができる。
【0029】
本開示の実施例で、時刻tに対応する、時刻tの目標画像フレームと目標画像フレームの隣接画像フレームを含む画像フレーム系列を取得し、隣接時刻の間で、カメラ位置姿勢は時系列的な関連関係があるので、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、カメラ運動予測ネットワークによって画像フレーム系列に対してカメラ位置姿勢予測を行うことで、予測精度の高い予測カメラ運動を得ることができる。
【0030】
以上の一般説明と以下の詳細説明は解釈するための例示的なものに過ぎず、本開示を制限しないこと、を理解すべきである。以下の図面を参照した例示的な実施例に対する詳細な説明によれば、本開示の他の特徴及び態様は明確になる。
【図面の簡単な説明】
【0031】
【
図1】本開示の実施例の
場面深度予測方法のフローチャートである。
【
図2】本開示の実施例の
場面深度予測ネットワークのブロック図である。
【
図3】本開示の実施例の教師なしのネットワークトレーニングのブロック図である。
【
図4】本開示の実施例のカメラ運動予測方法のフローチャートである。
【
図5】本開示の実施例の
場面深度予測装置の構成の模式図である。
【
図6】本開示の実施例のカメラ運動予測装置の構成の模式図である。
【
図7】本開示の実施例の電子機器の構成の模式図である。
【
図8】本開示の実施例の電子機器の構成の模式図である。
【発明を実施するための形態】
【0032】
ここの図面は明細書に組み込まれて明細書の一部を構成し、これらの図面は本開示に合致する実施例を示し、明細書と共に本開示の技術的解決手段を説明するために用いられる。
【0033】
以下に図面を参照しながら本開示の様々な例示的実施例、特徴及び態様を詳細に説明する。図面における同じ符号は同じ又は類似する機能の要素を表す。図面において実施例の様々な態様を示したが、特に断らない限り、比例に従って図面を作る必要がない。
【0034】
ここの用語「例示的」とは、「例、実施例として用いられること又は説明的なもの」を意味する。ここで「例示的」に説明したいかなる実施例も必ずしも他の実施例より好ましい又は有利であると解釈されるべきではない。
【0035】
本明細書の用語の「及び/又は」は、関連対象の関連関係を記述するためのものに過ぎず、3種の関係が存在可能であることを示し、例えば、A及び/又はDは、Aが単独して存在し、AとDが同時に存在し、Dが単独して存在するという3種の場合を示してもよい。また、本明細書の用語の「少なくとも1種」は多種のうちのいずれか1種又は多種のうちの少なくとも2種の任意の組み合わせを示し、例えば、A、C、Dのうちの少なくとも1種を含むということは、A、C及びDから構成される集合から選択されるいずれか1つ又は複数の要素を含むことを示してもよい。
【0036】
また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的詳細を示す。当業者であれば、何らかの具体的詳細がなくなるにも関わらず、本開示は同様に実施できるということを理解すべきである。いくつかの実施例では、本開示の趣旨を強調するよう、当業者に既知の方法、手段、要素及び回路に対する詳細な説明を省略する。
【0037】
図1は本開示の実施例に係る
場面深度予測方法のフローチャートを示す。
図1に示す
場面深度予測方法は、ユーザ側装置(User Equipment:UEと略称)、携帯機器、ユーザ端末、端末、セルラー電話、コードレス電話機、携帯情報端末(Personal Digital Assistant:PDAと略称)、携帯型デバイス、計算装置、車載装置、ウェアラブル装置等の端末装置又は他の処理装置により実行してもよい。他の処理装置はサーバ又はクラウドサーバ等であってもよい。いくつかの実施例では、この
場面深度予測方法はプロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。
図1に示すように、当該方法は、以下のステップを含んでもよい。
【0038】
ステップS11で、時刻tの目標画像フレームを取得する。
【0039】
ステップS12で、場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて目標画像フレームに対して場面深度予測を行って、目標画像フレームに対応する予測深度マップを決定し、第1隠れ状態情報は場面深度に関連する特徴情報を含み、場面深度予測ネットワークは、カメラ運動予測ネットワークの補助でトレーニングして得られる。
【0040】
本開示の実施例で、時刻tの目標画像フレームを取得し、隣接時刻の間で、場面深度は時系列的な関連関係があるので、時刻t-1の場面深度に関連する第1隠れ状態情報を用いて、場面深度予測ネットワークによって目標画像フレームに対して場面深度予測を行うことで、目標画像フレームに対応する予測精度の高い予測深度マップを得ることができる。
【0041】
いくつかの実施例では、場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて目標画像フレームに対して場面深度予測を行って、目標画像フレームに対応する予測深度マップを決定するステップは、目標画像フレームに対して特徴抽出を行って、目標画像フレームに対応する第1特徴マップを決定するステップであって、第1特徴マップは場面深度に関連する特徴マップであるステップと、第1特徴マップと時刻t-1の第1隠れ状態情報に基づいて、時刻tの第1隠れ状態情報を決定するステップと、時刻tの第1隠れ状態情報に基づいて、予測深度マップを決定するステップと、を含んでもよい。
【0042】
隣接時刻の間で、場面深度は時系列的な関連関係があるので、場面深度予測ネットワークは現在時刻(例えば、時刻t)の目標画像フレームに対応する、場面深度に関連する第1特徴マップ、及び直前時刻(例えば、時刻t-1)の場面深度に関連する第1隠れ状態情報を用いて、現在時刻の場面深度に関連する第1隠れ状態情報を決定でき、更に現在時刻の場面深度に関連する第1隠れ状態情報に基づいて目標画像フレームに対して場面深度予測を行って、現在時刻の目標画像フレームに対応する予測精度の高い予測深度マップを得ることができる。
【0043】
例えば、場面深度予測ネットワークを用いて画像フレーム系列(第1時刻~第t時刻の画像フレームを含む)のうちの各画像フレームに対応する予測深度マップを予測する時に、場面深度予測ネットワークの初期化段階で、場面深度に関連する第1隠れ状態情報の事前設定初期値を設定する。第1隠れ状態情報の事前設定初期値及び第1時刻の画像フレームに対応する、場面深度に関連する第1特徴マップに基づいて、第1時刻の第1隠れ状態を決定し、更に第1時刻の第1隠れ状態に基づいて第1時刻の画像フレームに対して場面深度予測を行って、第1時刻の画像フレームに対応する予測深度マップを得、また、第1時刻の第1隠れ状態及び第2時刻の画像フレームに対応する、場面深度に関連する第1特徴マップに基づいて、第2時刻の第1隠れ状態を決定し、更に第2時刻の第1隠れ状態に基づいて第2時刻の画像フレームに対して場面深度予測を行って、第2時刻の画像フレームに対応する予測深度マップを得、また、第2時刻の第1隠れ状態及び第3時刻の画像フレームに対応する、場面深度に関連する第1特徴マップに基づいて、第3時刻の第1隠れ状態を決定し、更に第3時刻の第1隠れ状態に基づいて第3時刻の画像フレームに対して場面深度予測を行って、第3時刻の画像フレームに対応する予測深度マップを得、これによって類推して、最終的に画像フレーム系列(第1時刻~第t時刻の画像フレームを含む)のうちの各画像フレームに対応する予測深度マップを得る。
【0044】
いくつかの実施例では、時刻t-1の第1隠れ状態情報は時刻t-1の異なるスケールにおける第1隠れ状態情報を含み、目標画像フレームに対して特徴抽出を行って、目標画像フレームに対応する第1特徴マップを決定するステップは、目標画像フレームに対してマルチスケールダウンサンプリングを行って、目標画像フレームに対応する、異なるスケールにおける第1特徴マップを決定するステップを含んでもよく、第1特徴マップと時刻t-1の第1隠れ状態情報に基づいて、時刻tの第1隠れ状態情報を決定するステップは、いずれか1つのスケールに対して、当該スケールにおける第1特徴マップと時刻t-1の当該スケールにおける第1隠れ状態情報に基づいて、時刻tの当該スケールにおける第1隠れ状態情報を決定するステップを含んでもよく、時刻tの第1隠れ状態情報に基づいて、予測深度マップを決定するステップは、時刻tの異なるスケールにおける第1隠れ状態情報に対して特徴融合を行って、予測深度マップを決定するステップを含んでもよい。
【0045】
時刻tの目標画像フレームに対応する予測深度マップをより好適に決定するために、
場面深度予測ネットワークはマルチスケール特徴融合メカニズムを採用してもよい。
図2は本開示の実施例に係る
場面深度予測ネットワークのブロック図を示し、
図2に示すように、
場面深度予測ネットワークは、深度エンコーダ202、マルチスケール畳み込みゲート付き回帰型ユニット(Convolutional Gated Recurrent Unit:ConvGRU)及び深度デコーダ205を含む。時刻tの目標画像フレーム201を深度エンコーダ202に入力してマルチスケールダウンサンプリングを行って、目標画像フレームに対応する、異なるスケールにおける第1特徴マップ203、即ち、第1スケールにおける第1特徴マップ
【0046】
【0047】
【0048】
を得る。ここで、マルチスケールConvGRUはマルチスケールの第1特徴マップのスケールに対応し、即ち、マルチスケールConvGRUは第1スケールでのConvGRU0、第2スケールでのConvGRU1及び第3スケールでのConvGRU2を含む。
【0049】
【0050】
【0051】
【0052】
をConvGRU
2に入力する。ConvGRU
0は第1特徴マップ
【0053】
とConvGRU
0に記憶された時刻t-1の第1スケールにおける第1隠れ状態情報
【0054】
に対して特徴融合を行って、時刻tの第1スケールでの第1隠れ状態
【0055】
を得、ConvGRU
0は時刻tの第1スケールでの第1隠れ状態
【0056】
【0057】
を深度デコーダに出力し、また、ConvGRU
1は第1特徴マップ
【0058】
とConvGRU
1に記憶された時刻t-1の第2スケールにおける第1隠れ状態情報
【0059】
に対して特徴融合を行って、時刻tの第2スケールでの第1隠れ状態
【0060】
を得、ConvGRU
1は時刻tの第2スケールでの第1隠れ状態
【0061】
【0062】
を深度デコーダに出力し、また、ConvGRU
2は第1特徴マップ
【0063】
とConvGRU
2に記憶された時刻t-1の第3スケールにおける第1隠れ状態情報
【0064】
に対して特徴融合を行って、時刻tの第3スケールでの第1隠れ状態
【0065】
を得、ConvGRU
2は時刻tの第3スケールでの第1隠れ状態
【0066】
【0067】
を深度デコーダに出力する。
図2において、マルチスケール隠れ状態204は時刻tの第1スケールでの第1隠れ状態
【0068】
【0069】
【0070】
を含む。
【0071】
深度デコーダ205は時刻tの第1スケールでの第1隠れ状態
【0072】
【0073】
【0074】
のスケールを目標画像フレーム201のスケール(以下、目標画像フレームのスケールを目標スケールと略称)と同じになるようにそれぞれ回復し、時刻tの目標スケールでの3つの第1隠れ状態を得る。第1隠れ状態情報は
場面深度に関連する特徴情報を含み、
場面深度予測ネットワークにおいても特徴マップとして存在するので、時刻tの目標スケールでの3つの第1隠れ状態に対して特徴マップ融合を行って、時刻tの目標画像フレームに対応する予測深度マップ
【0075】
を得る。
【0076】
いくつかの実施例では、当該場面深度予測方法は、時刻tに対応するサンプル画像フレーム系列を取得するステップであって、サンプル画像フレーム系列は時刻tの第1サンプル画像フレームと第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いてサンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、トレーニング対象である場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて第1サンプル画像フレームに対して場面深度予測を行って、第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、サンプル予測深度マップとサンプル予測カメラ運動に基づいて損失関数を構築するステップと、損失関数により、トレーニング対象である場面深度予測ネットワークをトレーニングして、場面深度予測ネットワークを得るステップと、を更に含んでもよい。
【0077】
本開示の実施例で、場面深度予測ネットワークは、カメラ運動予測ネットワークの補助でトレーニングして得られたものであり、又は、場面深度予測ネットワークとカメラ運動予測ネットワークは共同訓練して得られたものである。場面深度とカメラ位置姿勢の隣接時刻の間における時系列的な関連関係によって、スライドウィンドウデータ融合メカニズムを導入し、スライドウィンドウの系列における目標時刻(時刻t)の場面深度とカメラ運動に関連する隠れ状態情報を抽出、記憶し、更に場面深度予測ネットワーク及び/又はカメラ運動予測ネットワークに対して教師なしのネットワークトレーニングを行う。
【0078】
本開示の実施例で、時系列的に連続して収集したサンプル画像フレーム系列を含むトレーニングセットを予め作成し、更に当該トレーニングセットに基づいてトレーニング対象である
場面深度予測ネットワークをトレーニングしてもよい。
図3は本開示の実施例の教師なしのネットワークトレーニングのブロック図を示す。
図3に示すように、目標時刻が時刻tであり、目標時刻に対応するサンプル画像フレーム系列301(即ち、目標時刻に対応するスライドウィンドウに含まれるサンプル画像フレーム系列)が時刻tの第1サンプル画像フレームI
t、時刻t-1の隣接サンプル画像フレームI
t-1及び時刻t+1の隣接サンプル画像フレームI
t+1を含む。サンプル画像フレーム系列における第1サンプル画像フレームの隣接サンプル画像フレームの数量は実際状況に応じて決定可能であり、本開示はこれを具体的に限定するものでない。
【0079】
図3に示すトレーニング対象である
場面深度予測ネットワークに採用されたのは単一スケール特徴融合メカニズムである。ネットワークトのレーニング過程で、トレーニング対象である
場面深度予測ネットワークは
図3に示す単一スケール特徴融合メカニズムを採用してもよいし、
図2に示すマルチスケール特徴融合メカニズムを採用してもよく、本開示はこれを具体的に限定するものでない。
図3に示すように、トレーニング対象である
場面深度予測ネットワークは、深度エンコーダ202、ConvGRU及び深度デコーダ205を含む。時刻tの第1サンプル画像フレームI
tを深度エンコーダ202に入力して特徴抽出を行って、第1サンプル画像フレームI
tに対応する第1特徴マップ
【0080】
【0081】
【0082】
とConvGRUに記憶された時刻t-1の第1隠れ状態情報
【0083】
【0084】
【0085】
【0086】
を深度デコーダ205に出力して、時刻tの第1サンプル画像フレームに対応するサンプル予測深度マップ
【0087】
を得る。
【0088】
依然として上記
図3を例とし、
図3に示すように、カメラ運動予測ネットワークは、位置姿勢エンコーダ302、ConvGRU及び位置姿勢デコーダ303を含む。時刻tに対応するサンプル画像フレーム系列[I
t,I
t-1,I
t+1]を位置姿勢エンコーダ302に入力して特徴抽出を行って、サンプル画像フレーム系列に対応する第2特徴マップ
【0089】
【0090】
【0091】
とConvGRUに記憶された時刻t-1の第2隠れ状態情報
【0092】
【0093】
【0094】
【0095】
を位置姿勢デコーダに出力して、時刻tのサンプル画像フレーム系列に対応するサンプル予測カメラ運動[
【0096】
【0097】
]を得る。
【0098】
依然として上記
図3を例とし、サンプル予測深度マップ
【0099】
【0100】
【0101】
【0102】
を構築できる。具体的には、サンプル予測カメラ運動[
【0103】
【0104】
]により、サンプル画像フレーム系列のうちの隣接サンプル画像フレームI
t-1とI
t+1の第1サンプル画像フレームI
tに対する再投影誤差項
【0105】
【0106】
【0107】
【0108】
【0109】
【0110】
【0111】
の値の大きさを決定でき、本開示はこれを具体的に限定するものでない。
【0112】
【0113】
【0114】
を決定する具体的な過程は以下のとおりである。第1サンプル画像フレームI
tにおける各画素点の勾配値を決定し、各画素点の勾配値が第1サンプル画像フレームI
tの分布連続性(平滑性と呼んでもよい)を表すことができるので、各画素点の勾配値により第1サンプル画像フレームI
tにおける縁領域(勾配値が閾値以上の画素点が構成した領域)と非縁領域(勾配値が閾値より小さい画素点が構成した領域)を決定でき、更に第1サンプル画像フレームI
tに対応するサンプル予測深度マップ
【0115】
における縁領域と非縁領域を決定できる。サンプル予測深度マップ
【0116】
における各画素点の勾配値を決定し、サンプル予測深度マップ
【0117】
における非縁領域の分布連続性及び縁領域の分布非連続性を確保するために、サンプル予測深度マップ
【0118】
における非縁領域中の各画素点に対して、勾配値に正比例するペナルティ要素を設定する。サンプル予測深度マップ
【0119】
における縁領域中の各画素点に対して、勾配値に反比例するペナルティ要素を設定する。更にサンプル予測深度マップ
【0120】
における各画素点のペナルティ要素に基づいて、ペナルティ関数項
【0121】
を構築する。
【0122】
サンプル予測深度マップとサンプル予測カメラ運動は、場面深度とカメラ運動の隣接時刻の間における時系列的な関連関係によって得られたものであるので、カメラ運動予測ネットワークで得られた予測カメラ運動により決定された再投影誤差項、及び場面深度予測ネットワークで得られた予測深度マップにより決定されたペナルティ関数項によって構築された損失関数を総合的に利用して、トレーニング対象である場面深度予測ネットワークをトレーニングすることで、トレーニングされた場面深度予測ネットワークは場面深度予測の予測精度を高くすることができる。
【0123】
いくつかの実施例では、
図3におけるカメラ運動予測ネットワークはトレーニング対象であるカメラ運動予測ネットワークであってもよく、上記損失関数によりトレーニング待ちカメラ運動ネットワークをトレーニングして、トレーニング対象である
場面深度予測ネットワークとトレーニング待ちカメラ運動ネットワークの共同訓練を実現して、トレーニング済みの
場面深度予測ネットワークとカメラ運動予測ネットワークを得ることができる。
【0124】
予測深度マップと予測カメラ運動が場面深度とカメラ運動の隣接時刻の間における時系列的な関連関係で得られたものであるので、カメラ運動予測ネットワークで得られた予測カメラ運動により決定された再投影誤差項、及び場面深度予測ネットワークで得られた予測深度マップにより決定されたペナルティ関数項によって構築された損失関数を総合的に利用して、場面深度予測ネットワークとカメラ運動予測ネットワークを共同訓練することで、トレーニングされた場面深度予測ネットワークとカメラ運動予測ネットワークは場面深度予測とカメラ運動予測の予測精度を高くすることができる。
【0125】
いくつかの実施例では、深度エンコーダと位置姿勢エンコーダはResNet18構造を共用してもよく、ResNet54構造を共用してもよく、他の構造を共用してもよく、本開示はこれを具体的に限定するものでない。深度デコーダと位置姿勢デコーダはUnetネットワーク構造を採用してもよく、他のデコーダネットワーク構造を採用してもよく、本開示はこれを具体的に限定するものでない。
【0126】
いくつかの実施例では、ConvGRUは畳み込み操作を含み、また、ConvGRU中の活性化関数がELU活性化関数である。
【0127】
例えば、1次元データに対してしかデータ処理できない畳み込みゲート付き回帰型ユニットConvGRUを改良し、ConvGRU中の線形操作を畳み込み操作に換え、ConvGRU中のtanh活性化関数をELU活性化関数に換えることで、2次元画像データに対してデータ処理できるConvGRUを得ることができる。
【0128】
場面深度及び/又はカメラ運動が時系列的な関連関係を利用して、ConvGRUによって、異なる時刻の対応する画像フレーム系列に対して時系列で畳み込み処理を繰り返すことができ、これによって、異なる時刻の対応する第1隠れ状態及び/又は第2隠れ状態を得ることができる。
【0129】
スライドウィンドウデータ融合メカニズムを実現するために、上記ConvGRUを採用することに加えて、畳み込み長期短期記憶ユニット(Convolutional Long Short-Term Memory:ConvLSTM)を採用してもよく、スライドウィンドウデータ融合を実現可能な他の構造を採用してもよく、本開示はこれを具体的に限定するものでない。
【0130】
図4は本開示の実施例に係るカメラ運動予測方法のフローチャートを示す。
図4に示すカメラ運動予測方法は、ユーザ側装置(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラー電話、コードレス電話機、携帯情報端末(Personal Digital Assistant:PDA)、携帯型デバイス、計算装置、車載装置、ウェアラブル装置等の端末機器又は他の処理装置により実行してもよい。他の処理装置はサーバ又はクラウドサーバ等であってもよい。いくつかの可能な実現形態において、このカメラ運動予測方法はプロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。
図4に示すように、当該方法は、以下のステップを含んでもよい。
【0131】
ステップS41で、時刻tに対応する画像フレーム系列を取得し、画像フレーム系列は時刻tの目標画像フレームと目標画像フレームの隣接画像フレームを含む。
【0132】
ステップS42で、カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて画像フレーム系列に対してカメラ位置姿勢予測を行って、画像フレーム系列に対応する予測カメラ運動を決定し、第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、カメラ運動予測ネットワークは、場面深度予測ネットワークの補助でトレーニングして得られる。
【0133】
本開示の実施例で、時刻tの目標画像フレームと目標画像フレームの隣接画像フレームを含む画像フレーム系列を取得し、隣接時刻の間でカメラ運動は時系列的な関連関係があるので、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、カメラ運動予測ネットワークによって画像フレーム系列に対してカメラ位置姿勢予測を行うことで、画像フレーム系列に対応する予測精度の高い予測カメラ運動を得ることができる。
【0134】
いくつかの実施例では、カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて画像フレーム系列に対してカメラ位置姿勢予測を行って、画像フレーム系列に対応する予測カメラ運動を決定するステップは、画像フレーム系列に対して特徴抽出を行って、画像フレーム系列に対応する第2特徴マップを決定するステップであって、第2特徴マップはカメラ運動に関連する特徴マップであるステップと、第2特徴マップと時刻t-1の第2隠れ状態情報に基づいて、時刻tの第2隠れ状態情報を決定するステップと、時刻tの第2隠れ状態情報に基づいて、予測カメラ運動を決定するステップと、を含んでもよい。
【0135】
隣接時刻の間でカメラ運動は時系列的な関連関係があるので、カメラ運動予測ネットワークは、時刻tの画像フレーム系列に対応する場面深度に関連する第2特徴マップ、及び時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、時刻tのカメラ運動に関連する第2隠れ状態情報を決定でき、更に時刻tのカメラ運動に関連する第2隠れ状態情報に基づいて時刻tの画像フレーム系列に対してカメラ運動予測を行って、時刻tの画像フレーム系列に対応する予測精度の高い予測深度マップを得ることができる。
【0136】
いくつかの実施例では、予測カメラ運動は画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含んでもよい。ここで、相対的位置姿勢は6次元パラメータであり、3次元回転情報と3次元平行移動情報を含む。
【0137】
【0138】
【0139】
]は、隣接画像フレームI
t-1~目標画像フレームI
tの間の相対的位置姿勢
【0140】
、及び目標画像フレームI
t~隣接画像フレームI
t+1の間の相対的位置姿勢
【0141】
を含む。
【0142】
上記
図3を例とし、
図3に示すように、カメラ運動予測ネットワークは、位置姿勢エンコーダ、ConvGRU及び位置姿勢デコーダを含む。時刻tに対応する画像フレーム系列[I
t,I
t-1,I
t+1]を位置姿勢エンコーダ302に入力して特徴抽出を行って、画像フレーム系列に対応する第2特徴マップ
【0143】
【0144】
【0145】
とConvGRUに記憶された時刻t-1の第2隠れ状態情報
【0146】
【0147】
【0148】
【0149】
を位置姿勢デコーダに出力して、時刻tの画像フレーム系列に対応する予測カメラ運動[
【0150】
【0151】
]を得る。
【0152】
例えば、カメラ運動予測ネットワークを用いて画像フレーム系列に対応する予測カメラ運動を予測する時に、カメラ運動予測ネットワークの初期化段階で、カメラ運動に関連する第2隠れ状態情報の事前設定初期値を設定する。第2隠れ状態情報の事前設定初期値及び第1時刻の画像フレーム系列に対応する、カメラ運動に関連する第2特徴マップに基づいて、第1時刻の第2隠れ状態を決定し、更に第1時刻の第2隠れ状態に基づいて第1時刻の画像フレーム系列に対してカメラ運動予測を行って、第1時刻の画像フレーム系列に対応する予測カメラ運動を得、また、第1時刻の第2隠れ状態及び第2時刻の画像フレーム系列に対応する、カメラ運動に関連する第2特徴マップに基づいて、第2時刻の第2隠れ状態を決定し、更に第2時刻の第2隠れ状態に基づいて第2時刻の画像フレーム系列に対してカメラ運動予測を行って、第2時刻の画像フレーム系列に対応する予測カメラ運動を得、また、第2時刻の第2隠れ状態及び第3時刻の画像フレーム系列に対応する、カメラ運動に関連する第2特徴マップに基づいて、第3時刻の第2隠れ状態を決定し、更に第3時刻の第2隠れ状態に基づいて第3時刻の画像フレーム系列に対してカメラ運動予測を行って、第3時刻の画像フレーム系列に対応する予測カメラ運動を得、これによって類推して、最終的に異なる時刻の画像フレーム系列に対応する予測カメラ運動を得る。
【0153】
いくつかの実施例では、当該カメラ運動予測方法は、時刻tに対応するサンプル画像フレーム系列を取得するステップであって、サンプル画像フレーム系列は時刻tの第1サンプル画像フレームと第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて目標画像フレームに対して場面深度予測を行って、第1サンプル画像フレームに対応する予測深度マップを決定するステップであって、第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いてサンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、サンプル予測深度マップとサンプル予測カメラ運動に基づいて損失関数を構築するステップと、損失関数により、トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、カメラ運動予測ネットワークを得るステップと、を更に含んでもよい。
【0154】
いくつかの実施例では、サンプル予測深度マップとサンプル予測カメラ運動に基づいて損失関数を構築するステップは、サンプル予測カメラ運動に基づいてサンプル画像フレーム系列のうちの第1サンプル画像フレームの隣接サンプル画像フレームの第1サンプル画像フレームに対する再投影誤差項を決定するステップと、サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、再投影誤差項とペナルティ関数項により、損失関数を構築するステップと、を含んでもよい。
【0155】
本開示の実施例で、カメラ運動予測ネットワークは、
場面深度予測ネットワーク
の補助でトレーニングして得られたものであり、又は、
場面深度予測ネットワークとカメラ運動予測ネットワークは共同訓練して得られたものである。いくつかの実施例では、上記
図3に基づいてトレーニング対象であるカメラ運動予測ネットワークをトレーニングしてもよく、このトレーニング過程で、
図3におけるカメラ運動予測ネットワークはトレーニング対象であるカメラ運動予測ネットワークであり、
図3における
場面深度予測ネットワークはトレーニング対象である
場面深度予測ネットワークであってもよく(トレーニング対象である
場面深度予測ネットワークとトレーニング対象であるカメラ運動予測ネットワークを共同訓練)、トレーニング済みの
場面深度予測ネットワークであってもよく(トレーニング対象であるカメラ運動予測ネットワークを単独トレーニング)、具体的なトレーニング過程は上記
図3と同じであり、本開示の実施例はここで詳細に説明しない。
【0156】
予測深度マップと予測カメラ運動は、場面深度とカメラ運動の隣接時刻の間における時系列的な関連関係によって得られたものであるので、カメラ運動予測ネットワークで得られた予測カメラ運動により決定された再投影誤差項、及び場面深度予測ネットワークで得られた予測深度マップにより決定されたペナルティ関数項に基づいて構築された損失関数を総合的に利用して、場面深度予測ネットワークとカメラ運動予測ネットワークを共同訓練することで、トレーニングされた場面深度予測ネットワークとカメラ運動予測ネットワークは場面深度予測とカメラ運動予測の予測精度を高くすることができる。
【0157】
本開示の実施例で、上記
図3に示すネットワークトレーニング方法によってトレーニングされた
場面深度予測ネットワークとカメラ運動予測ネットワークは環境の深度予測と3次元シーンの構築に利用可能である。例えば、
場面深度予測ネットワークを清掃ロボット、草刈り機等の室内外の移動ロボットの走行誘導シーンに適用し、赤緑青(Red Green Blue:RGB)カメラによってRGB画像を得、更に
場面深度予測ネットワークを用いてRGB画像に対応する予測深度マップを決定し、カメラ予測ネットワークを用いてRGBカメラのカメラ運動を決定することで、障害物の距離測定と3次元シーンの構築を可能にして、障害物回避と走行誘導タスクを遂行する。
【0158】
本開示で言及される上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて、組み合わせ後の実施例を形成することができることが理解され、紙数に限りがあるので、本開示では詳細な説明を省略する。具体的な実施形態の上記方法において、各ステップの具体的な実行順序はその機能と可能な内在的論理に依存することが当業者に理解される。
【0159】
また、本開示は場面深度/カメラ運動予測装置、電子機器、コンピュータ可読記憶媒体並びにプログラムを更に提供し、それらはいずれも本開示で提供されるいずれか一種の場面深度/カメラ運動予測方法を実現するために利用可能であり、それらに対応する技術手段及び説明については方法部分に対応する記載を参照してもよく、ここで省略する。
【0160】
図5は本開示の実施例に係る
場面深度予測装置のブロック図を示す。
図5に示すように、
場面深度予測装置50は、
時刻tの目標画像フレームを取得するように構成される第1取得モジュール51と、
場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて目標画像フレームに対して
場面深度予測を行って、目標画像フレームに対応する予測深度マップを決定するように構成される第1
場面深度予測モジュール52であって、第1隠れ状態情報は
場面深度に関連する特徴情報を含み、
場面深度予測ネットワークは、カメラ運動予測ネットワーク
の補助でトレーニングして得られる第1
場面深度予測モジュール52と、を備える。
【0161】
いくつかの実施例では、第1場面深度予測モジュール52は、
目標画像フレームに対して特徴抽出を行って、目標画像フレームに対応する第1特徴マップを決定するように構成される第1決定サブモジュールであって、第1特徴マップは場面深度に関連する特徴マップである第1決定サブモジュールと、
第1特徴マップと時刻t-1の第1隠れ状態情報に基づいて、時刻tの第1隠れ状態情報を決定するように構成される第2決定サブモジュールと、
時刻tの第1隠れ状態情報に基づいて、予測深度マップを決定するように構成される第3決定サブモジュールと、を備える。
【0162】
いくつかの実施例では、時刻t-1の第1隠れ状態情報は時刻t-1の異なるスケールにおける第1隠れ状態情報を含み、
第1決定サブモジュールは、具体的に、目標画像フレームに対してマルチスケールダウンサンプリングを行って、目標画像フレームに対応する、異なるスケールにおける第1特徴マップを決定するように構成され、
第2決定サブモジュールは、具体的に、いずれか1つのスケールに対して、当該スケールにおける第1特徴マップと時刻t-1の当該スケールにおける第1隠れ状態情報に基づいて、時刻tの当該スケールにおける第1隠れ状態情報を決定するように構成され、
第3決定サブモジュールは、具体的に、時刻tの異なるスケールにおける第1隠れ状態情報に対して特徴融合を行って、予測深度マップを決定するように構成される。
【0163】
いくつかの実施例では、場面深度予測装置50は、
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
トレーニング対象である場面深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象である場面深度予測ネットワークをトレーニングして、前記場面深度予測ネットワークを得るステップと、を実行するように構成される第1トレーニングモジュールを更に備える。
【0164】
いくつかの実施例では、第1トレーニングモジュールは、具体的に、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される。
【0165】
図6は本開示の実施例に係るカメラ運動予測装置のブロック図を示す。
図6に示すように、カメラ運動予測装置60は、
時刻tに対応する画像フレーム系列を取得するように構成される第2取得モジュール61であって、画像フレーム系列は時刻tの目標画像フレームと目標画像フレームの隣接画像フレームを含む第2取得モジュール61と、
カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて画像フレーム系列に対してカメラ位置姿勢予測を行って、画像フレーム系列に対応する予測カメラ運動を決定するように構成される第1カメラ運動予測モジュール62であって、第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、カメラ運動予測ネットワークは、
場面深度予測ネットワーク
の補助でトレーニングして得られる第1カメラ運動予測モジュール62と、を備える。
【0166】
いくつかの実施例では、第1カメラ運動予測モジュール62は、
画像フレーム系列に対して特徴抽出を行って、画像フレーム系列に対応する第2特徴マップを決定するように構成される第6決定サブモジュールであって、第2特徴マップはカメラ運動に関連する特徴マップである第6決定サブモジュールと、
第2特徴マップと時刻t-1の第2隠れ状態情報に基づいて、時刻tの第2隠れ状態情報を決定するように構成される第7決定サブモジュールと、
時刻tの第2隠れ状態情報に基づいて、予測カメラ運動を決定するように構成される第8決定サブモジュールと、を備える。
【0167】
いくつかの実施例では、予測カメラ運動は画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む。
【0168】
いくつかの実施例では、カメラ運動予測装置60は、
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、
トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を実行するように構成される第2トレーニングモジュールを更に備える。
【0169】
いくつかの実施例では、第2トレーニングモジュールは、具体的に、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される。
【0170】
いくつかの実施例では、本開示の実施例で提供された装置に備えた機能又はモジュールは、上記方法実施例に記載の方法を実行するために用いられ、その具体的な実施形態については上記方法実施例の説明を参照してよく、簡単化するために、ここで重複説明は割愛する。
【0171】
本開示の実施例は、コンピュータプログラム指令が記憶されており、前記コンピュータプログラム指令がプロセッサに実行される時に、上記方法を実現するコンピュータ可読記憶媒体を更に提供する。コンピュータ可読記憶媒体は揮発性又は非揮発性コンピュータ可読記憶媒体であってもよい。
【0172】
本開示の実施例は、プロセッサと、プロセッサ実行可能指令を記憶するように構成されるメモリと、を備え、前記プロセッサは前記メモリに記憶された指令を呼び出して上記のいずれか1種の場面深度予測方法又は上記のいずれか1種のカメラ運動予測方法を実行するように構成される電子機器を更に提供する。
【0173】
本開示の実施例は、コンピュータ可読コードを含み、コンピュータ可読コードが機器で実行される時に、機器中のプロセッサが上記のいずれか1つの実施例で提供された場面深度及び/又はカメラ運動予測方法を実現するための指令を実行するコンピュータプログラム製品を更に提供する。
【0174】
本開示の実施例は、コンピュータ可読指令を記憶するように構成され、指令が実行される時にコンピュータが上記のいずれか1つの実施例で提供された場面深度及び/又はカメラ運動予測方法の操作を実行する別のコンピュータプログラム製品を更に提供する。
【0175】
電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
【0176】
図7は本開示の実施例に係る電子機器800のブロック図を示す。
図7に示すように、電子機器800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、携帯情報端末等の端末であってもよい。
【0177】
図7を参照すると、電子機器800は第1処理コンポーネント802、第1メモリ804、第1電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、第1入力/出力(Input Output:I/O)インタフェース812、センサコンポーネント814、及び通信コンポーネント816の一つ又は複数を含むことができる。
【0178】
第1処理コンポーネント802は通常、電子機器800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作及び記録動作に関連する動作を制御する。第1処理コンポーネント802は、上記方法の全て又は一部のステップを完了するために、一つ又は複数のプロセッサ820を含んで命令を実行することができる。また、第1処理コンポーネント802は、他のコンポーネントとの対話のために、一つ又は複数のモジュールを含むことができる。例えば、第1処理コンポーネント802は、マルチメディアコンポーネント808との対話のために、マルチメディアモジュールを含むことができる。
【0179】
第1メモリ804は電子機器800での動作をサポートするために様々なタイプのデータを記憶するように構成される。これらのデータの例は電子機器800において運用するためのあらゆるアプリケーションプログラム又は方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオ等を含む。第1メモリ804は、例えば静的ランダムアクセスメモリ(Static Random-Access Memory:SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(Electrically Erasable Programmable Read Only Memory:EEPROM)、消去可能なプログラマブル読み取り専用メモリ(Electrical Programmable Read Only Memory:EPROM)、プログラマブル読み取り専用メモリ(Programmable Read-Only Memory:PROM)、読み取り専用メモリ(Read-Only Memory:ROM)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスク等の様々なタイプの揮発性又は非揮発性記憶機器又はそれらの組み合わせによって実現できる。
【0180】
第1電源コンポーネント806は電子機器800の各コンポーネントに電力を供給する。第1電源コンポーネント806は電源管理システム、一つ又は複数の電源、及び電子機器800のための電力生成、管理及び配分に関連する他のコンポーネントを含むことができる。
【0181】
マルチメディアコンポーネント808は前記電子機器800とユーザとの間で出力インタフェースを提供する画面を含む。いくつかの実施例では、画面は液晶ディスプレイ(Liquid Crystal Display:LCD)及びタッチパネル(Touch Pad:TP)を含むことができる。画面は、タッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチ画面として実現してもよい。タッチパネルは、タッチ、スライド及びタッチパネルでのジェスチャを検知するために、一つ又は複数のタッチセンサを含む。前記タッチセンサはタッチ又はスライド動きの境界を検知するのみならず、前記タッチ又はスライド操作に関連する持続時間及び圧力を検出することもできる。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラ及び/又は後面カメラを含む。電子機器800が動作モード、例えば撮影モード又は撮像モードになる場合、前面カメラ及び/又は後面カメラは外部のマルチメディアデータを受信することができる。各前面カメラ及び後面カメラは固定された光学レンズ系又は焦点距離及び光学ズーム能力を有するものであってもよい。
【0182】
オーディオコンポーネント810はオーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント810は、電子機器800が動作モード、例えば呼び出しモード、記録モード及び音声認識モードになる場合、外部のオーディオ信号を受信するように構成されたマイク(MIC)を含む。受信されたオーディオ信号はさらに第1メモリ804に記憶されるか、又は通信コンポーネント816によって送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
【0183】
第1入力/出力インタフェース812は第1処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記周辺インタフェースモジュールはキーボード、クリックホイール、ボタン等であってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタン及びロックボタンを含むことができるが、これらに限定されない。
【0184】
センサコンポーネント814は電子機器800に各面での状態評価を提供するための一つ又は複数のセンサを含む。例えば、センサコンポーネント814は電子機器800のオン/オフ状態、及び、例えば電子機器800の表示装置やキーパッドであるコンポーネントの相対的位置決めを検出でき、センサコンポーネント814はさらに、電子機器800又は電子機器800のあるコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加減速及び電子機器800の温度変化を検出できる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するように構成された近接センサを含む。センサコンポーネント814はさらに、相補型金属酸化物半導体(Complementary Metal Oxide Semiconductor:CMOS)又は電荷結合素子(Charge Coupled Device:CCD)イメージセンサのような、イメージングアプリケーションにおいて使用するための光センサを含むことができる。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサ又は温度センサを含むことができる。
【0185】
通信コンポーネント816は電子機器800と他の機器との間の有線又は無線通信を実現するように構成される。電子機器800は通信規格に基づく無線ネットワーク、例えばWiFi、2G又は3G、又はそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルによって外部の放送管理システムの放送信号又は放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(Near Field Communication:NFC)モジュールを含む。例えば、NFCモジュールでは無線周波数識別(Radio Frequency Identification:RFID)技術、赤外線データ協会(Infrared Data Association:IrDA)技術、超広帯域(Ultra Wide Band:UWB)技術、ブルートゥース(Bluetooth:BT)技術及び他の技術によって実現できる。
【0186】
例示的な実施例では、電子機器800は一つ又は複数の特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、デジタル信号プロセッサ(Digital Signal Processor:DSP)、デジタル信号処理装置(Digital Signal Process:DSPD)、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子要素によって実現し、上記のいずれか1種の場面深度予測方法又は上記のいずれか1種のカメラ運動予測方法を実行するために用いることができる。
【0187】
例示的な実施例では、さらに、非揮発性コンピュータ可読記憶媒体、例えばコンピュータプログラム命令を含む第1メモリ804が提供され、上記コンピュータプログラム命令は電子機器800のプロセッサ820によって実行して上記のいずれか1種の場面深度予測方法又は上記のいずれか1種のカメラ運動予測方法を完了することができる。
【0188】
図8は本開示の実施例に係る電子機器のブロック図を示す。
図8に示すように、電子機器900はサーバとして提供できる。
図8を参照すると、電子機器900は、さらに一つ又は複数のプロセッサを含む第2処理コンポーネント922、及び、第2処理コンポーネント922によって実行可能な命令、例えばアプリケーションプログラムを記憶するための、第2メモリ932を代表とするメモリ資源を含む。第2メモリ932に記憶されたアプリケーションプログラムはそれぞれが1グループの命令に対応する一つ又は複数のモジュールを含むことができる。また、第2処理コンポーネント922は命令を実行し、それによって上記のいずれか1種の
場面深度予測方法又は上記のいずれか1種のカメラ運動予測方法を実行するように構成される。
【0189】
電子機器900はさらに、電子機器900の電源管理を実行するように構成された第2電源コンポーネント926、電子機器900をネットワークにアクセスするように構成された有線又は無線ネットワークインタフェース950、及び第2入出力(I/O)インタフェース958を含むことができる。電子機器900は第2メモリ932に記憶されたオペレーティングシステム、例えばWindows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM又は類似するものに基づいて動作できる。
【0190】
例示的な実施例では、さらに、非揮発性コンピュータ可読記憶媒体、例えばコンピュータプログラム命令を含む第2メモリ932が提供され、上記コンピュータプログラム命令は電子機器900の第2処理コンポーネント922によって実行して上記のいずれか1種の場面深度予測方法又は上記のいずれか1種のカメラ運動予測方法を完了することができる。
【0191】
本開示はシステム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の各態様を実現させるためのコンピュータ可読プログラム命令がロードされているコンピュータ可読記憶媒体を含むことができる。
【0192】
コンピュータ可読記憶媒体は命令実行機器により使用される命令を保存及び記憶可能な有形機器であってもよい。コンピュータ可読記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のさらに具体的な例(非包括的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(Random-Access Memory:RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、及び機械的符号化装置、例えば命令が記憶されているせん孔カード又はスロット内突起構造、並びに上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ可読記憶媒体は瞬時信号自体、例えば無線電波又は他の自由に伝播される電磁波、導波路又は他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、又は電線を経由して伝送される電気信号と解釈されるものではない。
【0193】
ここで記述したコンピュータ可読プログラム命令はコンピュータ可読記憶媒体から各計算/処理機器にダウンロードされてもよいし、又はネットワーク、例えばインタネット、ローカルエリアネットワーク、広域ネットワーク及び/又は無線ネットワークによって外部のコンピュータ又は外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータ及び/又はエッジサーバを含むことができる。各計算/処理機器内のネットワークアダプタカード又はネットワークインタフェースはネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各計算/処理機器内のコンピュータ可読記憶媒体に記憶する。
【0194】
本開示の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(Instruction Set Architecture:ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、C++等のオブジェクト指向プログラミング言語、及び「C」言語又は類似するプログラミング言語等の一般的な手続き型プログラミング言語を含む一つ又は複数のプログラミング言語の任意の組み合わせで書かれたソースコード又は目標コードであってもよい。コンピュータ可読プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいて且つ部分的にリモートコンピュータにおいて実行されてもよく、又は完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(Local Area Network:LAN)又は広域ネットワーク(Wide Area Network:WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、又は、外部コンピュータに接続されてもよい(例えばインタネットサービスプロバイダを用いてインタネット経由で接続する)。いくつかの実施例では、コンピュータ可読プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)又はプログラマブル論理アレイ(Programmable Logic Array:PLA)等の電子回路をパーソナライズすることで、該電子回路はコンピュータ可読プログラム命令を実行し、それにより本開示の各態様を実現できるようになる。
【0195】
なお、ここで本開示の実施例に係る方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら本開示の各態様を説明しが、フローチャート及び/又はブロック図の各ブロック及びフローチャート及び/又はブロック図の各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令によって実現できることを理解すべきである。
【0196】
これらのコンピュータ可読プログラム命令は、機械を製造するために、共通コンピュータ、専用コンピュータ又は他のプログラマブルデータ処理装置のプロセッサへ提供されてもよく、それにより、これらの命令はコンピュータ又は他のプログラマブルデータ処理装置のプロセッサによって実行され、フローチャート及び/又はブロック図の一つ又は複数のブロックにおいて指定された機能/動作を実現する手段を創出する。また、これらのコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体に記憶し、それによってコンピュータ、プログラマブルデータ処理装置及び/又は他の機器を特定の方式で動作させるようにしてもよく、それにより、中に保存された命令を有するコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図の一つ又は複数のブロックにおいて指定された機能/動作の各態様を実現する命令を含む製品を備える。
【0197】
コンピュータ可読プログラムはコンピュータ、他のプログラマブルデータ処理装置、又は他の機器にロードすることにより、コンピュータ実施プロセスを生成するように、コンピュータ、他のプログラマブルデータ処理装置又は他の機器において一連の動作ステップを実行させるようにしてもよく、それにより、コンピュータ、他のプログラマブルデータ処理装置、又は他の機器において実行される命令はフローチャート及び/又はブロック図の一つ又は複数のブロックにおいて指定された機能/動作を実現する。
【0198】
図面のうちフローチャート及びブロック図は本開示の複数の実施例に係るシステム、方法及びコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能及び動作を示す。この点では、フローチャート又はブロック図における各ブロックは一つのモジュール、プログラムセグメント又は命令の一部分を代表することができ、前記モジュール、プログラムセグメント又は命令の一部分は指定された論理機能を実現するための一つ又は複数の実行可能命令を含む。いくつかの置換としての実現形態では、ブロックに表記される機能は図面に付したものと異なる順序で実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、それらは逆な順序で実行してもよい場合がある。なお、ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、指定される機能又は動作を実行するハードウェアに基づく専用システムによって実現してもよいし、又は専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことに注意すべきである。
【0199】
該コンピュータプログラム製品は具体的にはハードウェア、ソフトウェア又はそれらの組み合わせにより実現可能である。選択可能な一実施例において、前記コンピュータプログラム製品は具体的にはコンピュータ記憶媒体として実現され、別の選択可能な一実施例において、コンピュータプログラム製品は具体的には、例えばソフトウェア開発キット(Software Development Kit:SDK)等のソフトウェア製品として実現される。
【0200】
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、且つ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲及び精神から逸脱することなく、様々な修正及び変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用又は市場における技術への技術的改善を好適に解釈するか、又は他の当業者に本文に披露された各実施例を理解させるためのものである。
【産業上の利用可能性】
【0201】
本開示の実施例は、時刻tの目標画像フレームを取得するステップと、場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含み、前記場面深度予測ネットワークは、カメラ運動予測ネットワークの補助でトレーニングして得られるステップと、を含む場面深度とカメラ運動を予測する方法及び装置、電子機器、媒体並びにプログラムを提供する。本開示の実施例は目標画像フレームに対応する予測精度の高い予測深度マップを得ることができる。