(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-11
(45)【発行日】2024-09-20
(54)【発明の名称】画像データの処理方法及び装置
(51)【国際特許分類】
G06T 7/00 20170101AFI20240912BHJP
G06T 7/55 20170101ALI20240912BHJP
G06T 7/70 20170101ALI20240912BHJP
【FI】
G06T7/00 350C
G06T7/55
G06T7/70 Z
(21)【出願番号】P 2023553068
(86)(22)【出願日】2022-09-14
(86)【国際出願番号】 CN2022118735
(87)【国際公開番号】W WO2023082822
(87)【国際公開日】2023-05-19
【審査請求日】2023-08-31
(31)【優先権主張番号】202111329386.7
(32)【優先日】2021-11-10
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】522378775
【氏名又は名称】北京地平▲線▼信息技▲術▼有限公司
(74)【代理人】
【識別番号】100105924
【氏名又は名称】森下 賢樹
(72)【発明者】
【氏名】チェン、テン
(72)【発明者】
【氏名】スイ、ウェイ
(72)【発明者】
【氏名】シエ、ジャフェン
(72)【発明者】
【氏名】ジャン、チェン
(72)【発明者】
【氏名】フアン、チャン
【審査官】村山 絢子
(56)【参考文献】
【文献】特表2021-513173(JP,A)
【文献】中国特許出願公開第113609888(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00-7/90
G06T 1/00
G06G 3/00-3/608
G06T 5/00-5/94
G08G 1/00-99/00
(57)【特許請求の範囲】
【請求項1】
第1のニューラルネットワークを用いて第1の画像及び第2の画像を処理し、ホモグラフィ行列を得るステップであって、前記第1の画像は第1の時刻で撮影され、前記第2の画像は第2の時刻で撮影され、且つ前記第1の画像及び前記第2の画像は同一領域の路面要素を有するステップと、
前記ホモグラフィ行列に基づいて、第1の画像特徴のマッピング画像特徴を決定するステップであって、前記第1の画像特徴は前記第1の画像に基づいて抽出された特徴であるステップと、
前記マッピング画像特徴と第2の画像特徴を融合し、融合画像特徴を得るステップであって、前記第2の画像特徴は前記第2の画像に基づいて抽出された特徴であるステップと、
第2のニューラルネットワークを用いて前記融合画像特徴を処理し、前記第2の画像の第1の画素高深比を得るステップと、を含む、画像データの処理方法。
【請求項2】
第1のニューラルネットワークを用いて第1の画像及び第2の画像を処理し、ホモグラフィ行列を得る前記ステップは、
前記第1の画像の第1の画像特徴及び前記第2の画像の第2の画像特徴を融合し、第3の画像特徴を得るステップと、
前記第1のニューラルネットワークにおける路面サブネットワークを用いて前記第3の画像特徴を処理し、路面法線情報を決定するステップと、
前記第1のニューラルネットワークにおける姿勢サブネットワークを用いて前記第3の画像特徴を処理し、前記第1の画像と前記第2の画像との間のカメラ相対姿勢を決定するステップと、
前記路面法線情報、前記カメラ相対姿勢及び予め記憶されている路面に対するカメラの高さに基づいて、前記ホモグラフィ行列を決定するステップと、を含む、請求項1に記載の画像データの処理方法。
【請求項3】
第2のニューラルネットワークを用いて前記融合画像特徴を処理し、前記第2の画像の第1の画素高深比を得る前記ステップの後、さらに、
前記第2の画像の収集時間内で、前記第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータに基づいて、前記ターゲットオブジェクトの第2の画素高深比を決定するステップと、
前記第1の画素高深比と前記第2の画素高深比との差に基づいて、前記第2のニューラルネットワークに対してパラメーター調整を行うステップと、を含む、請求項1に記載の画像データの処理方法。
【請求項4】
第1のニューラルネットワークを用いて第1の画像及び第2の画像を処理し、ホモグラフィ行列を得る前記ステップの後、さらに、
前記ホモグラフィ行列を用いて前記第1の画像に対して画像再構成を行い、第1の再構成画像を得るステップと、
前記第1の再構成画像と前記第2の画像との間の前記同一領域の路面要素における画素シフトに基づいて、前記ホモグラフィ行列の行列パラメーターを調整するステップと、
行列パラメーターが調整されたホモグラフィ行列に基づいて、前記路面サブネットワーク及び前記姿勢サブネットワークに対してパラメーター調整を行うステップと、を含む、請求項2に記載の画像データの処理方法。
【請求項5】
第2のニューラルネットワークを用いて前記融合画像特徴を処理し、前記第2の画像の第1の画素高深比を得る前記ステップの後、さらに、
前記第2の画像の収集時間内で、前記第1の画素高深比、前記第2の画像の路面マスク、及び前記第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータに基づいて全体損失値を決定するステップと、
前記全体損失値に基づいて、前記第1のニューラルネットワーク及び前記第2のニューラルネットワークに対してパラメーター調整を行うステップと、を含む、請求項1に記載の画像データの処理方法。
【請求項6】
前記第2の画像の収集時間内で、前記第1の画素高深比、前記第2の画像の路面マスク、及び前記第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータに基づいて全体損失値を決定する前記ステップは、
前記レーダースキャンデータに基づいて前記ターゲットオブジェクトの第2の画素高深比を決定するステップと、
前記第1の画素高深比及び前記第2の画素高深比に基づいて、第1の損失値を決定するステップと、
前記ホモグラフィ行列を用いて前記第1の画像に対して画像再構成を行い、第1の再構成画像を得るステップと、
前記第1の画素高深比に基づいて、第1の画像領域と第2の画像領域との間の画素シフトを決定するステップであって、前記第1の画像領域は前記第1の再構成画像において路面画像領域を除いた残りの画像領域であり、前記第2の画像領域は前記第2の画像において路面画像領域を除いた残りの画像領域であるステップと、
前記画素シフトに基づいて前記第1の再構成画像の画素位置を調整し、第2の再構成画像を得るステップと、
前記第2の再構成画像、前記第2の画像及び前記第2の画像の路面マスクに基づいて、第2の損失値を決定するステップと、
前記第1の損失値及び前記第2の損失値に基づいて、前記全体損失値を決定するステップと、を含む、請求項5に記載の画像データの処理方法。
【請求項7】
前記第2の再構成画像、前記第2の画像及び前記第2の画像の路面マスクに基づいて、第2の損失値を決定する前記ステップは、
前記第2の再構成画像と前記第2の画像との間の全画像光度誤差を決定するステップと、
前記全画像光度誤差及び前記第2の画像の路面マスクに基づいて、前記第2の再構成画像と前記第2の画像との路面画像領域における光度誤差を決定するステップと、
前記全画像光度誤差、及び前記第2の再構成画像と前記第2の画像との路面画像領域における光度誤差に基づいて、前記第2の損失値を決定するステップと、を含む、請求項6に記載の画像データの処理方法。
【請求項8】
第1のニューラルネットワークを用いて第1の画像及び第2の画像を処理し、ホモグラフィ行列を得るために用いられるホモグラフィ行列決定モジュールであって、前記第1の画像は第1の時刻で撮影され、前記第2の画像は第2の時刻で撮影され、且つ前記第1の画像及び前記第2の画像は同一領域の路面要素を有する、ホモグラフィ行列決定モジュールと、
前記ホモグラフィ行列に基づいて、第1の画像特徴のマッピング画像特徴を決定するために用いられるマッピング画像特徴決定モジュールであって、前記第1の画像特徴は前記第1の画像に基づいて抽出された特徴である、マッピング画像特徴決定モジュールと、
前記マッピング画像特徴と第2の画像特徴を融合し、融合画像特徴を得るために用いられる融合モジュールであって、前記第2の画像特徴は前記第2の画像に基づいて抽出された特徴である、融合モジュールと、
第2のニューラルネットワークを用いて前記融合画像特徴を処理し、前記第2の画像の第1の画素高深比を得るために用いられる第1の画素高深比決定モジュールと、を含む、画像データの処理装置。
【請求項9】
コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、前記コンピュータプログラムは、請求項1~7のいずれか一項に記載の画像データの処理方法を実現するために用いられる、コンピュータ可読記憶媒体。
【請求項10】
プロセッサーと、
前記プロセッサーにより実行可能なコマンドを記憶するために用いられるメモリーと、を含み、
前記プロセッサーは、前記メモリーから前記実行可能なコマンドを読み取り、且つ上記請求項1~7のいずれか一項に記載の画像データの処理方法を実現するように前記コマンドを実行するために用いられる、電子機器。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、2021年11月10日に中国知識財産権局に出願された、出願番号が202111329386.7で、発明の名称が「画像データの処理方法及び装置」である中国特許出願の優先権を主張し、そのすべての内容が参照により本願に組み込まれる。
【0002】
本開示は、画像処理の技術分野に関し、特に、画像データの処理方法及び装置に関する。
【背景技術】
【0003】
平面視差法は、2つの視角から同じ物体又はシーンを観察する差に基づいて3Dシーンをモデリングするものであり、当該方法は、特定の平面に依存し、シーン中の1つの画素点から平面までの高さ及び観測点までの距離、すなわち、当該画素点の画素高深比を回復することができる。
【0004】
現在の平面視差法は、オプティカルフロー推定に依存して、2つの視角で対応する点のマッチング結果を得る。オプティカルフロー法は、密な推定結果を得ることができず、ノイズから大きな影響を受ける。どのようにして画像データに基づいて密で正確な画素高深比を得るかは、解決すべき課題となる。
【発明の概要】
【0005】
本開示は、上記の技術的課題を解決するためになされたものである。
【0006】
本開示の実施例の第1の態様によれば、
第1のニューラルネットワークを用いて第1の画像及び第2の画像を処理し、ホモグラフィ行列を得るステップであって、前記第1の画像は第1の時刻で撮影され、前記第2の画像は第2の時刻で撮影され、且つ前記第1の画像及び前記第2の画像は同一領域の路面要素を有するステップと、
前記ホモグラフィ行列に基づいて、第1の画像特徴のマッピング画像特徴を決定するステップであって、前記第1の画像特徴は前記第1の画像に基づいて抽出された特徴であるステップと、
前記マッピング画像特徴と第2の画像特徴を融合し、融合画像特徴を得るステップであって、前記第2の画像特徴は前記第2の画像に基づいて抽出された特徴であるステップと、
第2のニューラルネットワークを用いて前記融合画像特徴を処理し、前記第2の画像の第1の画素高深比を得るステップと、を含む画像データの処理方法が提供される。
【0007】
本開示の実施例の第2の態様によれば、
第1のニューラルネットワークを用いて第1の画像及び第2の画像を処理し、ホモグラフィ行列を得るために用いられるホモグラフィ行列決定モジュールであって、前記第1の画像は第1の時刻で撮影され、前記第2の画像は第2の時刻で撮影され、且つ前記第1の画像及び前記第2の画像は同一領域の路面要素を有する、ホモグラフィ行列決定モジュールと、
前記ホモグラフィ行列に基づいて、第1の画像特徴のマッピング画像特徴を決定するために用いられるマッピング画像特徴決定モジュールであって、前記第1の画像特徴は前記第1の画像に基づいて抽出された特徴である、マッピング画像特徴決定モジュールと、
前記マッピング画像特徴と第2の画像特徴を融合し、融合画像特徴を得るために用いられる融合モジュールであって、前記第2の画像特徴は前記第2の画像に基づいて抽出された特徴である、融合モジュールと、
第2のニューラルネットワークを用いて前記融合画像特徴を処理し、前記第2の画像の第1の画素高深比を得るために用いられる第1の画素高深比決定モジュールと、を含む画像データの処理装置が提供される。
【0008】
本開示の実施例の第3の態様によれば、コンピュータ可読記憶媒体が提供され、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶され、前記コンピュータプログラムは上記第1の態様に記載の画像データの処理方法を実行するために用いられる。
【0009】
本開示の実施例の第4の態様によれば、電子機器が提供され、前記電子機器は、
プロセッサーと、
前記プロセッサーにより実行可能なコマンドを記憶するために用いられるメモリーと、を含み、
前記プロセッサーは、前記メモリーから前記実行可能なコマンドを読み取り、且つ上記第1の態様に記載の画像データの処理方法を実現するように前記コマンドを実行するために用いられる。
【0010】
本開示の上記実施例により提供される画像データの処理方法及び装置によれば、第1のニューラルネットワークを用いて、カメラにより撮影された、同一領域の路面要素を有する第1の画像及び第2の画像を処理し、ホモグラフィ行列を得、次に、ホモグラフィ行列により第1の画像特徴をマッピングしてマッピング画像特徴を得、且つマッピング画像特徴と第2の画像特徴を融合し、融合画像特徴を得、第2のニューラルネットワークを用いて融合画像特徴を処理し、第1の画素高深比を決定する。ここで、第1の画素高深比は、路面に対する第2の画像におけるターゲットオブジェクトの画素の高さと画素の深さとの比であり、当該比は3Dシーンモデリングに用いることができる。本開示の実施例の画像データの処理方法は、画像データに基づいて密で正確な画素高深比を得ることができ、さらに3Dシーンモデリングを補助することができる。
【0011】
以下は図面及び実施例により、本開示の技術的解決手段についてより詳細に説明する。
本開示の上記及び他の目的、特徴及び利点は、図面に合わせて本開示の実施例についてより詳細に説明することによって明らかになるであろう。図面は、本開示の実施例のさらなる理解を提供するために用いられ、本明細書の一部を構成し、本開示の実施例と共に本開示を説明するために用いられ、本開示を限定するものではない。また、図面において、同じ参照符号は一般的に同じ部品又はステップを表す。
【図面の簡単な説明】
【0012】
【
図1】本開示の一実施例における画像データの処理方法のフローチャートである。
【
図2】本開示の一実施例におけるステップS1のフローチャートである。
【
図3】本開示の一例における第1のニューラルネットワークの動作原理図である。
【
図4】本開示の別の実施例における画像データの処理方法のフローチャートである。
【
図5】本開示のさらに別の実施例におけるステップS4の後のフローチャートである。
【
図6】本開示のさらに別の実施例におけるステップS4の後のフローチャートである。
【
図7】本開示の一実施例におけるステップS5″のフローチャートである。
【
図8】本開示の一実施例におけるステップS5″-6のフローチャートである。
【
図9】本開示の一実施例における画像データの処理装置の構造ブロック図である。
【
図10】本開示の一実施例におけるホモグラフィ行列決定モジュール100の構造ブロック図である。
【
図11】本開示の別の実施例における画像データの処理装置の構造ブロック図である。
【
図12】本開示のさらに別の実施例における画像データの処理装置の構造ブロック図である。
【
図13】本開示のさらに別の実施例における画像データの処理装置の構造ブロック図である。
【
図14】本開示の一実施例における全体損失値決定モジュール1000の構造ブロック図である。
【
図15】本開示の一実施例により提供される電子機器の構造図である。
【発明を実施するための形態】
【0013】
以下、図面を参照しながら、本開示による例示的な実施例について詳細に説明する。明らかに、説明される実施例は、本開示の全ての実施例ではなく、本開示の実施例の一部にすぎず、本開示はここで説明される例示的な実施例により限定されたものではないことを理解されたい。
【0014】
なお、特に特定的な説明がない限り、これらの実施例に記載された部材及びステップの相対配置、数式及び数値は本開示の範囲を限定するものではない。
【0015】
当業者であれば理解できるように、本開示の実施例における「第1」、「第2」などの用語は異なるステップ、機器又はモジュールなどを区別するために用いられ、いかなる特定の技術的意味を表すものではなく、またそれらの間の必然的な論理的順序を表すものでもない。
【0016】
さらなる理解すべきものとして、本開示の実施例では、「複数」は2つ又は2つ以上を意味してもよく、「少なくとも1つ」は1つ、2つ又は2つ以上を意味してもよい。
【0017】
さらなる理解すべきものとして、本開示の実施例に言及されるいずれかの部材、データ又は構造は、明示的に定義されないか、又は文脈から逆の示唆が与えられない場合、概して1つ又は複数と理解されてもよい。
【0018】
本開示において用語の「及び/又は」とは、関連オブジェクトの関連関係を説明するものにすぎず、3種類の関係が存在することを表し、例えば、A及び/又はBは、Aが単独で存在し、AとBが同時に存在し、Bが単独で存在するという3つの状況を表すことができる。また、本開示において文字の「/」は、一般に、前後関連オブジェクトが「又は」の関係であることを表す。
【0019】
さらなる理解すべきものとして、本開示の各実施例に対する説明は、各実施例の間の相違点に重点を置き、その同一又は類似の点は互いに参照することができ、簡潔にするために、一つ一つ説明しない。
【0020】
以下の少なくとも1つの例示的な実施例の説明は実際に説明的なものにすぎず、決して本開示及びその適用又は使用を制限するものとしていない。
【0021】
関連分野の当業者に既知の技術、方法及び機器について詳細な説明を行わないが、適切な場合、前記技術、方法及び機器は説明書の一部と見なされるべきである。
【0022】
なお、以下の図面において同様の符号及び文字は同様の項目を表しており、したがって、ある項目が一度1つの図面において定義されると、それ以降の図面においては更なる説明を要しない。
【0023】
本開示の実施例は、多くの他の汎用又は専用のコンピューティングシステム環境又は構成とともに動作できる、端末機器、コンピュータシステム、サーバーなどの電子機器に適用することができる。端末機器、コンピュータシステム、サーバーなどの電子機器と共に使用するのに適した周知の端末機器、コンピューティングシステム、環境及び/又は構成の例としては、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、ファットクライアント、ハンドヘルド又はラップトップ機器、マイクロプロセッサーベースのシステム、セットトップボックス、プログラム可能な消費者電子製品、ウェブパーソナルコンピュータ、小型コンピュータシステム、大型コンピュータシステム、及び上記のシステムのいずれかを含む分散式クラウドコンピューティング技術環境などが挙げられるが、これらに限定されない。
【0024】
端末機器、コンピュータシステム、サーバーなどの電子機器は、コンピュータシステムによって実行されるコンピュータシステム実行可能コマンド(プログラムモジュールなど)の一般的な文脈で記述されてもよい。一般に、プログラムモジュールは、特定のタスクを実行するか、又は特定の抽象データ型を実現するルーチン、プログラム、目的プログラム、コンポーネント、論理、データ構造などを含むことができる。コンピュータシステム/サーバーは分散式クラウドコンピューティング環境において実施することができ、分散式クラウドコンピューティング環境において、タスクは通信ネットワークによってリンクされた遠隔処理機器によって実行される。分散式クラウドコンピューティング環境において、プログラムモジュールは、記憶機器を含むローカル又は遠隔コンピューティングシステム記憶媒体上に位置してもよい。
例示的な方法
【0025】
図1は本開示の一実施例における画像データの処理方法のフローチャートである。本実施例はサーバーに適用することができ、
図1に示すように、当該方法はステップS1~ステップS4を含む。
【0026】
S1において、第1のニューラルネットワークを用いて第1の画像及び第2の画像を処理し、ホモグラフィ行列(homography matrix)を得る。ここで、第1の画像は第1の時刻で撮影され、第2の画像は第2の時刻で撮影され、且つ第1の画像及び第2の画像は同一領域の路面要素を有する。
【0027】
具体的には、車両にカメラが設けられ、カメラ内部パラメーター及びカメラ外部パラメーターが予め設定される。車両の走行中、カメラによって画像が撮影される。
【0028】
同一カメラが第1の時刻で撮影した第1の画像、及び当該カメラが第2の時刻で撮影した第2の画像を取得する。ここで、ビデオを撮影することにより画像を撮影してもよく、一定の時間おきに画像を1回撮影することにより複数フレームの画像を撮影してもよい。本実施例では、第1の時刻と第2の時刻とはMフレーム(Mは0より大きい整数)だけ離れていてもよい。
【0029】
運転シーンで撮影された画像には、通常、路面が含まれるため、本実施例では、第1の画像及び第2の画像における路面を平面視差法に必要な基準面とする。
【0030】
特徴抽出ネットワークを用いて第1の画像に対して特徴抽出を行い、第1の画像特徴を得、且つ特徴抽出ネットワークを用いて第2の画像に対して特徴抽出を行い、第2の画像特徴を得る。ここで、特徴抽出ネットワークは第1のニューラルネットワークに属してもよく、第1のニューラルネットワークとは独立したネットワークであってもよい。本実施例では、同じダウンサンプリングにより特徴抽出を行う。例えば、元々3*h*w次元数(hとwはそれぞれ画像の幅と長さを表す)の第1の画像に対してダウンサンプリングを行い、n*h’*w’次元数の第1の特徴図を得て第1の画像特徴とする。且つ元々3*h*w次元数の第2の画像に対してダウンサンプリングを行い、n*h’*w’次元数の第2の特徴図を得て第2の画像特徴とする。ここで、nはチャンネル数であり、h’はhの1/32、1/64などである。w’はwの1/32、1/64などである。h’とw’の値は同じであってもよく、異なってもよい。
【0031】
第1のニューラルネットワークを用いて第1の画像特徴及び第2の画像特徴を処理し、第1の画像及び第2の画像における路面を合わせるためのホモグラフィ行列を得る。例示的には、ホモグラフィ行列の計算方式は以下のとおりである。
【数1】
ここで、Hはホモグラフィ行列を表し、例えば、3×3の要素を有する行列を採用してもよく、Kはカメラ内部パラメーターを表し、K
-1はKの逆行列を表し、dは路面に対するカメラの高さを表し、dはキャリブレーションにより得られてもよく、R及びtはそれぞれ第1の画像と第2の画像との間のカメラ相対回転行列(例えば3×3)及び相対平行移動行列(例えば1×3)を表し、Nは路面法線を表す。
【0032】
S2において、ホモグラフィ行列に基づいて、第1の画像特徴のマッピング画像特徴を決定する。
【0033】
具体的には、ホモグラフィ行列を用いて第1の画像特徴を第2の画像特徴の視角にマッピングし、マッピング画像特徴を得、マッピング画像特徴の次元数は第1の画像特徴及び第2の画像特徴の次元数と同じであり、ステップS1の例によれば、マッピング画像特徴の次元数はn*h’*w’である。
【0034】
S3において、マッピング画像特徴及び第2の画像特徴を融合し、融合画像特徴を得る。
【0035】
選択可能な一態様では、マッピング画像特徴及び第2の画像特徴をチャネル次元数に従って重ね合わせることにより、融合画像特徴を得る。ステップS1及びS2の例によれば、融合画像特徴の次元数は2n*h’*w’である。
【0036】
S4において、第2のニューラルネットワークを用いて融合画像特徴を処理し、第2の画像の第1の画素高深比を得る。
【0037】
具体的には、第2のニューラルネットワークは予めトレーニングされたモデルであり、例えばディープラーニングモデルである。第2のニューラルネットワークは、融合画像特徴に基づいて画素高深比を予測することができる。本実施例では、第2のニューラルネットワークにより融合画像特徴に対して予測された画素高深比を第1の画素高深比とする。
【0038】
本実施例では、第1のニューラルネットワークを用いて、カメラにより撮影された、共同領域の路面要素を有する第1の画像及び第2の画像を処理し、ホモグラフィ行列を得、次に、ホモグラフィ行列により第1の画像特徴をマッピングしてマッピング画像特徴を得、且つマッピング画像特徴と第2の画像特徴を融合し、融合画像特徴を得、第2のニューラルネットワークを用いて融合画像特徴を処理し、第1の画素高深比を決定する。ここで、第1の画素高深比(high-depth ratio)は、路面に対する第2の画像におけるターゲットオブジェクトの画素の高さと画素の深さとの比であり、当該比は3Dシーンモデリングに用いることができる。本開示の実施例の画像データの処理方法は、画像データに基づいて密で正確な画素高深比を得、さらに3Dシーンモデリングを補助することができる。
【0039】
図2は本開示の一実施例におけるステップS1のフローチャートである。
図2に示すように、本実施例では、ステップS1は、ステップS1-1~ステップS1-4を含む。
【0040】
S1-1において、第1の画像特徴及び第2の画像特徴を融合し、第3の画像特徴を得る。
【0041】
図3は本開示の一例における第1のニューラルネットワークの動作原理図である。
図3に示すように、本例では、特徴抽出ネットワークは第1のニューラルネットワークに属する。特徴抽出ネットワークは、第1の画像特徴及び第2の画像特徴を抽出した後、第1の画像特徴及び第2の画像特徴を特徴融合モジュールに入力して融合する。ここで、特徴融合モジュールは第1の画像特徴及び第2の画像特徴をチャネル次元数に従って重ね合わせることにより、融合画像特徴を得てもよい。例えば、第1の画像特徴の次元数がn*h’*w’で、且つ第2の画像特徴の次元数がn*h’*w’である場合、第3の画像特徴の次元数は2n*h’*w’である。
【0042】
S1-2において、第1のニューラルネットワークにおける路面サブネットワークを用いて第3の画像特徴を処理し、路面法線情報を決定する。
【0043】
引き続き
図3を参照すると、特徴融合モジュールは第3の画像特徴を路面サブネットワークに入力し、路面サブネットワークによって第3の画像特徴に基づいて予測し、路面法線情報を出力する。ここで、路面サブネットワークは、入力された、路面特徴を有する画像特徴に基づいて予測して路面法線情報を出力するネットワークモデルである。本実施例では、路面法線情報は、N=[n
x,n
y,n
z]の路面方程式で示されてもよい。ここで、n
x,n
y,n
zは路面座標系における三次元座標である。
【0044】
S1-3において、第1のニューラルネットワークにおける姿勢サブネットワークを用いて第3の画像特徴を処理し、第1の画像と第2の画像との間のカメラ相対姿勢を決定する。
【0045】
引き続き
図3を参照すると、特徴融合モジュールは第3の画像特徴を姿勢サブネットワークに入力し、姿勢サブネットワークによって第3の画像特徴に基づいて予測し、カメラ相対姿勢を出力する。ここで、姿勢サブネットワークは、入力画像特徴に基づいて予測してカメラ相対姿勢を出力するネットワークモデルである。本実施例では、カメラ相対姿勢はカメラ相対回転行列及び相対平行移動行列を含む。
【0046】
S1-4において、路面法線情報、カメラ相対姿勢及び予め記憶されている路面に対するカメラの高さに基づいて、ホモグラフィ行列を決定する。
【0047】
引き続き
図3を参照すると、第1のニューラルネットワークは、路面に対するカメラの高さ、路面法線情報及びカメラ相対姿勢に基づいて、上記のホモグラフィ行列の計算方式でホモグラフィ行列を決定する。なお、第1のニューラルネットワークにより路面に対するカメラの高さ、路面法線情報及びカメラ相対姿勢を出力し、さらに第1のニューラルネットワーク以外のほかのモジュールによりホモグラフィ行列を決定してもよい。
【0048】
本実施例では、第1のニューラルネットワークにおける路面サブネットワーク及び姿勢サブネットワークを用いて、融合後の第3の画像特徴をそれぞれ処理し、例えば、路面サブネットワーク及び姿勢サブネットワークを用いて、第1の画像特徴と第2の画像特徴をチャネル次元数上で重ね合わせることにより得られた第3の画像特徴を処理し、路面法線情報及びカメラ相対姿勢を得、路面法線情報、カメラ相対姿勢及び予め記憶されている路面に対するカメラの高さに基づいて、ホモグラフィ行列を正確に決定することができる。
【0049】
図4は本開示の別の実施例における画像データの処理方法のフローチャートである。
図4に示すように、本実施例では、ステップS4の後、ステップS5及びステップS6をさらに含む。
【0050】
S5において、第2の画像の収集時間内で、第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータに基づいて、ターゲットオブジェクトの第2の画素高深比を決定する。
【0051】
具体的には、車両には車載レーダーが設けられる。第2の画像の収集時刻はt2であり、車載レーダーによりt2時刻の車両近傍のレーダースキャンデータを取得する。第2の画像及び車両近傍のレーダースキャンデータを分析することにより、分析結果に基づいて車両近傍のレーダースキャンデータからターゲットオブジェクトに対応するレーダースキャンデータを抽出することができる。抽出されたレーダースキャンデータに基づいて車両に対するターゲットオブジェクトの位置及びターゲットオブジェクトの体積を正確に得ることができ、さらにt2時刻の画素高深比の真値を生成し、第2の画素高深比と記す。
【0052】
S6において、第1の画素高深比と第2の画素高深比との差に基づいて、第2のニューラルネットワークに対してパラメーター調整を行う。
【0053】
具体的には、t2時刻の画素高深比の真値(すなわち第2の画素高深比)と画素高深比の予測値(すなわち第1の画素高深比)との間の差に基づいて、バックプロパゲーションによって第2のニューラルネットワークに対してパラメーター調整を行う。
【0054】
本実施例では、同一時刻でレーダーデータにより決定された画素高深比の真値を第2のニューラルネットワークの監視情報とすることにより、画素高深比の真値と予測値との間の差によって、第2のニューラルネットワークのパラメーターを合理的に調整し、第2のニューラルネットワークの予測精度を向上させる。
【0055】
図5は本開示のさらに別の実施例におけるステップS4の後のフローチャートである。
図5に示すように、本実施例では、ステップS4の後、ステップS5′~ステップS7′をさらに含む。
【0056】
S5′において、ホモグラフィ行列を用いて第1の画像に対して画像再構成を行い、第1の再構成画像を得る。
【0057】
具体的には、ホモグラフィ行列を用いて、第1の画像に対して逆マッピングにより画像再構成を行い、第1の再構成画像を得る。
【0058】
S6′において、第1の再構成画像と第2の画像との間の同一領域の路面要素における画素シフトに基づいて、ホモグラフィ行列の行列パラメーターを調整する。
【0059】
具体的には、ホモグラフィ行列の行列パラメーターが最適に達している場合、第1の再構成画像と第2の画像が道路部分で合わせられ、ホモグラフィ行列の行列パラメーターが最適に達していない場合、第1の再構成画像と第2の画像は道路部分で画素シフトが存在する。
【0060】
第1の再構成画像と第2の画像との間の同一領域の路面要素における画素シフトに基づいて、ホモグラフィ行列の行列パラメーターを合理的に調整することができる。
【0061】
S7′において、行列パラメーターが調整されたホモグラフィ行列に基づいて、路面サブネットワーク及び姿勢サブネットワークに対してパラメーター調整を行う。
【0062】
具体的には、ホモグラフィ行列は、路面サブネットワークにより予測された路面法線情報、姿勢サブネットワークにより予測されたカメラ相対姿勢、及び予め記憶されている路面に対するカメラの高さに基づいて決定される。そのため、行列パラメーターが調整されたホモグラフィ行列に基づいて、バックプロパゲーションにより路面サブネットワーク及び姿勢サブネットワークのパラメーターを合理的に調整する。
【0063】
本実施例では、第1の再構成画像と第2の画像との間の同一領域の路面要素における画素シフトにより、ホモグラフィ行列の行列パラメーターを合理的に調整することができ、行列パラメーターが調整されたホモグラフィ行列を監督情報として、路面サブネットワーク及び姿勢サブネットワークのパラメーターを調整することで、路面サブネットワーク及び姿勢サブネットワークの予測正確性を向上させることができる。
【0064】
図6は本開示のさらに別の実施例におけるステップS4の後のフローチャートである。
図6に示すように、本実施例では、ステップS4の後、ステップS5″及びステップS6″をさらに含む。
【0065】
S5″において、第2の画像の収集時間内で、第1の画素高深比、第2の画像の路面マスク及び第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータに基づいて全体損失値を決定する。
【0066】
具体的には、本実施例は、第1のニューラルネットワーク及び第2のニューラルネットワークを一体とする。ここで、第1の画素高深比及び第2の画像の路面マスクに基づいて、光度損失関数により全体の光度損失値を計算することができる。第2の画像の収集時間内で第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータに基づいて、車両に対するターゲット画像の位置及びターゲットオブジェクトの体積を得ることができ、さらに、全体の監督損失値の決定を補助することができる。全体の光度損失値及び監督損失値に基づいて全体損失値を決定することができる。
【0067】
S6″において、全体損失値に基づいて、第1のニューラルネットワーク及び第2のニューラルネットワークに対してパラメーター調整を行う。
【0068】
本実施例では、第1のニューラルネットワーク及び第2のニューラルネットワークを全体として全体損失値を計算することにより、第1のニューラルネットワーク及び第2のニューラルネットワークのパラメーターに対して合理的な調整を行い、第1のニューラルネットワークと第2のニューラルネットワークの予測正確率を向上させることができる。
【0069】
図7は本開示の一実施例におけるステップS5″のフローチャートである。
図7に示すように、本実施例では、ステップS5″はステップS5″-1~ステップS5″-7を含む。
【0070】
S5″-1において、第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータに基づいて、ターゲットオブジェクトの第2の画素高深比を決定する。
【0071】
具体的には、車両には車載レーダーが設けられる。第2の画像の収集時刻はt2であり、車載レーダーによりt2時刻の車両近傍のレーダースキャンデータを取得する。第2の画像及び車両近傍のレーダースキャンデータを分析することにより、分析結果に基づいて車両近傍のレーダースキャンデータからターゲットオブジェクトに対応するレーダースキャンデータを抽出する。抽出されたレーダースキャンデータに基づいて車両に対するターゲットオブジェクトの位置及びターゲットオブジェクトの体積を正確に得ることができ、さらにt2時刻の画素高深比の真値を生成し、第2の画素高深比と記すことができる。
【0072】
S5″-2において、第1の画素高深比及び第2の画素高深比に基づいて、第1の損失値を決定する。ここで、第1の画素高深比と第2の画素高深比の間の減算を行って第1の損失値を得る。
【0073】
S5″-3において、ホモグラフィ行列を用いて第1の画像に対して画像再構成を行い、第1の再構成画像を得る。
【0074】
具体的には、ホモグラフィ行列を用いて、第1の画像に対して逆マッピングにより画像再構成を行い、第1の再構成画像を得る。
【0075】
S5″-4において、第1の画素高深比に基づいて、第1の画像領域と第2の画像領域との間の画素シフトを決定する。ここで、第1の画像領域は第1の再構成画像において路面画像領域を除いた残りの画像領域であり、第2の画像領域は第2の画像において路面画像領域を除いた残りの画像領域である。
【0076】
具体的には、ホモグラフィ行列に基づいて第1の再構成画像と第2の画像の、路面画像領域での基本的な合わせ(ホモグラフィ行列の行列パラメーターが最適に達していない場合、第1の再構成画像と第2の画像は路面部分で画素シフトが依然と存在する)を実現し、しかし、第1の再構成画像と第2の画像の、路面画像領域以外の残りの画像領域とは合わせられていない。第1の再構成画像と第2の画像においての路面画像領域以外の残りの画像領域を画素毎に比較し、第1の画像領域と第2の画像領域との間の画素シフトを得る。
【0077】
S5″-5において、第1の画像領域と第2の画像領域との間の画素シフトに基づいて、第1の再構成画像の画素位置を調整し、第2の再構成画像を得る。
【0078】
具体的には、第1の画像領域と第2の画像領域との間の画素シフトに基づいて、第1の再構成画像の画素位置を調整することにより、第2の再構成画像と第2の画像に路面画像領域における画素の合わせを実現させることができる。第1の再構成画像と第2の画像との路面画像領域における基本的な合わせが既に実現されたことに合わせて、第2の再構成画像と第2の画像との全画像における基本的な合わせを実現する。
【0079】
S5″-6において、第2の再構成画像、第2の画像及び第2の画像の路面マスクに基づいて、第2の損失値を決定する。
【0080】
具体的には、第2の再構成画像、第2の画像及び第2の画像の路面マスクに基づいて第2の再構成画像と第2の画像との間の光度損失を第2の損失値として計算することができる。
【0081】
S5″-7において、第1の損失値及び第2の損失値に基づいて、全体損失値を決定する。ここで、第1の損失値と第2の損失値を加算して全体損失値を得てもよい。
【0082】
本実施例では、第2の画像の収集時間内で、第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータ、第1の画素高深比及び第2の画像の路面マスクに基づいて、全体損失値を合理的に決定することができ、それにより、全体損失値に基づいて第1のニューラルネットワーク及び第2のニューラルネットワークのパラメーターを合理的に調整し、さらに第1のニューラルネットワークと第2のニューラルネットワークの予測精度を向上させる。
【0083】
図8は本開示の一実施例におけるステップS5″-6のフローチャートである。
図8に示すように、本実施例では、ステップS5″-6は、ステップS5″-6-1~ステップS5″-6-3を含む。
【0084】
S5″-6-1において、第2の再構成画像と第2の画像との間の全画像光度誤差を決定する。
【0085】
選択可能な一態様では、光度誤差関数に基づいて、以下の式で全画像光度誤差を決定する。
【数2】
【数3】
ここで、L
pは光度損失係数を表し、αは重みを表し、且つαは定数であり、Itは第2の画像を表し、Iswは第2の再構成画像を表し、SSIM(It,Isw)は第2の画像と第2の再構成画像との間の構造類似パラメーターを表し、L_photo1は全画像光度誤差を表す。
【0086】
S5″-6-2において、全画像光度誤差及び第2の画像の路面マスクに基づいて、第2の再構成画像と第2の画像との路面画像領域における光度誤差を決定する。
【0087】
選択可能な一態様では、以下の式で第2の再構成画像と第2の画像との路面画像領域における光度誤差を決定する。
【数4】
ここで、L_photo2は第2の再構成画像と第2の画像との路面画像領域における光度誤差を表し、mask_groundは第2の画像の路面マスクを表す。
【0088】
S5″-6-3において、全画像光度誤差及び第2の再構成画像と第2の画像との路面画像領域における光度誤差に基づいて、第2の損失値を決定する。
【0089】
具体的には、以下の式で第2の損失値を決定する。
【数5】
【0090】
本実施例では、第2の再構成画像、第2の画像及び第2の画像の路面マスクに基づいて、第2の再構成画像と第2の画像との間の第2の損失値を合理的に決定することができ、それにより第2の損失値に基づいて第1のニューラルネットワークと第2のニューラルネットワークのパラメーターを合理的に調整し、さらに第1のニューラルネットワーク及び第2のニューラルネットワークの予測正確率を向上させる。
【0091】
本開示の実施例により提供されるいずれかの画像データの処理方法は、端末機器及びサーバなどを含むがこれらに限らない、データ処理能力を有する任意の適切な機器により実行することができる。又は、本開示の実施例により提供されるいずれかの画像データの処理方法はプロセッサーにより実行することができ、例えば、プロセッサーは、メモリーに記憶されている対応するコマンドを呼び出すことにより、本開示の実施例により提供されるいずれかの画像データの処理方法を実行する。以下、重複する説明を省略する。
例示的な装置
【0092】
図9は本開示の一実施例における画像データの処理装置の構造ブロック図である。
図9に示すように、本実施例では、画像データの処理装置は、ホモグラフィ行列決定モジュール100、マッピング画像特徴決定モジュール200、融合モジュール300及び第1の画素高深比決定モジュール400を含む。
【0093】
そのうち、ホモグラフィ行列決定モジュール100は、第1のニューラルネットワークを用いて第1の画像及び第2の画像を処理し、ホモグラフィ行列を得るために用いられ、ここで、前記第1の画像は第1の時刻で撮影され、前記第2の画像は第2の時刻で撮影され、且つ前記第1の画像及び前記第2の画像は同一領域の路面要素を有し、マッピング画像特徴決定モジュール200は、前記ホモグラフィ行列に基づいて、第1の画像特徴のマッピング画像特徴を決定するために用いられ、ここで、前記第1の画像特徴は前記第1の画像に基づいて抽出された特徴であり、融合モジュール300は、前記マッピング画像特徴及び前記第2の画像特徴を融合し、融合画像特徴を得るために用いられ、ここで、前記第2の画像特徴は前記第2の画像に基づいて抽出された特徴であり、第1の画素高深比決定モジュール400は、第2のニューラルネットワークを用いて前記融合画像特徴を処理し、前記第2の画像の第1の画素高深比を得るために用いられる。
【0094】
図10は本開示の一実施例におけるホモグラフィ行列決定モジュール100の構造ブロック図である。
図10に示すように、本実施例では、ホモグラフィ行列決定モジュール100は、
前記第1の画像特徴及び前記第2の画像特徴を融合し、第3の画像特徴を得るために用いられる融合ユニット101と、
前記第1のニューラルネットワークにおける路面サブネットワークを用いて前記第3の画像特徴を処理し、路面法線情報を決定するために用いられる路面法線情報決定ユニット102と、
前記第1のニューラルネットワークにおける姿勢サブネットワークを用いて前記第3の画像特徴を処理し、前記第1の画像と前記第2の画像との間のカメラ相対姿勢を決定するために用いられるカメラ相対姿勢決定ユニット103と、
前記路面法線情報、前記カメラ相対姿勢及び予め記憶されている路面に対するカメラの高さに基づいて、前記ホモグラフィ行列を決定するために用いられるホモグラフィ行列決定ユニット104と、を含む。
【0095】
図11は本開示の別の実施例における画像データの処理装置の構造ブロック図である。
図11に示すように、本実施例では、画像データの処理装置はさらに、
前記第2の画像の収集時間内で、前記第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータに基づいて、前記ターゲットオブジェクトの第2の画素高深比を決定するために用いられる第2の画素高深比決定モジュール500と、
前記第1の画素高深比と前記第2の画素高深比との差に基づいて、前記第2のニューラルネットワークに対してパラメーター調整を行うために用いられる第1のパラメーター調整モジュール600と、を含む。
【0096】
図12は本開示のさらに別の実施例における画像データの処理装置の構造ブロック図である。
図12に示すように、本実施例では、画像データの処理装置はさらに、
前記ホモグラフィ行列を用いて前記第1の画像に対して画像再構成を行い、第1の再構成画像を得るために用いられる画像再構成モジュール700と、
前記第1の再構成画像と前記第2の画像との間の、前記同一領域の路面要素における画素シフトに基づいて、前記ホモグラフィ行列の行列パラメーターを調整するために用いられるホモグラフィ行列パラメーター調整モジュール800と、
行列パラメーターが調整されたホモグラフィ行列に基づいて、前記路面サブネットワーク及び前記姿勢サブネットワークに対してパラメーター調整を行うために用いられる第1のネットワークパラメーター調整モジュール900と、を含む。
【0097】
図13は本開示のさらに別の実施例における画像データの処理装置の構造ブロック図である。
図13に示すように、本実施例では、画像データの処理装置はさらに、
前記第2の画像の収集時間内で、前記第1の画素高深比、前記第2の画像の路面マスク及び前記第2の画像におけるターゲットオブジェクトに対応するレーダースキャンデータに基づいて全体損失値を決定するために用いられる全体損失値決定モジュール1000と、
前記全体損失値に基づいて、前記第1のニューラルネットワーク及び前記第2のニューラルネットワークに対してパラメーター調整を行うために用いられる第2のネットワークパラメーター調整モジュール1100と、を含む。
【0098】
図14は本開示の一実施例における全体損失値決定モジュール1000の構造ブロック図である。
図14に示すように、本実施例では、全体損失値決定モジュール1000は、
前記レーダースキャンデータに基づいて前記ターゲットオブジェクトの第2の画素高深比を決定するために用いられる第2の画素高深比決定ユニット1001と、
前記第1の画素高深比及び前記第2の画素高深比に基づいて、第1の損失値を決定するために用いられる第1の損失値決定ユニット1002と、
前記ホモグラフィ行列を用いて前記第1の画像に対して画像再構成を行い、第1の再構成画像を得るために用いられる第1の再構成画像ユニット1003と、
前記第1の画素高深比に基づいて、第1の画像領域と第2の画像領域との間の画素シフトを決定するために用いられる画素シフト決定ユニット1004であって、前記第1の画像領域は前記第1の再構成画像における、路面画像領域を除いた残りの画像領域であり、前記第2の画像領域は前記第2の画像における、路面画像領域を除いた残りの画像領域である画素シフト決定ユニット1004と、
前記画素シフトに基づいて前記第1の再構成画像の画素位置を調整し、第2の再構成画像を得るために用いられる第2の再構成画像ユニット1005と、
前記第2の再構成画像、前記第2の画像及び前記第2の画像の路面マスクに基づいて、第2の損失値を決定するために用いられる第2の損失値決定ユニット1006と、
前記第1の損失値及び前記第2の損失値に基づいて前記全体損失値を決定するために用いられる全体損失値決定ユニット1007と、を含む。
【0099】
本開示の一実施例では、第2の損失値決定ユニット1006は具体的には、前記第2の再構成画像と前記第2の画像との間の全画像光度誤差を決定するために用いられ、第2の損失値決定ユニット1006はさらに、前記全画像光度誤差及び前記第2の画像の路面マスクに基づいて、前記第2の再構成画像と前記第2の画像との路面画像領域における光度誤差を決定するために用いられ、第2の損失値決定ユニット1006はさらに前記全画像光度誤差及び前記第2の再構成画像と前記第2の画像との路面画像領域における光度誤差に基づいて、前記第2の損失値を決定するために用いられる。
【0100】
なお、本開示の実施例の画像データの処理装置の具体的な実施形態は本開示の実施例の画像データの処理方法の具体的な実施形態と類似しており、具体的には、画像データの処理方法の部分を参照し、冗長性を減らすために、重複する説明を省略する。
例示的な電子機器
【0101】
以下、
図15を参照して本開示の一実施例により提供される電子機器について説明する。
図15に示すように、電子機器は、1つ又は複数のプロセッサー10と、メモリー20と、を含む。
【0102】
プロセッサー10は、中央処理ユニット(CPU)又はデータ処理能力及び/又はコマンド実行能力を有する他の形式の処理ユニットであってもよく、所望の機能を実行するように電子機器内の他の構成要素を制御することができる。
【0103】
メモリー20は、揮発性メモリー及び/又は不揮発性メモリーなどの様々な形態のコンピュータ可読記憶媒体を含む、1つ又は複数のコンピュータプログラム製品を含んでもよい。前記揮発性メモリーは、ランダムアクセスメモリー(RAM)及び/又はキャッシュメモリー(cache)などを含んでもよい。前記不揮発性メモリーは、例えば、リードオンリメモリー(ROM)、ハードディスク、フラッシュメモリーなどを含んでもよい。前記コンピュータ可読記憶媒体には1つ又は複数のコンピュータプログラムコマンドが記憶されてもよく、プロセッサー10は前記プログラムコマンドを実行することにより、上述した本開示の各実施例における画像データの処理方法及び/又はほかの期待される機能を実現することができる。また、コンピュータ可読記憶媒体には、入力信号、信号成分、ノイズ成分等の各種コンテンツが記憶されていてもよい。
【0104】
一例では、電子機器はさらに、バスシステム及び/又は他の形態の接続機構(図示せず)を介して相互に接続されている入力装置30及び出力装置40を含んでもよい。入力装置30はキーボードやマウスなどであってもよい。出力装置40は、例えば、ディスプレイ、スピーカ、プリンタ、並びに通信ネットワーク及びそれに接続される遠隔出力機器などを含んでもよい。
【0105】
もちろん、
図15においては、説明の簡略化のため、電子機器内の本開示に関連する構成要素の一部のみを示しており、バスや入力/出力インタフェースなどの構成要素は省略している。このほか、具体的な適用状況に応じて、電子機器はさらに任意の適切な他の構成要素を含んでもよい。
例示的なコンピュータ可読記憶媒体
【0106】
コンピュータ可読記憶媒体は、1つ又は複数の読み取り可能な媒体の任意の組み合わせを採用することができる。読み取り可能な媒体は、読み取り可能な信号媒体又は読み取り可能な記憶媒体であってもよい。読み取り可能な記憶媒体は、例えば、電気、磁気、光学、電磁、赤外線、又は半導体のシステム、装置、若しくはデバイス、又はそれらの任意の組み合わせを含んでもよいが、これらに限定されない。読み取り可能な記憶媒体のより具体的な例(非網羅的なリスト)としては、1つ以上のワイヤを有する電気接続、ポータブルディスク、ハードディスク、ランダムアクセスメモリー(RAM)、リードオンリメモリー(ROM)、消去可能プログラマブルリードオンリメモリー(EPROM又はフラッシュメモリー)、光ファイバ、ポータブルコンパクトディスクリードオンリメモリー(CD-ROM)、光記憶デバイス、磁気記憶デバイス、又は上記の任意の適切な組み合わせが挙げられる。
【0107】
以上、具体的な実施例に合わせて本開示の基本原理について説明したが、本開示で言及された利点、優勢、効果などは、限定的なものではなく例示に過ぎず、本開示の様々な実施例がそれらの利点、優勢、効果などを必ず備えていると考えるべきではないことを指摘すべきである。また、上記開示の具体的な詳細は、例示する作用及び理解を容易にする作用に過ぎず、限定的なものではなく、上記詳細は、本開示が必ず上記具体的な詳細で実現されることを限定しない。
【0108】
本明細書における様々な実施例は、逐次的な方法で説明され、各実施例は、他の実施例との相違点を中心に説明し、各実施例の間の同一又は類似の部分は、相互に参照すればよい。システムの実施例については、基本的に方法の実施例に対応するため、説明は比較的単純であるが、関連する箇所は方法の実施例の説明の一部を参照すればよい。
【0109】
本開示に係るデバイス、装置、機器、システムのブロック図は、単なる例示的な例に過ぎず、必ずブロック図に示される方式で接続、配置、構成を行うことを要求又は暗示することを意図していない。当業者であればわかるように、これらのデバイス、装置、機器、システムを任意の方法で接続、配置、構成してもよい。「含む」、「含有する」、「有する」などの単語は開放語彙であり、「…含むが、…に限定されない」ことを意味し、且つそれと互換的に使用されてもよい。本明細書で使用される「又は」及び「及び」という用語は、「及び/又は」という用語を指し、文脈が明らかにそうでないことを示さない限り、それらと互換的に使用されてもよい。ここで使用される言葉「例えば」は、「例えば、…が、…に限定されない」という言葉を指し、且つそれと互換的に使用されてもよい。
【0110】
本開示の方法及び装置は、多くの方法で実現されてもよい。例えば、本開示の方法及び装置は、ソフトウェア、ハードウェア、ファームウェア、又はソフトウェア、ハードウェア、ファームウェアの任意の組み合わせによって実現されてもよい。前記方法のステップの上述の順序は、単に説明のためのものであり、本開示の方法のステップは、特に明記されない限り、上記で具体的に説明された順序に限定されない。また、いくつかの実施例では、本開示は、記録媒体に記録されたプログラムとしても具現化され、これらのプログラムは、本開示による方法を実現するための機械読み取り可能なコマンドを含む。したがって、本開示は、本開示による方法を実行するためのプログラムを記憶した記録媒体も含む。
【0111】
また、本開示の装置、機器及び方法において、各構成要素又は各ステップは、分解及び/又は再結合が可能であることに留意されたい。これらの分解及び/又は再結合は、本開示の等価解決手段と見なされるべきである。
【0112】
開示された態様についての上記の説明は、当業者が本開示を作成又は使用することを可能にするために提供される。これらの態様に対する様々な修正は、当業者には非常に明らかであり、本明細書で定義される一般原理は、本開示の範囲から逸脱することなく他の態様に適用されてもよい。したがって、本開示は、本明細書に示された態様に限定されることを意図しておらず、本明細書に開示された原理及び新規の特徴と一致する最も広い範囲に従う。
【0113】
上記の説明は、例示及び説明の目的で提示されている。さらに、この説明は、本開示の実施例を本明細書に開示された形態に限定することを意図していない。以上、複数の例示的な態様及び実施例を説明したが、当業者であれば、それらの特定の変形、修正、変更、追加、及び部分的組み合わせを認識するであろう。