IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングの特許一覧

特開2024-167904マルチタスクモデルのアーキテクチャを決定するための方法
<>
  • 特開-マルチタスクモデルのアーキテクチャを決定するための方法 図1
  • 特開-マルチタスクモデルのアーキテクチャを決定するための方法 図2
  • 特開-マルチタスクモデルのアーキテクチャを決定するための方法 図3
  • 特開-マルチタスクモデルのアーキテクチャを決定するための方法 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024167904
(43)【公開日】2024-12-04
(54)【発明の名称】マルチタスクモデルのアーキテクチャを決定するための方法
(51)【国際特許分類】
   G06N 3/096 20230101AFI20241127BHJP
   G06F 9/50 20060101ALI20241127BHJP
【FI】
G06N3/096
G06F9/50 150C
【審査請求】未請求
【請求項の数】10
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2024082737
(22)【出願日】2024-05-21
(31)【優先権主張番号】10 2023 204 753.5
(32)【優先日】2023-05-22
(33)【優先権主張国・地域又は機関】DE
(71)【出願人】
【識別番号】390023711
【氏名又は名称】ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
【氏名又は名称原語表記】ROBERT BOSCH GMBH
【住所又は居所原語表記】Stuttgart, Germany
(74)【代理人】
【識別番号】100114890
【弁理士】
【氏名又は名称】アインゼル・フェリックス=ラインハルト
(74)【代理人】
【識別番号】100098501
【弁理士】
【氏名又は名称】森田 拓
(74)【代理人】
【識別番号】100116403
【弁理士】
【氏名又は名称】前川 純一
(74)【代理人】
【識別番号】100134315
【弁理士】
【氏名又は名称】永島 秀郎
(74)【代理人】
【識別番号】100162880
【弁理士】
【氏名又は名称】上島 類
(72)【発明者】
【氏名】クラウディア ブライオッタ
(72)【発明者】
【氏名】ルーカス ショット
(57)【要約】      (修正有)
【課題】マルチタスクモデルのアーキテクチャを決定するための方法、マルチタスクモデル及びプログラムを提供する。
【解決手段】方法100は、解決すべきタスク(T)のセットに対して、当該セットの解決すべきタスク(T)間の対状の親和性を推定するステップ(102)と、解決すべきタスク(T)を、対状の親和性に基づいて、N個のグループ(g)(i=1~N)に割り当てるステップ(104)と、層(L)を有するマルチタスクモデル(NN)の分岐深さ(d)を決定するステップであって、分岐深さ(d)は、マルチタスクモデル(NN)の層(L)のどの深さにおいて、解決すべきタスク(T)によって共同利用される前記NNの基本ネットワーク(B)が、N個の分岐ネットワーク(Z)(i=1~N)に分岐されるかを予め設定するステップ(106)と、を含む。
【選択図】図3
【特許請求の範囲】
【請求項1】
少なくとも2つの、特に複数の相互に異なるタスク(T)(
【数1】
)のセットを解決するためのL個の層(L)(i=1~L)を有するマルチタスクモデル(NN)のアーキテクチャを決定するための方法(100)であって、
前記方法(100)は、以下のステップ:
解決すべきタスク(T)のセットに対して、前記セットの解決すべきタスク(T)間の対状の親和性を推定するステップ(102)と、
前記解決すべきタスク(T)を、前記対状の親和性に基づいて、N個のグループ(g)(i=1~N)に割り当てるステップ(104)と、
前記層(L)を有するマルチタスクモデル(NN)の分岐深さ(d)を決定するステップ(106)であって、前記分岐深さ(d)は、前記マルチタスクモデル(NN)の前記層(L)のどの深さにおいて、前記解決すべきタスク(T)によって共同利用される前記マルチタスクモデル(NN)の基本ネットワーク(B)が、N個の分岐ネットワーク(Z)(i=1~N)に分岐されるかを予め設定する、ステップ(106)と、
を含む、方法(100)。
【請求項2】
対状の親和性は、前記タスク(T)の各対が、共同利用される層(L)を有するネットワークにおいて、どの程度良好にトレーニングできるのかを値で示す、請求項1に記載の方法(100)。
【請求項3】
前記解決すべきタスク(T)をグループ(g)に割り当てるステップ(104)は、各グループ(g)の平均的な対状の親和性値が最大となるように行われる、請求項1又は2に記載の方法(100)。
【請求項4】
前記分岐深さ(d)を決定するステップ(106)は、
相互に異なる分岐深さ(d)を有する複数のネットワークをトレーニングするステップと、
前記ネットワークの予測精度に基づいて最適な分岐深さ(d)を選択するステップと、
を含む、請求項1乃至3のいずれか一項に記載の方法(100)。
【請求項5】
2つ以上のタスク(T)を含む各グループ(g)に対する、前記各グループ(g)の前記解決すべきタスク(T)の、M個のサブグループ(ug)(i=1~N)への割り当てが、各グループ(g)の平均的な対状の親和性値を増加させるかどうかが検査される(108)、請求項1乃至4のいずれか一項に記載の方法(100)。
【請求項6】
前記検査の結果、各グループ(g)の対状の親和性値が増加したことが判明した場合、以下のステップ(110):
各グループ(g)の解決すべきタスク(T)を、前記対状の親和性に基づいて、M個のサブグループ(ug)(i=1~M)に割り当てるステップと、
各分岐ネットワーク(Z)におけるサブ分岐深さ(ud)を決定するステップと、
が実行され、前記サブ分岐深さ(ud)は、前記分岐(Z)の前記層(L)のどの深さにおいて、前記分岐(Z)が、M個のサブ分岐ネットワーク(UZ)(i=1~M)に分岐されるかを予め設定する、請求項5に記載の方法(100)。
【請求項7】
各サブグループ(ug)に対して、請求項5及び6に記載のステップが繰り返し実行される、請求項5及び6に記載の方法(100)。
【請求項8】
請求項1乃至7のいずれか一項に記載の方法(100)に従って決定されたアーキテクチャを用いて、少なくとも2つの、特に複数の相互に異なるタスクを解決するためのL個の層を有するマルチタスクモデル(N)。
【請求項9】
コンピュータ上で実行されるときに、当該コンピュータに、請求項1乃至7のいずれか一項に記載の方法(100)を実施させるためのコンピュータプログラム製品。
【請求項10】
少なくとも2つの、特に複数の相互に異なるタスクを解決するためのL個の層を有するマルチタスクモデル(NN)のアーキテクチャを決定するための、及び/又は、少なくとも2つの、特に複数の相互に異なるタスク(T)(
【数2】
)のセットを解決するための(L)個(i=1~L)を有するマルチタスクモデル(NN)を決定するための、請求項1乃至7のいずれか一項に記載の方法(100)の使用。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、マルチタスクモデルのアーキテクチャを決定するための方法と、そのような方法に従って決定されたアーキテクチャを用いて、少なくとも2つの、特に複数の相互に異なるタスクを解決するためのマルチタスクモデルと、コンピュータプログラム製品とに関する。
【背景技術】
【0002】
背景技術
マルチタスク学習又はマルチタスク処理も、複数のタスクを並行して解決することができるモデルに携わる機械学習の部分領域である。マルチタスクにおける常用の範例は、様々なタスクを同時に解決するための単一のニューラルネットワークをトレーニングすることにある。マルチタスクネットワークの典型的なアーキテクチャは、一種の特徴抽出器として機能し、その重みが全てのタスクによって共同利用される、バックボーンとも称される共通の基本ネットワークと、自身の重みが全てのタスクによって分割されないヘッド又はヘッダとも称される専用の分岐ネットワークとからなる。そのような環境においては、ニューラルネットワークのトレーニング中に解決すべきタスクが、共通の基本ネットワーク内で、構造的又は破壊的な手法で相互に影響を与えることができる。
【発明の概要】
【発明が解決しようとする課題】
【0003】
本開示は、マルチタスクモデルのアーキテクチャを、タスク間の破壊的な相互作用が最小化されるように決定することができる方法を提案する。
【課題を解決するための手段】
【0004】
発明の開示
一実施形態は、少なくとも2つの、特に複数の相互に異なるタスクT
【数1】
)のセットを解決するための、L個の層L(i=1~L)を有するマルチタスクモデルのアーキテクチャを決定するための方法に関し、本方法は、以下のステップ:
解決すべきタスクTのセットに対して、前記セットの解決すべきタスクT間の対状の親和性を推定するステップと、
解決すべきタスクTを、対状の親和性に基づいて、N個のグループg(i=1~N)に割り当てるステップと、
層Lを有するマルチタスクモデルの分岐深さdを決定するステップであって、分岐深さdは、マルチタスクモデルの層Lのどの深さにおいて、解決すべきタスクTによって共同利用されるマルチタスクモデルの基本ネットワークが、N個の分岐ネットワークZ(i=1~N)に分岐されるかを予め設定する、ステップと、
を含む。
【0005】
本方法は、タスク間の負の相互作用が減衰される単一のマルチタスクネットワークを構想するために、タスクの推定された対状の親和性が利用されることを想定する。すなわち、別個の基本ネットワークにも、バックボーンにも手をつけず、解決すべきタスクは、別個のネットワークにも割り当てられない。本開示によれば、単一のネットワークのアーキテクチャは、複数の分岐ネットワーク又はヘッダも1つの共通の基本ネットワーク又はバックボーンに接続されたツリートポロジによって決定される。換言すれば、本方法は、ニューラルネットワークの一部を、さらに様々なタスクによって共同利用することができ、例えば、単一のニューラルネットワークの低い層において利用することができる、より微細な分割を可能にする。
【0006】
共通の基本ネットワークは、特徴抽出器として機能し、共通の基本ネットワークの重みは、解決すべきタスクによって共同利用される。分岐ネットワークは、タスクに従った専用のサブネットワークであり、その重みは、全てのタスクに利用されるのではなく、それぞれ専用のタスクのみに利用される。
【0007】
分岐ネットワークへのタスクの割り当ては、N個のグループgへのタスクの割り当てに基づいて行われる。本方法にとって、このことは、当該割り当てが先行するステップからの結果として利用可能であることを意味する。
【0008】
分岐深さdを決定するためのステップの目的は、共同利用される基本ネットワーク、バックボーンが存在又は分岐するマルチタスクモデルの層Lの最適な深さを決定することにある。分岐深さd=2とは、例えば、基本ネットワークがマルチタスクモデルの層1及び層2を含み、層2の後方に、分岐ネットワークへの分岐が設けられていることを意味する。
【0009】
すなわち、タスク間の親和性のみが計算されるのではなく、タスク間の競合が発生しかねない場所を確定するために、共通のバックボーンの最適な深さも決定される。すなわち、本方法は、ネットワークが分割される前に、潜在的表現の共同利用がまだ可能であるかどうかを決定する。このようにして、計算コストを格段に削減することができ、このことは、特に、初期層における計算がかなり頻繁に、タスクにかかわらず計算の激化となる画像処理及び他の高次元領域において有益である。
【0010】
一実施形態によれば、対状の親和性は、タスクの各対が、共同利用される層を有するネットワークにおいて、どの程度良好にトレーニングすることができるのかを値で示すことが想定される。親和性の高い値は、タスク対の間の正の干渉を意味し、それに対して、親和性の低い値は、タスク対の間の負の干渉を意味する。例えば、対状の親和性は、1対のタスクを単一のマルチタスクネットワークにおいて一緒にトレーニングし、タスクの勾配更新が他のタスクに対して作用するようにこの効果を定量化することにより決定することができる。2対以上のタスクも、単一のマルチタスクネットワークにおいて一緒にトレーニングすることができる。
【0011】
一実施形態によれば、対状の親和性は、対の第1のタスクに対する親和性値と、対の第2のタスクに対する親和性値とを含むことが想定される。例えば、タスクT及びタスクTを含むタスク対に対しては、タスクTに対する親和性値Zb→aと、タスクTに対する親和性値Za→bとを含む。これらの親和性値は、必ずしも対称的ではなく、すなわち、Zb→aは、Za→bと等しくなくてよい。
【0012】
3つ以上のタスクを含むタスクのセットでは、特定のタスクの親和性は、当該特定のタスクに対する対状の親和性の平均を決定することによって決定することができる。例えば、タスクT,T,Tを含むセットに対して、Tに対する親和性値は、タスクTに対するタスクT及びTの対状の親和性を平均化すること[(Zb→a+Zc→a)/2]によって計算することができる。
【0013】
親和性の決定は、例えば、Fifty,Chrisらによる文献「“Efficiently identifying task groupings for multi-task learning” Advances in Neural Information Processing Systems 34 (2021):27503-27516」及びStandley,Trevorらによる文献「“Which tasks should be learned together in multi-task learning?” International Conference on Machine Learning.PMLR,2020」に記載されている。
【0014】
一実施形態によれば、解決すべきタスクをグループgに割り当てるステップは、各グループgの平均的な対状の親和性値が最大化されるように行われることが想定される。解決すべきタスクをグループgに割り当てるステップは、選言的に行うことができる。また、代替的に、この割り当ては、必ずしも選言的である必要はない。さらに、親和性値は必ずしも対称的ではないので、割り当てるステップが過剰に行われる場合も利点となり得よう。このことは、1つのタスクが2つ以上のグループに割り当てられ得ることを意味する。例えば、タスクT及びタスクTを含むタスク対及び親和性値Zb→a,Za→bに対して、Za→b>Zb→aであることが当てはまり、この場合、値Za→bは、相応に高い値を含み、したがって、タスクTがタスクTを用いてトレーニングされる場合、タスクTに関して正の干渉が存在する。値Zb→aが例えば相応に低い値を含み、それにより、タスクTがタスクTを用いてトレーニングされる場合、タスクTに対して負の干渉が存在する。すなわち、換言すれば、タスクTは、タスクTの出力を高める可能性はあるが、その逆はない。この場合においては、タスクT及びTが同一のグループに割り当てられ、ただし、タスクTが付加的に、タスクが割り当てられないさらなるグループにも割り当てられると有利である。
【0015】
グループの最大数Nが予め設定されると有利であり得る。例えば、最大数は、利用可能なコンピューティングリソースに適合させることができる。
【0016】
解決すべきタスクのグループへの割り当て問題は、分枝限定法又は2進整数計画法(BIP)などの解決手段を用いて効率的に解決することができる。
【0017】
一実施形態によれば、分岐深さdを決定するステップは、相互に異なる分岐深さを有する複数のネットワークをトレーニングするステップと、ネットワークの予測精度に基づいて分岐深さを選択するステップとを含むことが想定される。この予測精度は、例えば適当な検証データを用いて決定することができる。
【0018】
従来技術から公知のアプローチは、部分ネットワークとして全ての可能な分岐を含む格段に大きいニューラルネットワークをトレーニングすることにより、最適な分岐構成を推定するために、ニューラルアーキテクチャ検索(NAS)からなる方法を使用する。本発明に係る方法は、複数の個々のネットワークをトレーニングすることにより、個々の動作ごとに格段に少ないGPUメモリしか要さない計算上簡単なプログラムを用いて最適な分岐深さを見出すことができる。なぜなら、スーパーグラフ全体が1回で決定されないからである。
【0019】
基本的には、分岐深さdの決定後、既述の方法を繰り返すことができる。このことは、以下において、サブグループとサブ分岐ネットワークとに基づいて説明する。
【0020】
一実施形態によれば、2つ以上のタスクを含む各グループgに対して、各グループgの解決すべきタスクを、M個のサブグループ(ug)(i=1~N)に割り当てるステップが、各グループgの平均的な対状の親和性値を増加させるかどうかが検査される。
【0021】
一実施形態によれば、検査の結果、各グループgの対状の親和性値を増加させることが判明した場合、以下のステップ:
各グループgの解決すべきタスクTを、対状の親和性に基づいて、M個のサブグループug(i=1~M)に割り当てるステップと、
各分岐ネットワークZにおけるサブ分岐深さudを決定するステップと、
が実行され、サブ分岐深さudは、分岐Zの層Lのどの深さにおいて、当該分岐Zが、M個のサブ分岐ネットワークUZ(i=1~M)に分岐されるかを予め設定することが想定される。
【0022】
サブ分岐ネットワークへのさらなる分岐の目的は、i番目の分岐ネットワークを、さらにM個のサブ分岐ネットワークに分割することにある。最適なサブ分岐深さudは、セット{d+1,d+2,…,L-1}に、すなわち、分岐深さdよりも大きい深さにある。
【0023】
一実施形態によれば、それぞれ1つのサブグループugに対して、それぞれ1つのグループgについて上述した検査及び割り当てのためのステップが繰り返し実行されることが想定される。このようにして、マルチタスクモデルのアーキテクチャがまださらに改良可能である。
【0024】
さらなる実施形態は、上述した実施形態による方法に従って決定されたアーキテクチャを用いて、少なくとも2つの、特に複数の相互に異なるタスクを解決するためのL個の層を有するマルチタスクモデルに関する。
【0025】
さらなる実施形態は、コンピュータ上で実行されるときに、当該コンピュータに、上述した実施形態による方法を実施させるためのコンピュータプログラム製品に関する。
【0026】
さらなる実施形態は、少なくとも2つの、特に複数の相互に異なるタスクを解決するためのL個の層を有するマルチタスクモデルのアーキテクチャを決定するための、及び/又は、少なくとも2つの、特に複数の相互に異なるタスクを解決するためのL個の層を有するマルチタスクモデルを決定するための上述した実施形態による方法の使用に関する。
【0027】
一実施形態によれば、マルチタスクモデルは、オブジェクト認識の領域におけるタスクを解決するために、及び/又は、技術的なシステムを制御するために、特に2つの領域におけるタスクも解決するために構成されること又はトレーニングされることが想定される。オブジェクト認識及び技術的なシステムの制御の領域は、例えば、自律的又は半自律的な走行の領域及びロボット工学に使用される。
【0028】
オブジェクト認識のために、例えば、多数のデジタル画像、特にデジタルビデオ画像、デジタルレーダ画像、デジタルライダ画像、デジタル超音波画像、又は、デジタルモーションセンサ画像が提供される。マルチタスクモデルは、オブジェクト認識のためにトレーニングされる。トレーニングされたマルチタスクモデルは、デジタル画像内における少なくとも1つのオブジェクトの分類の結果を求めるように構成されている。技術的なシステムの運動を制御するために、本方法は、センサを用いてデジタル画像を捕捉するステップと、デジタル画像内における少なくとも1つのオブジェクトの分類の結果に依存して、技術的なシステム、特に機械、ロボット、車両、航空機の運動を制御するステップと、を含む。
【0029】
上述の方法に従って決定されたアーキテクチャを有するマルチタスクモデルは、有利な方法により、限られた計算予算の環境における複数のタスクを同時に解決するために使用することができる。自律的な走行の場合、例えば、自律的なエージェントは、例えば、他の道路利用者、例えば、自動車、歩行者、自転車運転者などの位置特定及びクラス分類、走行可能な路面の識別、交通標識の識別などのような複数のタスクをリアルタイムで解決する必要があり、ここで、利用可能な計算能力は、車両内に存在するハードウェアによって制限されている。
【0030】
さらなる利点は、明細書及び添付の図面から明らかになる。本発明の実施例は、図面に示されており、以下の明細書においてより詳細に説明される。ここでは、様々な図面における同一の参照符号は、それぞれ同一の要素を示し、又は、少なくとも機能的に同等の要素を示す。個々の図面の説明においては、場合によっては、他の図面の要素が参照されることもある。
【図面の簡単な説明】
【0031】
図1】従来技術から公知のモデルを示す概略図である。
図2】第1の実施形態によるアーキテクチャを有するマルチタスクモデルを示す概略図である。
図3】第2の実施形態によるアーキテクチャを有するマルチタスクモデルを示す概略図である。
図4】マルチタスクモデルNNのアーキテクチャを決定するための方法のステップを示す概略図である。
【発明を実施するための形態】
【0032】
従来技術(図1参照)からは、様々なタスクを、様々なモデルに割り当てることが公知である。Fifty,Chrisらによる開示文献「“Efficiently identifying task groupings for multi-task learning” Advances in Neural Information Processing Systems 34 (2021):27503-27516」、及び、Standley,Trevorらによる開示文献「“Which tasks should be learned together in multi-task learning?” International Conference on Machine Learning.PMLR,2020」によれば、タスクグループを個々のネットワークに割り当てるためにタスク間の親和性が使用される。
【0033】
本開示は、タスク間の負の相互作用が減衰される単一のマルチタスクネットワークを構想するために、タスクの対状の親和性が利用される方法に関する。すなわち、本方法によれば、別個の基本ネットワークにも、バックボーンにも手をつけず、解決すべきタスクは別個のネットワークにも割り当てられない。本開示によれば、単一のネットワークのアーキテクチャは、複数の分岐ネットワーク又はヘッダも1つの共通の基本ネットワーク又はバックボーンに接続されたツリートポロジによって決定される。コンピューティングリソースの共同利用により、マルチタスクアーキテクチャは、一般に、効率と精度との間の妥協に関して、独立した個別タスクネットワークの集合よりも有利である。
【0034】
以下においては、図2乃至図4に基づいて、マルチタスクモデルNN、例えばニューラルネットワークのアーキテクチャを決定するための方法100を説明する。
【0035】
図2及び図3には、例えば、第1の実施形態によるアーキテクチャを有するマルチタスクモデル、及び、第2の実施形態によるアーキテクチャを有するマルチタスクモデルが示されている。
【0036】
マルチタスクモデルNNは、少なくとも2つの、特に複数の相互に異なるタスクT
【数2】
)のセットを解決するためのL個の層L(i=1~L)を含む。
【0037】
この例においては、マルチタスクモデルNNは、例示的に3つの相互に異なるタスクT,T,Tのセットを解決するためのL=3個の層L,L,Lを含む。
【0038】
本方法100は、以下のステップを想定する(図4も参照)。
【0039】
ステップ102においては、解決すべきタスクTのセットに対して、当該セットの解決すべきタスクT間の対状の親和性が推定される。
【0040】
対状の親和性は、タスクT,Tの各対が、共同利用される層Lを有するネットワークにおいて、どの程度良好にトレーニングすることができるのかを値で示す。親和性の高い値は、タスク対の間の正の干渉を意味し、それに対して、親和性の低い値は、タスク対の間の負の干渉を意味する。例えば、対状の親和性は、1対のタスクを単一のマルチタスクネットワークにおいて一緒にトレーニングし、タスクの勾配更新が他のタスクに対して作用するようにこの効果を定量化することにより決定することができる。2対以上のタスクも単一のマルチタスクネットワークにおいて一緒にトレーニングすることができる。
【0041】
一実施形態によれば、対状の親和性は、対の第1のタスクに対する親和性値と、対の第2のタスクに対する親和性値とを含むことが想定される。例えば、タスクT及びタスクTを含むタスク対に対しては、タスクTに対する親和性値Zb→aと、タスクTに対する親和性値Za→bと、を含む。これらの親和性値は、必ずしも対称的ではなく、すなわち、Zb→aは、Za→bと等しくなくてよい。
【0042】
3つ以上のタスクを含むタスクのセットでは、特定のタスクの親和性は、当該特定のタスクに対する対状の親和性の平均を決定することによって決定することができる。例えば、タスクT,T,Tを含むセットに対して、Tに対する親和性は、タスクTに対するタスクT及びTの対状の親和性を平均化すること[(Zb→a+Zc→a)/2]によって計算することができる。
【0043】
ステップ104においては、解決すべきタスクTが、対状の親和性に基づいて、N個のグループg(i=1~N)に割り当てられる。
【0044】
解決すべきタスクTをグループgに割り当てるステップは、例えば、各グループgの平均的な対状の親和性値が最大化されるように行われる。解決すべきタスクTをグループgに割り当てるステップは、選言的に行うことができる。また、代替的に、この割り当ては、必ずしも選言的である必要はない。さらに、親和性値は必ずしも対称的ではないので、割り当てるステップが過剰に行われる場合も利点となり得る。このことは、1つのタスクTが2つ以上のグループに割り当てられ得ることを意味する。例えば、タスクT及びタスクTを含むタスク対及び親和性値Zb→a,Za→bに対して、Za→b>Zb→aであることが当てはまり、この場合、値Za→bは、相応に高い値を含み、したがって、タスクTがタスクTを用いてトレーニングされる場合、タスクTに関して正の干渉が存在する。値Zb→aが例えば相応に低い値を含み、それにより、タスクTがタスクTを用いてトレーニングされる場合、タスクTに対して負の干渉が存在する。すなわち、換言すれば、タスクTは、タスクTの出力を高める可能性があるが、その逆はない。この場合においては、タスクT及びTが同一のグループgに割り当てられ、ただし、タスクTが付加的にタスクが割り当てられないさらなるグループgにも割り当てられると有利である。
【0045】
グループgの最大数Nは、予め設定することができる。
【0046】
解決すべきタスクのグループへの割り当て問題は、分枝限定法又は2進整数計画法(BIP)などの解決手段を用いて効率的に解決することができる。
【0047】
ステップ106においては、層Lを有するマルチタスクモデルNNの分岐深さdが決定され、ここで、この分岐深さdは、マルチタスクモデルの層Lのどの深さにおいて、解決すべきタスクTによって共同利用されるマルチタスクモデルの基本ネットワークBが、N個の分岐ネットワークZ、ただしi=1~N、に分岐されるかを予め設定する。
【0048】
共通の基本ネットワークBは、特徴抽出器として機能し、共通の基本ネットワークBの重みは、解決すべきタスクによって共同利用される。分岐ネットワークZは、タスクに従った専用のサブネットワークであり、その重みは、全てのタスクに利用されるのではなく、それぞれ専用のタスクのみに利用される。
【0049】
分岐ネットワークZへのタスクTの割り当ては、N個のグループgへのタスクTの割り当てに基づいて行われる。本方法にとって、このことは、当該割り当てが、先行するステップ104からの結果として利用可能であることを意味する。
【0050】
分岐深さdを決定するためのステップ106の目的は、共同利用される基本ネットワークB、バックボーンが存在又は分岐するマルチタスクモデルNNの層Lの最適な深さを決定することにある。分岐深さd=2とは、例えば、基本ネットワークがマルチタスクモデルの層1及び層2を含み、層2の後方に、分岐ネットワークZ,Zへの分岐が設けられていることを意味する(図2参照)。分岐深さd=1とは、例えば、基本ネットワークがマルチタスクモデルの層1を含み、層1の後方に、分岐ネットワークZ,Zへの分岐が設けられていることを意味する(図3参照)。
【0051】
一実施形態によれば、分岐深さdを決定するステップは、相互に異なる分岐深さを有する複数のネットワークをトレーニングするステップと、ネットワークの予測精度に基づいて最適な分岐深さを選択するステップとを含むことが想定される。この予測精度は、例えば適当な検証データを用いて決定することができる。例えば、図2によるネットワーク及び図3によるネットワークをトレーニングし、ネットワークの予測精度に基づいて最適な分岐深さを特定することができる。好適には、付加的に最適な分岐深さが、ニューラルネットワークのアーキテクチャの所要のコンピュータリソース消費に依存して選択される。
【0052】
基本的には、分岐深さdを決定するステップ106の後においては、既述の方法を繰り返すことができる。このことは、以下で、サブグループとサブ分岐ネットワークとに基づいて説明する。
【0053】
一実施形態によれば、2つ以上のタスクを含む各グループgに対する、各グループgの解決すべきタスクの、M個のサブグループug(i=1~N)への割り当てが、各グループgの平均的な対状の親和性値を増加させるかどうかが検査されるステップ108が想定される。
【0054】
一実施形態によれば、検査の結果、各グループgの対状の親和性を増加させることが判明した場合、(ステップ110にまとめて)以下のステップ:
各グループgの解決すべきタスクTを、対状の親和性に基づいて、M個のサブグループug(i=1~M)に割り当てるステップと、
各分岐ネットワークZにおけるサブ分岐深さudを決定するステップと、
が実行され、ここで、サブ分岐深さudは、分岐Zの層Lのどの深さにおいて、当該分岐Zが、M個のサブ分岐ネットワークUZ(i=1~M)に分岐されるかを予め設定することが想定される。
【0055】
サブ分岐ネットワークへのさらなる分岐の目的は、i番目の分岐ネットワークを、さらにM個のサブ分岐ネットワークに分割することにある。最適なサブ分岐深さudは、セット{d+1,d+2,…,L-1}に、すなわち、分岐深さdよりも大きい深さにある。
【0056】
一実施形態によれば、それぞれ1つのサブグループugに対して、それぞれ1つのグループgについて上述した検査及び割り当てのためのステップが繰り返し実行されることが想定される。このようにして、マルチタスクモデルのアーキテクチャがまださらに改良可能である。
【0057】
さらなる実施形態は、少なくとも2つの、特に複数の相互に異なるタスクTを解決するためのL個の層を有するマルチタスクモデルNNのアーキテクチャを決定するための、及び/又は、少なくとも2つの、特に複数の相互に異なるタスクTを解決するためのL個の層を有する、マルチタスクモデルNNを決定するための、上述した実施形態による方法100の使用に関する。
【0058】
一実施形態によれば、マルチタスクモデルは、オブジェクト認識の領域におけるタスクを解決するために、及び/又は、技術的なシステムを制御するために、特に2つの領域におけるタスクも解決するために構成されること又はトレーニングされることが想定される。オブジェクト認識及び技術的なシステムの制御の領域は、例えば、自律的又は半自律的な走行の領域及びロボット工学に使用される。
【0059】
オブジェクト認識のために、例えば、図3及び図4の入力データDを参照すると、複数のデジタル画像、特にデジタルビデオ画像、デジタルレーダ画像、デジタルライダ画像、デジタル超音波画像、又は、デジタルモーションセンサ画像が提供される。マルチタスクモデルは、オブジェクト認識のためにトレーニングされる。トレーニングされたマルチタスクモデルは、デジタル画像内における少なくとも1つのオブジェクトの分類の結果を求めるように構成されている。技術的なシステムの運動を制御するために、本方法は、センサを用いてデジタル画像を捕捉するステップと、デジタル画像内における少なくとも1つのオブジェクトの分類の結果に依存して、技術的なシステム、特に機械、ロボット、車両、航空機の運動を制御するステップと、を含む。
図1
図2
図3
図4
【手続補正書】
【提出日】2024-07-22
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
少なくとも2つの、特に複数の相互に異なるタスク(T)(
【数1】
)のセットを解決するためのL個の層(L)(i=1~L)を有するマルチタスクモデル(NN)のアーキテクチャを決定するための方法(100)であって、
前記方法(100)は、以下のステップ:
解決すべきタスク(T)のセットに対して、前記セットの解決すべきタスク(T)間の対状の親和性を推定するステップ(102)と、
前記解決すべきタスク(T)を、前記対状の親和性に基づいて、N個のグループ(g)(i=1~N)に割り当てるステップ(104)と、
前記層(L)を有するマルチタスクモデル(NN)の分岐深さ(d)を決定するステップ(106)であって、前記分岐深さ(d)は、前記マルチタスクモデル(NN)の前記層(L)のどの深さにおいて、前記解決すべきタスク(T)によって共同利用される前記マルチタスクモデル(NN)の基本ネットワーク(B)が、N個の分岐ネットワーク(Z)(i=1~N)に分岐されるかを予め設定する、ステップ(106)と、
を含む、方法(100)。
【請求項2】
前記対状の親和性は、前記タスク(T)の各対が、共同利用される層(L)を有するネットワークにおいて、どの程度良好にトレーニングできるのかを値で示す、請求項1に記載の方法(100)。
【請求項3】
前記解決すべきタスク(T)をグループ(g)に割り当てるステップ(104)は、各グループ(g)の平均的な対状の親和性値が最大となるように行われる、請求項に記載の方法(100)。
【請求項4】
前記分岐深さ(d)を決定するステップ(106)は、
相互に異なる分岐深さ(d)を有する複数のネットワークをトレーニングするステップと、
前記ネットワークの予測精度に基づいて最適な分岐深さ(d)を選択するステップと、
を含む、請求項に記載の方法(100)。
【請求項5】
2つ以上のタスク(T)を含む各グループ(g)に対する、前記各グループ(g)の前記解決すべきタスク(T)の、M個のサブグループ(ug)(i=1~N)への割り当てが、各グループ(g)の平均的な対状の親和性値を増加させるかどうかが検査される(108)、請求項に記載の方法(100)。
【請求項6】
前記検査の結果、各グループ(g)の対状の親和性値が増加したことが判明した場合、以下のステップ(110):
各グループ(g)の解決すべきタスク(T)を、前記対状の親和性に基づいて、M個のサブグループ(ug)(i=1~M)に割り当てるステップと、
各分岐ネットワーク(Z)におけるサブ分岐深さ(ud)を決定するステップと、
が実行され、前記サブ分岐深さ(ud)は、前記分岐(Z)の前記層(L)のどの深さにおいて、前記分岐(Z)が、M個のサブ分岐ネットワーク(UZ)(i=1~M)に分岐されるかを予め設定する、請求項5に記載の方法(100)。
【請求項7】
各サブグループ(ug)に対して、以下のステップが繰り返し実行され、すなわち、
2つ以上のタスク(T )を含む各グループ(g )に対する、前記各グループ(g )の前記解決すべきタスク(T )の、M個のサブグループ(ug )(i=1~N)への割り当てが、各グループ(g )の平均的な対状の親和性値を増加させるかどうかが検査され(108)、
前記検査の結果、各グループ(g )の対状の親和性値が増加したことが判明した場合、以下のステップ(110):
各グループ(g )の解決すべきタスク(T )を、前記対状の親和性に基づいて、M個のサブグループ(ug )(i=1~M)に割り当てるステップと、
各分岐ネットワーク(Z )におけるサブ分岐深さ(ud)を決定するステップと、
が実行され、前記サブ分岐深さ(ud)は、前記分岐(Z )の前記層(L )のどの深さにおいて、前記分岐(Z )が、M個のサブ分岐ネットワーク(UZ )(i=1~M)に分岐されるかを予め設定する、請求項に記載の方法(100)。
【請求項8】
請求項に記載の方法(100)に従って決定されたアーキテクチャを用いて、少なくとも2つの、特に複数の相互に異なるタスクを解決するためのL個の層を有するマルチタスクモデル(N)。
【請求項9】
コンピュータ上で実行されるときに、当該コンピュータに、請求項に記載の方法(100)を実施させるためのコンピュータプログラム
【請求項10】
少なくとも2つの、特に複数の相互に異なるタスクを解決するためのL個の層を有するマルチタスクモデル(NN)のアーキテクチャを決定するための、及び/又は、少なくとも2つの、特に複数の相互に異なるタスク(T)(
【数2】
)のセットを解決するためのL個の層(L (i=1~L)を有するマルチタスクモデル(NN)を決定するための、請求項に記載の方法(100)の使用。
【外国語明細書】