IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ サノフイの特許一覧

特開2024-123213残差セミリカレントニューラルネットワーク
<>
  • 特開-残差セミリカレントニューラルネットワーク 図1
  • 特開-残差セミリカレントニューラルネットワーク 図2A
  • 特開-残差セミリカレントニューラルネットワーク 図2B
  • 特開-残差セミリカレントニューラルネットワーク 図3
  • 特開-残差セミリカレントニューラルネットワーク 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024123213
(43)【公開日】2024-09-10
(54)【発明の名称】残差セミリカレントニューラルネットワーク
(51)【国際特許分類】
   G06N 3/045 20230101AFI20240903BHJP
   G06N 3/044 20230101ALI20240903BHJP
【FI】
G06N3/045
G06N3/044
【審査請求】有
【請求項の数】20
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2024102565
(22)【出願日】2024-06-26
(62)【分割の表示】P 2021557323の分割
【原出願日】2020-03-23
(31)【優先権主張番号】62/824,895
(32)【優先日】2019-03-27
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】19305611.6
(32)【優先日】2019-05-13
(33)【優先権主張国・地域又は機関】EP
(71)【出願人】
【識別番号】504456798
【氏名又は名称】サノフイ
【氏名又は名称原語表記】SANOFI
(74)【代理人】
【識別番号】100127926
【弁理士】
【氏名又は名称】結田 純次
(74)【代理人】
【識別番号】100216105
【弁理士】
【氏名又は名称】守安 智
(72)【発明者】
【氏名】チィ・タン
(72)【発明者】
【氏名】ユーラン・チィ
(57)【要約】      (修正有)
【課題】予測精度が向上する人工ニューラルネットワークを提供する。
【解決手段】残差セミリカレントニューラルネットワーク(RSNN)は、時不変入力と時変入力データの両方を受けて1つまたはそれ以上の時系列予測を生成するように構成される。時不変入力は、RSNNの多層パーセプトロンによって処理される。多層パーセプトロンの出力は、RSNNのリカレントニューラルネットワークユニットの初期状態として使用される。リカレントニューラルネットワークユニットはまた、時不変入力を受け、この時不変入力を時変入力とともに処理して出力を生成することもできる。多層パーセプトロンとリカレントニューラルネットワークユニットの各出力は、組み合わされて1つまたはそれ以上の時系列予測が生成される。
【選択図】図4
【特許請求の範囲】
【請求項1】
ニューラルネットワークであって:
第1のタイプの外部データを受け、この第1のタイプの外部データを処理してMLP出力を生成するように構成された多層パーセプトロン(MLP)と;
MLP出力の少なくとも一部分と第2のタイプの外部データとを受け;
MLP出力の少なくとも一部分および少なくとも第2のタイプの外部データを処理してRNN出力を生成する;
ように構成された、リカレントニューラルネットワーク(RNN)ユニットとを含み、
ここで、MLPとRNNユニットは合わせて、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成するように構成されている、前記ニューラルネットワーク
【請求項2】
MLPは、入力層、少なくとも1つの隠れ層、および出力層を含む、請求項1に記載のニューラルネットワーク。
【請求項3】
RNNユニットは、少なくとも1つの隠れRNN層を含む、請求項1~2のいずれか1項に記載のニューラルネットワーク。
【請求項4】
第1のタイプの外部データは時不変データを含む、請求項1~3のいずれか1項に記載のニューラルネットワーク。
【請求項5】
第2のタイプの外部データは時変データを含む、請求項1~4のいずれか1項に記載のニューラルネットワーク。
【請求項6】
ニューラルネットワークは、MPL出力とRNN出力を組み合わせて残差出力を生成するように構成され、1つまたはそれ以上の時系列予測は、その残差出力に少なくとも部分的に基づいて生成される、請求項1~5のいずれか1項に記載のニューラルネットワーク。
【請求項7】
RNNユニットは長短期記憶RNNユニットを含む、請求項1~6のいずれか1項に記載のニューラルネットワーク。
【請求項8】
RNNユニットは通常のRNNユニットを含む、請求項1~7のいずれか1項に記載のニューラルネットワーク。
【請求項9】
RNNユニットはゲートリカレントユニットを含む、請求項1~8のいずれか1項に記載のニューラルネットワーク。
【請求項10】
1つまたはそれ以上の時系列予測は、薬物の用量の投与後の時間の関数としての、血漿中の薬物の濃度値を含む、請求項1~9のいずれか1項に記載のニューラルネットワーク。
【請求項11】
方法であって:
多層パーセプトロン(MLP)によって、第1のタイプの外部データを受けること;
MLPによって、第1のタイプの外部データを処理してMLP出力を生成すること;
リカレントニューラルネットワーク(RNN)ユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを受けること;
RNNユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを処理してRNN出力を生成すること;ならびに、
RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成することを含む、前記方法。
【請求項12】
第1のタイプの外部データは時不変データを含む、請求項11に記載の方法。
【請求項13】
第2のタイプの外部データは時変データを含む、請求項11~12のいずれか1項に記載の方法。
【請求項14】
MPL出力とRNN出力を組み合わせて残差出力を生成することをさらに含み、1つまたはそれ以上の時系列予測が、その残差出力に少なくとも部分的に基づいて生成される、請求項11~13のいずれか1項に記載の方法。
【請求項15】
RNNユニットは長短期記憶RNNユニットを含む、請求項11~14のいずれか1項に記載の方法。
【請求項16】
RNNユニットは通常のRNNユニットを含む、請求項11~15のいずれか1項に記載の方法。
【請求項17】
RNNユニットはゲートリカレントユニットを含む、請求項11~16のいずれか1項に記載の方法。
【請求項18】
1つまたはそれ以上の時系列予測は、薬物の用量の投与後の時間の関数としての、血漿中の薬物の濃度値を含む、請求項11~17のいずれか1項に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本出願は、2019年3月27日に出願された米国特許出願仮第62/824,895号、および2019年5月13日に出願された欧州特許出願公開第19305611.6号の優先権を主張し、これらの内容全体は参照によって本明細書に組み入れる。
【0002】
本開示は、人工ニューラルネットワークに関する。
【背景技術】
【0003】
人工ニューラルネットワーク(ANN)は、生物学的ニューラルネットワークから漠然と着想を得たコンピューティングシステムである。ANNは、1つまたはそれ以上の機械学習アルゴリズムが協働して複雑なデータ入力を処理するためのフレームワークである。ANNは、画像認識などのタスクを実行するために学習することができ、この場合、ANNは、1つの画像内のいくつかの特徴(たとえば、動物、車両、道路標識など)を識別できるように学習することができる。ANNは通常、人工ニューロンと呼ばれる連結されたノードの集合体を含む。各連結部では、1つの人工ニューロンから別の人工ニューロンへ信号を伝達することができる。信号を受けた人工ニューロンは、その信号を処理し、次にその結果を、連結されている追加の人工ニューロンへ出力することができる。
【0004】
典型的な実施形態では、人工ニューロン間の、エッジと呼ばれることもある連結部の信号は実数であり、各人工ニューロンの出力は、その入力の合計の非線形関数に従って計算される。人工ニューロンおよびエッジは通常、ANNが訓練されている間に調整することができる重みを有する。ANNは、コンピュータビジョン、音声認識、機械翻訳、および医療診断などの多様なタスクに使用されてきた。最近では、ANNは、いくつかの入力に基づいて結果を予測する予測モデルとして使用されている。たとえば、ANNは、薬物が人体とどのように相互作用するか(たとえば、薬物の吸収、分散、代謝、排泄の時間経過)を予測する薬物動態モデリングに使用される。
【発明の概要】
【課題を解決するための手段】
【0005】
本開示の少なくとも1つの態様では、ニューラルネットワークが提供される。ニューラルネットワークは、第1のタイプの外部データを受け、この第1のタイプの外部データを処理してMLP出力を生成するように構成された多層パーセプトロン(MLP)を含む。ニューラルネットワークは、リカレントニューラルネットワーク(RNN)ユニットを含む。RNNユニットは、MLP出力の少なくとも一部分と第2のタイプの外部データとを受けるように構成される。RNNユニットは、MLP出力の少なくとも一部分および少なくとも第2のタイプの外部データを処理してRNN出力を生成するように構成される。MLPとRNNユニットは合わせて、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成するように構成される。
【0006】
MLPは、入力層、少なくとも1つの隠れ層、および出力層を含み得る。RNNユニットは、少なくとも1つの隠れRNN層を含み得る。RNNユニットは、長短期記憶RNNユニットを含み得る。RNNユニットは、通常のRNNユニットを含み得る。RNNユニットは、ゲートリカレントユニットを含み得る。
【0007】
第1のタイプの外部データは、時不変データを含み得る。第2のタイプの外部データは、時変データを含み得る。
【0008】
ニューラルネットワークは、MPL出力とRNN出力を組み合わせて残差出力を生成するように構成される。1つまたはそれ以上の時系列予測は、その残差出力に少なくとも部分的に基づいて生成される。1つまたはそれ以上の時系列予測は、薬物の用量の投与後の時間の関数としての、血漿中の薬物の濃度値を含み得る。
【0009】
本開示の少なくとも1つの他の態様では、1つの方法が提供される。方法は、多層パーセプトロン(MLP)によって、第1のタイプの外部データを受けることを含む。方法は、MLPによって、第1のタイプの外部データを処理してMLP出力を生成することを含む。方法は、リカレントニューラルネットワーク(RNN)ユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを受けることを含む。方法は、RNNユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを処理してRNN出力を生成することを含む。方法は、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成することを含む。
【0010】
第1のタイプの外部データは時不変データを含み得る。第2のタイプの外部データは時変データを含み得る。
【0011】
方法は、MPL出力とRNN出力を組み合わせて残差出力を生成することをさらに含み得る。1つまたはそれ以上の時系列予測は、残差出力に少なくとも部分的に基づいて生成される。1つまたはそれ以上の時系列予測は、薬物の用量の投与後の時間の関数としての、血漿中の薬物の濃度値を含み得る。
【0012】
RNNユニットは長短期記憶RNNユニットを含み得る。RNNユニットは通常のRNNユニットを含み得る。RNNユニットはゲートリカレントユニットを含み得る。
【0013】
本開示の実施形態は、以下の利点のうちの1つまたはそれ以上を含み得る。記載されたニューラルネットワークは、リカレントニューラルネットワークおよび畳み込みニューラルネットワークなどの従来のニューラルネットワークと比較して、時変データおよび時不変データを計算的に効率のよい方法で処理して、正確な時系列予測を生成することができる。特定のニューラルネットワーク層の出力は、連続するニューラルネットワーク層の出力と組み合わされて、従来のニューラルネットワークと比較して予測精度が高まる。従来のニューラルネットワークと比較した場合に、記載されたニューラルネットワークは、時変データと時不変データの間の関係と、この関係が、結果として得られる時系列予測にどれだけ影響を及ぼすかとをより適切に捉えることができる。
【0014】
上記およびその他の態様、構成、および実施形態は、方法、装置、システム、構成要素、プログラム製品、機能を実行するための手段またはステップとして表現され、さらに他の方法で表現される。
【0015】
上記およびその他の態様、構成、および実施形態は、特許請求の範囲を含む以下の説明から明らかになろう。
【図面の簡単な説明】
【0016】
図1】本開示の1つまたはそれ以上の実施形態による、残差セミリカレントニューラルネットワークを描写する図である。
図2A】本開示の1つまたはそれ以上の実施形態による、リカレントニューラルネットワークユニットを描写する図である。
図2B】本開示の1つまたはそれ以上の実施形態による、展開されたリカレントニューラルネットワークユニットを描写する図である。
図3】本開示の1つまたはそれ以上の実施形態による、残余セミリカレントニューラルネットワークのアーキテクチャを描写する図である。
図4】本開示の1つまたはそれ以上の実施形態による、時変データおよび時不変データを使用して1つまたはそれ以上の時系列予測を生成するための方法を描写するフローチャートである。
【発明を実施するための形態】
【0017】
いくつかの外部データに基づいて将来の結果を予測する予測モデルとして、人工ニューラルネットワーク(ANN)を使用することがより一般的になってきている。たとえば、薬物動態(Pk)モデリングは、薬剤開発の重要なステップであり、薬剤が人体とどのように相互作用するか(たとえば、薬剤の吸収、分布、代謝、および排泄の時間経過)をモデル化する。薬物動態モデリングのいくつかの手法では、患者のベースライン特性(たとえば、年齢、性別)などの時不変データと、患者の薬物用量レベルなどの時変データとを用いて、ある時間間隔にわたって血漿中の薬物濃度を示すPk曲線を生成する。従来、薬物と人体との相互作用をモデル化するには、流体力学の分野から借用した微分方程式が用いられていた。微分方程式は、ある薬物用量を受けた後に体内で起こる、基礎となる物理的なプロセスを記述するには有用であり得るが、患者間の不均一性をすべて考慮しているわけではないことがある。したがって、これらの微分方程式を用いて得られた個々の患者についての予測が不正確なことがあるのに対し、母集団レベルでの予測は正確なことがある。
【0018】
薬物動態モデリングの予測精度を向上させるための一般的な手法は通常、フィードフォワードニューラルネットワーク(たとえば、畳み込みニューラルネットワーク)を使用することである。しかし、従来の微分方程式手法と比較して予測精度が向上するとはいえ、フィードフォワードニューラルネットワークは、同一人物の複数の時点における薬物動態測定値間の相関関係を明らかにできないことがある。この理由は、従来のフィードフォワードネットワークは通常、情報を一方向に(たとえば、入力層から隠れた層を経て出力層へ)処理するだけであり、したがって、フィードフォワードネットワークは、現在の入力だけを考慮し、時間的な順序の概念がないからである。
【0019】
リカレントニューラルネットワーク(RNN)は、時変データをより適切に処理することが示されている。その理由は、これらのニューラルネットワークは、時系列に沿った有向グラフを形成する連結部があるノードを含み、それによって、RNNが内部メモリを使用して入力列を処理することが可能になるからである。しかし、従来のRNNを使用して時不変データを処理する場合には、RNNは、時変データと同様の方法で時不変データを処理することがある。これにより、不要な重複データが大量に作成され、特に小さいサンプルサイズを使用する場合には、予測性能が低下することになり得る。したがって、従来の手法と比較して精度が向上している時間ベースの予測を生成するために、時不変データと時変データの両方を効率的に処理するように適用された人工ニューラルネットワークが望ましい。
【0020】
本開示は、従来のRNNおよびフィードフォワードネットワークと比較して予測精度が向上する効率的な方法で、時不変データと時変データの両方を処理するように構成された残差セミリカレントニューラルネットワークを提供する。残差セミリカレントニューラルネットワークは、時不変データを受ける、および処理するための多層パーセプトロン(MLP)を含む。残差セミリカレントニューラルネットワークはまた、時変データを処理するためのRNNユニットを含む。MLPおよびRNNユニットからの出力は、1つまたはそれ以上の時系列予測を生成するためにニューラルネットワークによって使用される。たとえば、Pkモデリングに使用される場合、患者のベースライン特性に関連するデータはMLPに提供され、順次的な時点に患者に投与された薬物の用量レベルに関連するデータ
はRNNに提供される。MLPの出力は、RNNの初期状態として使用される。RNNとMLPの出力はまた組み合わされて、患者の血漿中の薬物濃度と、薬物の単一用量が患者に投与された後の時間との関係を示すPk曲線が生成される。
【0021】
以下の記述では、説明を目的として、本開示についての完全な理解をもたらすように多数の具体的な詳細が示される。しかしながら、本開示は、これらの具体的な詳細がなくても実施できることが明らかであろう。他の例では、よく知られている構造およびデバイスは、本開示を不必要に不明瞭にしないようにするために、ブロック図の形で示される。
【0022】
図面では、デバイス、モジュール、命令ブロックおよびデータ要素を表すものなどの、概略的な要素の特定の配置または順序が、説明を容易にするために示されている。しかし、図面中の概略的要素の特定の順序または配置は、処理の特定の順序もしくはシーケンス、または処理の分離が必要であることを暗示するものではないことが当業者には理解されるはずである。さらに、図面に概略的な要素が含まれることは、そのような要素がすべての実施形態で必要であること、あるいはそのような要素によって表される構成が、いくつかの実施形態において他の要素に含まれない、または他の要素と組み合わされないことを暗示するものではない。
【0023】
さらに、図面で、実線もしくは破線または矢印などの連結要素が、2つ以上の他の概略要素間の連結、関係、または関連を説明するために使用されている場合、そのような連結要素がないことは、連結、関係、または関連が存在できないことを暗示するものではない。言い換えると、要素間のいくつかの連結、関係、または関連は、開示内容を不明瞭にしないようにするために、図面に示されていない。加えて、図示しやすくするために、単一の連結要素が、要素間の複数の連結、関係、または関連を表すのに用いられる。たとえば、連結要素が信号、データ、または命令の通信を表す場合、このような要素は、必要とされる、通信に影響を与えるための1つまたはそれ以上の信号経路(たとえば、バス)を表すことが当業者には理解されるはずである。
【0024】
次に、添付の図面に例が示されている実施形態を詳細に参照する。以下の詳細な説明では、記載された様々な実施形態の完全な理解をもたらすために、多数の具体的な詳細が示される。しかし、記載された様々な実施形態は、これらの具体的な詳細がなくても実施できることが当業者には明らかであろう。他の例では、よく知られている方法、手順、構成要素、回路、およびネットワークは、実施形態の態様を不必要に不明瞭にしないようにするために、詳細に説明されていない。
【0025】
以下に、それぞれが互いに独立して、または他の構成の任意の組み合わせとともに使用できる、いくつかの機能について説明する。しかし、どの個々の構成も、上で論じた問題のどれにも対処しない、または、上で論じた問題の1つにしか対処しないことがある。上で論じた問題のいくつかは、本明細書に記載された構成のいずれによっても完全には解決されないことがある。見出しが設けられていても、ある特定の見出しに関連するデータが、その見出しを持つセクションで見つからなくて本明細書のどこか他の場所で見つかることもある。
【0026】
本明細書では、所与のニューラルネットワーク層/ユニットと関連して使用されるプロセス(処理すること、複数のプロセスなど)という用語は、所与のニューラルネットワーク層/ユニットに含まれるニューロンのそれぞれに対応する学習された重み関数/活性化関数を入力データに適用して各ニューロンに出力を生成する、知られているニューラルネットワークプロセスを指す。当技術分野で知られているように、学習された重み関数/活性化関数は、ニューラルネットワークに学習させるための訓練データセットを使用して、データセットのいくつかの特徴をいくつかの結果と関連付けることによって調整/チュー
ニングされる。
【0027】
システム概観:
図1は、本開示の1つまたはそれ以上の実施形態による、残差セミリカレントニューラルネットワーク100を描写する図を示す。残差セミリカレントニューラルネットワーク(RSNN 100)は、MLP 110およびRNNユニット120を含む。MLP 110は、入力層111、隠れ層112、および出力層113を含む。RNNユニット120は、隠れRNN層122、および出力RNN層123を含む。MLP 110は、RNNユニット120に通信可能に連結されている。
【0028】
MLP 110の入力層111は、第1の入力ニューロン111aおよび第2の入力ニューロン111bを含む。MLP 110の隠れ層112は、第1の隠れニューロン112a、第2の隠れニューロン112b、および第3の隠れニューロン112cを含む。MLP 110の出力層113は、第1の出力ニューロン113a、および第2の出力ニューロン113bを含む。MLP 110の層111、112、113は完全に連結されており、このことは、所与の層の各ニューロンが、次に続く層のすべてのニューロンに連結されていることを意味する。たとえば、第1の出力ニューロン113aは、第1の隠れニューロン112a、第2の隠れニューロン112b、および第3の隠れニューロン112cに連結されている。
【0029】
MLP 110は1つの隠れ層112を含むが、いくつかの実施形態では、MLP 110は、もっと多い隠れ層(たとえば、2つの隠れ層、3つの隠れ層など)を含む。層111、112、113のそれぞれは、図示された実施形態に示されたニューロンの数よりも多いまたは少ないニューロンを含むことができる。
【0030】
入力層111は、時不変データを受け、その時不変データを隠れ層112へ送るように構成される。時不変データの例としては、患者の年齢および/または性別などの、1人またはそれ以上の患者のベースライン特性に関連する値を挙げることができる。隠れ層112の隠れノード112a、112b、112cのそれぞれは、時不変データを受け、この時不変データを処理して出力を生成する。隠れ層112の隠れノード112a、112b、112cのそれぞれの出力は、出力ノード113a、113bのそれぞれへ送られる。出力ノード113a、113bは、受けた出力をその活性化関数を用いて処理して、MLP出力を生成する。
【0031】
MLP 110は、MLP出力をRNNユニット120へ送る。MLP出力は、隠れRNN層122で受けられる。こうしてMLP出力は、RNNユニット120の初期状態として用いられる。隠れRNN層122はまた、時変入力データを受けるように構成される。図3を参照して後でより詳細に説明するように、RNNユニット120は、MLP 110からのMLP出力を初期状態として使用しながら、受けた時変データを順次に処理して、1つまたはそれ以上の時系列予測を生成するように構成される。たとえば、MLP出力は、患者のベースライン特性に関連する入力データを処理することにより得られ、時変データは、患者に注入された薬物の一連の累積量とすることができる。この例では、RNNユニットの出力(時系列予測)は、Pk曲線とすることができる。いくつかの実施形態では、RSNN 100は、MLP 110の出力をRNNユニット120の出力に加えて時系列予測を生成するように構成される。
【0032】
RNNユニット120は、1つの隠れ層122を有するものとして示されているが、いくつかの実施形態では、追加の隠れRNN層を有する。この例では、MLP 110は、その出力を追加の隠れRNN層のうちの1つまたはそれ以上に提供するように構成される。いくつかの実施形態では、RSNN 100は、MLP 110とRNNユニット12
0の間に追加の完全連結層を含む。これらの例では、MLP 110は、その出力を追加の完全連結層のうちの1つまたはそれ以上に提供するように構成される。追加の隠れRNN層および完全連結層の総計は、処理ニーズ、効率要因、ならびに処理されるデータのタイプおよび量などの実際的な考慮事項に基づく。
【0033】
図2Aは、本開示の1つまたはそれ以上の実施形態による、RNNユニット200を描写する図を示す。RNNユニット200は、入力RNN層210、隠れRNN層211、および出力RNN層212を含む。入力RNN層210は、第1のRNN入力ニューロン210a、第2のRNN入力ニューロン210b、および第3のRNN入力ニューロン210cを含む。いくつかの実施形態では、入力RNN層210は、直前のMLPの出力層である。
【0034】
隠れRNN層211は、入力RNN層210からの出力を受けるように構成される。図1を参照して先に示したように、入力RNN層からの出力は、隠れRNN層211の初期状態として使用される。隠れRNN層211は、第1のリカレントニューロン211aおよび第2のリカレントニューロン211bを含む。RNN入力ニューロン210a、210b、210cのそれぞれは、リカレントニューロン211a、211bのそれぞれに連結されている。リカレントニューロン211a、211bのそれぞれは、第1の順次データ点を受け、この第1の順次データ点を処理して第1の出力を生成し、この第1の出力を使用して連続する順次データ点を処理するように構成される。たとえば、順次データ点が、患者に注入された薬物の累積量であると仮定する。第1の順次データ点は、第1の時間における累積量とすることができ、第2の順次データ点は、第1の時間の後に生じる第2の時間における累積量とすることができる。リカレントニューロン211a、211bは、第1の順次データ点を受け、この第1の順次データ点を処理して第1の出力を生成し、この第1の出力からの情報を用いて第2の順次データ点を処理する。
【0035】
RNN出力層212は、隠れ層211からの出力を受けるように構成される。RNN出力層212は、第1のRNN出力ニューロン212a、第2のRNN出力ニューロン212b、第3のRNN出力ニューロン212c、および第4のRNN出力ニューロン212dを含む。RNN出力ニューロン212a、212b、212c、212dのそれぞれは、リカレントニューロン211a、211bのそれぞれに連結されている。
【0036】
図2Bは、本開示の1つまたはそれ以上の実施形態による、展開されたリカレントニューラルネットワークユニット300を描写する図を示す。図示のように、隠れRNN層321は、第1の順次入力310aを受け、これを処理して第1の出力(S1)を生成するように構成される。隠れRNN層321はまた、第1の順次入力310aに続く第2の順次入力310bを受けるようにも構成される。隠れRNN層321は、第1の順次入力310aと関連する出力(S1)を用いて第2の順次入力310bを処理して、第2の出力(S2)を生成する。同様に、隠れRNN層321は、第2の出力(S2)を用いて第2の順次入力310bに続く第3の順次入力310cを処理して、第3の出力(S3)を生成するように構成される。
【0037】
図3は、本開示の1つまたはそれ以上の実施形態による、RSNN 400のアーキテクチャを描写する図である。RSNN 400は、MLP410および隠れRNN層422を含む。MLP 410は、時不変入力410を受けるように構成される。たとえば、時不変入力410は、年齢、性別などの患者ベースライン特性に対応し得る。MLP 410は、不変入力410を処理してMLP出力(S0)を生成し、このMLP出力は、隠れRNN層422の初期状態として使用される。隠れRNN層422は、第1の順次入力420aを受け、MLP出力(S0)を用いて第1の順次入力420aを処理して、第1のRNN出力(S1)を生成する。隠れRNN層422は、次に、第2の順次入力420
bを受け、第1のRNN出力(S1)を用いて第2の順次入力420bを処理して、第2のRNN出力(S2)を生成する。次に、隠れRNN層422は、第3の順次入力420cを受け、第2のRNN出力(S2)を用いて第3の順次入力420cを処理して、第3のRNN出力(S3)を生成する。次いで、MLP出力(S0)は、第3のRNN出力(S3)に加算430されて、時系列予測440が生成される。いくつかの実施形態では、順次入力は、所与の時間に注入された薬物の累積量に対応する。いくつかの実施形態では、時系列予測440はPk曲線である。
【0038】
図示され上述されたRNNユニットは通常のRNNユニットであるが、他のタイプのRNNユニットが使用されてもよい。いくつかの実施形態では、長短期記憶(LSTM)RNNユニットが使用される。LSTM RNNユニットとは、セル、入力ゲート、出力ゲート、および忘却ゲートを含むRNNユニットのことをいう。セルは、任意の時間間隔にわたって値を記憶し、3つのゲートは情報の流れを制御する。LSTM RNNユニットは、従来のRNNを訓練するときに場合によっては遭遇することが知られている、消失勾配問題の影響を最小限にすることができる。いくつかの実施形態では、ゲート付きリカレントユニット(GRU)がRNNユニットとして使用される。GRUは忘却ゲートを持つLSTMであるが、出力ゲートが欠如しているので、パラメータがLSTMよりも少ない。LSTMと比較して、GRUは、比較的小さいデータセットを扱う場合に、より優れた予測性能を示すことが明らかになっている。
【0039】
図4は、本開示の1つまたはそれ以上の実施形態による、時変データおよび時不変データを使用して1つまたはそれ以上の時系列予測を生成するための方法500を描写するフローチャートである。方法500は、MLPによって、第1のタイプの外部データを受けること(ブロック502);MLPによって、第1のタイプの外部データを処理してMLP出力を生成すること(ブロック504);RNNユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを受けること(ブロック506);RNNユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを処理してRNN出力を生成すること(ブロック508);ならびに、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成することを含む。
【0040】
ブロック502で、RSNNのMLPは、第1のタイプの外部データを受ける。いくつかの実施形態では、第1のタイプの外部データは時不変データである。たとえば、時不変データは、ベースライン患者特性とすることができる。
【0041】
ブロック504で、MLPは、第1のタイプの外部データを処理して、図1に関して先に説明したMLP出力を生成する。
【0042】
ブロック506で、MLPのRNNユニットは、MLP出力の少なくとも一部分をMLPから受ける。RNNユニットはまた、第2のタイプの外部データを受ける。いくつかの実施形態では、第2のタイプの外部データは時変データである。たとえば、時変データは、患者に注入された薬物の一連の累積量とすることができる。
【0043】
ブロック508で、RNNユニットは、MLP出力のうちの受けられた部分を第2のタイプの外部データとともに処理して、図3に関して先に説明したRNN出力を生成する。
【0044】
ブロック510で、RSNNは、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成する。いくつかの実施形態では、RSNNは、RNN出力とMLP出力を組み合わせて1つまたはそれ以上の時系列予測を生成する。時系列予測は、たとえばPk曲線とすることができる。
【0045】
RSNNを訓練する例示的な方法:
次に、薬物動態モデリングのためにRSNNを訓練する例示的な方法について説明する。RSNNは、薬物動態モデル
【数1】
として出力と入力の対の
【数2】
を用いて訓練および検証され、ここで、
【数3】
はモデルへの入力である。変数xは、i番目の患者のp個のベースライン特性を表すp次元のベクトルであり、dは、i番目の患者に割り当てられた実際の用量レベルの時間系列である。変数yは、モデルからの出力、すなわち、i番目の患者の観測された薬物動態学的濃度の時間系列を表す。このモデルは、訓練セットの患者を用いて繰り返し訓練される。訓練過程中、モデルは、その生成された予測値cをグランドトゥルースデータcと比較し、それに応じてその重みを更新する。
【0046】
モデルが、所与のインスタンスiに対する訓練された
【数4】
であるとき、この一連の入力は、
【数5】
および
【数6】
をそれぞれ含み、ここで、
【数7】
は、時不変のベースライン特性であるので経時的に変化しない。
【0047】
ベースライン特性は、RSNNの多層パーセプトロン(MLP)に提供される。この場合、MLPの出力は、RSNNの従来のRNNユニットの初期状態として使用される。時変データ(たとえば、ある患者に割り当てられた用量レベル、および所与の時間)は、従来のRNNユニットに提供される。時不変入力は、時変入力よりもPkモデルに対して影響力を持つ可能性があるため、時不変入力を処理するために使用されるMLPと、リカレント層の最上部に積み重ねられた完全連結層との間にショートカット連結が実施される。このショートカットは、時不変入力に含まれる情報をRNNユニットの最終出力に直接伝える手段を提供する。
【0048】
数学的に、RSNNは次のように定義される。所与のインスタンスi、時変入力x
および一連の時変入力
【数8】
に対して、一連の出力
【数9】
は、
【数10】
によって得られ、ここで、最初の式(1)は、MLPの完全連結層を定義している。パラメータ
【数11】
は、訓練予定のパラメータである。
【0049】
薬物動態をモデル化するには、zit=ditの関係が用いられる。同様に、MLPは、複数の完全連結層を含み得る。加えて、RNNユニットに複数のリカレント層がある場合には、最初のリカレント層だけの初期状態、最後のリカレント層だけの初期状態、またはすべてのリカレント層の初期状態がMLPの出力になり得る。加えて、リカレント層の最上部に複数の完全連結層が積み重なっている場合には、MLPの出力は、最初の完全連結層だけ、最後の完全連結層だけ、またはすべての完全連結層に提供される。これらの異なる設計決定事項は、ハイパーパラメータと考えられる。
【0050】
実験結果:
65人の患者から成るデータセットが、ゲート付きリカレントニューラルネットワーク(GRU)をRNNユニットとして使用した例示的なRSNNに提供された。患者ごとに、一連の観察されたPK値(y)、年齢および性別の2つのベースライン特性(x)、ならびに注入された薬物の一連の累積量(d)が用いられた。データセットのRSNNの各時点における入力と出力を連結するためにGRUが用いられ、訓練セットおよび妥当性検査セットの結果(たとえば、Pk曲線)がフィットされた。
【0051】
RSNNモデルは、訓練セットに見られた非常に高いピークがある2つのPK曲線を含めて、妥当性検査セットのすべてのPK曲線に正確にフィットした。このことは、RSNNが、PK値と注入された薬物の累積量との間の複雑な非線形関係をベースライン特性と同様に捕捉できることを示した。
【0052】
上述の説明において、本開示の諸実施形態は、実施形態ごとに異なり得る多数の特定の細部に関して説明された。したがって、本明細書および図面は、限定的な意味ではなく、
例示的なものとしてみなされるべきである。本開示の範囲と、本出願人らが本開示の範囲であるとするものとを唯一かつ排他的に示すものは、本出願に由来する請求項の組の、その後の任意の修正を含むそのような請求項に由来する特定の形式での、文字通りの、かつ同等の範囲である。このような特許請求の範囲に含まれる用語について本明細書に明示されているあらゆる定義が、請求項に使用されるそのような用語の意味を規定するものとする。加えて、前述の説明または以下の特許請求の範囲で「さらに含む」という用語が使用される場合、この語句の後に続くものは、追加のステップもしくはエンティティ、または以前に引用されたステップもしくはエンティティのサブステップ/サブエンティティであり得る。
図1
図2A
図2B
図3
図4
【手続補正書】
【提出日】2024-07-25
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
1つまたは複数のコンピュータによって実行される方法であって、前記方法は:
対象を特徴づけるデータを受信することと:
対象を特徴づける1つまたは複数の予測を生成するように、対象を特徴づけるデータを処理することを含み、
対象を特徴づけるデータは:
(i)一連の時点における各時点についての対象のそれぞれの時変特徴を含む対象の一連の時変特徴と;
(ii)一連の時点における各時点について同じである、対象の時不変特徴のセットを含み、
対象を特徴づけるデータを処理することは:
対象の時不変特徴のセットの符号化表現を生成するために、多層パーセプトロンを使用して対象の時不変特徴のセットを処理することと;
対象の時不変特徴のセットの符号化表現に基づいてリカレントニューラルネットワークの隠れ状態を初期化することと;
対象の時不変特徴のセットの符号化表現に基づいてリカレントニューラルネットワークの隠れ状態を初期化した後、対象を特徴付ける1つまたは複数の予測を生成するためにリカレントニューラルネットワークを使用して対象の一連の時変特徴を処理することを含み、
一連の時点における各時点について、その時点についての対象の時変特徴およびリカレントニューラルの隠れ状態を処理して、リカレントニューラルネットワークの隠れ状態を更新することと;
一連の時点の1つまたは複数の時点の各々について、対象を特徴付けるそれぞれの予測を生成するために、リカレントニューラルネットワークの出力層を使用してその時点におけるリカレントニューラルネットワークの隠れ状態を処理することを含む、
前記方法。
【請求項2】
一連の時点における各時点について、その時点についての対象の時変特徴は、その時点において対象に投与される薬物の投与量レベルを特徴付ける、請求項1に記載の方法。
【請求項3】
一連の時点における各時点について、その時点についての対象の時変特徴が、その時点において対象に投与された薬物の累積投薬量を特徴付ける、請求項2に記載の方法。
【請求項4】
一連の時点は、第1の時点及び第2の時点を含み、対象の時変特徴は、第1の時点における第1の値と、第2の時点における第2の異なる値とを有する、請求項1に記載の方法。
【請求項5】
対象を特徴付ける1つまたは複数の予測が、一連の時点における各時点について、その時点における対象の血漿中の薬物の予測濃度値を含む、請求項1に記載の方法。
【請求項6】
一連の時点における各時点について、その時点における対象の血漿中の薬物の予測濃度値を生成することは、その時点における対象の血漿中の薬物の予測濃度値を生成するために、リカレントニューラルネットワークの出力層を使用して、その時点におけるリカレントニューラルネットワークの隠れ状態を処理することを含む、請求項5に記載の方法。
【請求項7】
対象の時不変特徴のセットの符号化表現に基づいて、リカレントニューラルネットワークの隠れ状態を初期化することは、対象の時不変特徴のセットの符号化表現に等しいリカレントニューラルネットワークの隠れ状態を設定することを含む、請求項1に記載の方法。
【請求項8】
対象の時不変特徴のセットは、対象の年齢を特徴付ける特徴を含む、請求項1に記載の方法。
【請求項9】
対象の時不変特徴のセットは、対象の性別を特徴付ける特徴を含む、請求項1に記載の方法。
【請求項10】
多層パーセプトロンが複数の隠れ層を含む、請求項1に記載の方法。
【請求項11】
一連の時点の最後の時点において、対象を特徴付けるそれぞれの予測を生成するために、リカレントニューラルネットワークの出力層を使用して、その時点におけるリカレントニューラルネットワークの隠れ状態を処理することが、対象を特徴付けるそれぞれの予測を生成するために、リカレントニューラルネットワークの出力層を使用して、その時点におけるリカレントニューラルネットワークの隠れ状態と対象の時不変特徴のセットの符号化表現の両方を処理することを含む、請求項1に記載の方法。
【請求項12】
対象を特徴付けるそれぞれの予測を生成するために、リカレントニューラルネットワークの出力層を使用して、その時点におけるリカレントニューラルネットワークの隠れ状態および対象の時不変特徴のセットの符号化表現の両方を処理することが、その時点におけるリカレントニューラルネットワークの隠れ状態および対象の時不変特徴のセットの符号化表現を合計することを含む、請求項11に記載の方法。
【請求項13】
リカレントニューラルネットワークは、長・短期記憶ニューラルネットワーク層を含む、請求項1に記載の方法。
【請求項14】
リカレントニューラルネットワークは、ゲート付きリカレントユニットニューラルネットワーク層を含む、請求項1に記載の方法。
【請求項15】
システムであって:
1つまたは複数のコンピュータと;
1つまたは複数のコンピュータに通信可能に接続された1つまたは複数の記憶装置を含み、1つまたは複数の記憶装置は、命令を記憶し、命令は、1つまたは複数のコンピュータによって実行されると、1つまたは複数のコンピュータに、以下の操作を実行させることを含み、
対象を特徴づけるデータを受信することと:
対象を特徴づける1つまたは複数の予測を生成するように、対象を特徴づけるデータを処理することを含み、
対象を特徴づけるデータは:
(i)一連の時点における各時点についての対象のそれぞれの時変特徴を含む対象の一連の時変特徴と;
(ii)一連の時点における各時点について同じである、対象の時不変特徴のセットを含み、
対象を特徴づけるデータを処理することは:
対象の時不変特徴のセットの符号化表現を生成するために、多層パーセプトロンを使用して対象の時不変特徴のセットを処理することと;
対象の時不変特徴のセットの符号化表現に基づいてリカレントニューラルネットワークの隠れ状態を初期化することと;
対象の時不変特徴のセットの符号化表現に基づいてリカレントニューラルネットワークの隠れ状態を初期化した後、対象を特徴付ける1つまたは複数の予測を生成するためにリカレントニューラルネットワークを使用して対象の一連の時変特徴を処理することを含み、
一連の時点における各時点について、時点についての対象の時変特徴およびリカレントニューラルの隠れ状態を処理して、リカレントニューラルネットワークの隠れ状態を更新することと;
一連の時点の1つまたは複数の時点の各々について、対象を特徴付けるそれぞれの予測を生成するために、リカレントニューラルネットワークの出力層を使用して時点におけるリカレントニューラルネットワークの隠れ状態を処理することを含む、
前記システム。
【請求項16】
1つまたは複数のコンピュータによって実行されると、1つまたは複数のコンピュータに動作を実行させる命令を記憶する1つまたは複数の非一時的コンピュータ記録媒体であって:
以下の命令を含み、
対象を特徴づけるデータを受信することと:
対象を特徴づける1つまたは複数の予測を生成するように、対象を特徴づけるデータを処理することを含み、
対象を特徴づけるデータは:
(i)一連の時点における各時点についての対象のそれぞれの時変特徴を含む対象の一連の時変特徴と;
(ii)一連の時点における各時点について同じである、対象の時不変特徴のセットを含み、
対象を特徴づけるデータを処理することは:
対象の時不変特徴のセットの符号化表現を生成するために、多層パーセプトロンを使用して対象の時不変特徴のセットを処理することと;
対象の時不変特徴のセットの符号化表現に基づいてリカレントニューラルネットワークの隠れ状態を初期化することと;
対象の時不変特徴のセットの符号化表現に基づいてリカレントニューラルネットワークの隠れ状態を初期化した後、対象を特徴付ける1つまたは複数の予測を生成するためにリカレントニューラルネットワークを使用して対象の一連の時変特徴を処理することを含み、
一連の時点における各時点について、時点についての対象の時変特徴およびリカレントニューラルの隠れ状態を処理して、リカレントニューラルネットワークの隠れ状態
を更新することと;
一連の時点の1つまたは複数の時点の各々について、対象を特徴付けるそれぞれの予測を生成するために、リカレントニューラルネットワークの出力層を使用して時点におけるリカレントニューラルネットワークの隠れ状態を処理することを含む、
前記1つまたは複数の非一時的コンピュータ記録媒体。
【請求項17】
一連の時点における各時点について、その時点についての対象の時変特徴は、その時点で対象に投与される薬物の投与量レベルを特徴付ける、請求項16に記載の非一時的コンピュータ記憶媒体。
【請求項18】
一連の時点における各時点について、その時点についての対象の時変特徴は、その時点で対象に投与された薬物の累積投薬量を特徴付ける、請求項17に記載の非一時的コンピュータ記憶媒体。
【請求項19】
一連の時点は、第1の時点及び第2の時点を含み、対象の時変特徴は、第1の時点における第1の値と、第2の時点における第2の異なる値とを有する、請求項16に記載の非一時的コンピュータ記憶媒体。
【請求項20】
対象を特徴付ける1つまたは複数の予測は、一連の時点における各時点について、その時点における対象の血漿中の薬物の予測濃度値を含む、請求項16に記載の非一時的コンピュータ記憶媒体。



【外国語明細書】