(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024009773
(43)【公開日】2024-01-23
(54)【発明の名称】深層学習モデル生成装置、及び蓄電池の特性値算出装置
(51)【国際特許分類】
G06N 3/0985 20230101AFI20240116BHJP
G06N 3/09 20230101ALI20240116BHJP
G01R 31/367 20190101ALI20240116BHJP
G01R 31/392 20190101ALI20240116BHJP
G01R 31/382 20190101ALI20240116BHJP
G01R 31/396 20190101ALI20240116BHJP
H01M 10/48 20060101ALI20240116BHJP
【FI】
G06N3/0985
G06N3/09
G01R31/367
G01R31/392
G01R31/382
G01R31/396
H01M10/48 P
【審査請求】有
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2023108047
(22)【出願日】2023-06-30
(31)【優先権主張番号】PCT/JP2022/027226
(32)【優先日】2022-07-11
(33)【優先権主張国・地域又は機関】WO
(71)【出願人】
【識別番号】523115483
【氏名又は名称】恒林日本株式会社
(74)【代理人】
【識別番号】110000626
【氏名又は名称】弁理士法人英知国際特許商標事務所
(72)【発明者】
【氏名】陳 九廷
(72)【発明者】
【氏名】連 源
(72)【発明者】
【氏名】黄 天奇
(72)【発明者】
【氏名】崔 鍾一
(72)【発明者】
【氏名】▲呉▼ 昊
【テーマコード(参考)】
2G216
5H030
【Fターム(参考)】
2G216BA07
2G216BA17
2G216BA29
2G216BA34
2G216BA44
2G216BB01
2G216CB11
2G216CB34
2G216CB51
5H030AS20
5H030FF22
5H030FF41
5H030FF42
5H030FF43
5H030FF44
5H030FF52
(57)【要約】
【課題】
正解率向上を効率的に行える深層学習モデル生成装置を提供することを目的とする。
【解決手段】
特徴量を算出するための深層学習モデル生成装置であって、当該特徴量に関する複数の諸元であり、かつ、測定により直接的に又は間接的に求められた訓練用測定データを入力値として、訓練用の特徴量を目標値とした訓練データを複数取得する訓練データ取得部と、前記複数の訓練データを機械学習することにより、処理対象となる複数の諸元を含む算出用測定データから当該対象の特徴量を算出するための深層学習モデルを生成する深層学習モデル生成部と、を備え、前記深層学習モデルの一つ以上の隠れ層の各々には、一種類以上のパラメータ学習モデルが用意されており、前記パラメータ学習モデルから得られた最適解が前記深層学習モデルに入力されることにより、課題を解決した。
【選択図】
図6
【特許請求の範囲】
【請求項1】
特徴量を算出するための深層学習モデル生成装置であって、
当該特徴量に関する複数の諸元であり、かつ、測定により直接的に又は間接的に求められた訓練用測定データを入力値として、訓練用の特徴量を目標値とした訓練データを複数取得する訓練データ取得部と、
前記複数の訓練データを機械学習することにより、処理対象となる複数の諸元を含む算出用測定データから当該対象の特徴量を算出するための深層学習モデルを生成する深層学習モデル生成部と、を備え、
前記深層学習モデルの一つ以上の隠れ層の各々には、一種類以上のパラメータ学習モデルが用意されており、前記パラメータ学習モデルから得られた最適解が前記深層学習モデルに入力される
ことを特徴とする深層学習モデル生成装置。
【請求項2】
前記深層学習モデルは、複数の前記特徴量に関する前記訓練データを用いて生成される
ことを特徴とする請求項1に記載の深層学習モデル生成装置。
【請求項3】
前記最適解は、前記深層学習モデルのハイパーパラメータとして入力される
ことを特徴とする請求項2に記載の深層学習モデル生成装置。
【請求項4】
前記最適解は、上位の隠れ層に配置されたパラメータ学習モデルの出力として得られるものであって、当該出力が下位の隠れ層に配置されたパラメータ学習モデルの入力値または前記深層学習モデルの入力値として入力されるものであり、
最上位の隠れ層に配置されたパラメータ学習モデルへの入力値として、一部ランダムな値が用いられる
ことを特徴とする請求項2に記載の深層学習モデル生成装置。
【請求項5】
前記特徴量は、物理量である
ことを特徴とする請求項1~4の何れか一項に記載の深層学習モデル生成装置。
【請求項6】
前記特徴量は、蓄電池の所定特性値である
ことを特徴とする請求項1~4の何れか一項に記載の深層学習モデル生成装置。
【請求項7】
前記特徴量は、人間が認識する画像である
ことを特徴とする請求項1~4の何れか一項に記載の深層学習モデル生成装置。
【請求項8】
前記特徴量は、人間が認識する自然言語である
ことを特徴とする請求項1~4の何れか一項に記載の深層学習モデル生成装置。
【請求項9】
前記蓄電池の所定特性値は、SOC(State of Charge),SOH(State of Health),SOR(State of Resistance),SOP(State of Power),SOT(State of Temperature),SOS(State of Safety),OCV(Open Circuit Voltage)の少なくとも一を含むものである
ことを特徴とする請求項6に記載の深層学習モデル生成装置。
【請求項10】
蓄電池の所定特性値算出装置であって、
蓄電池の複数の物理量であり、かつ、測定により直接的に又は間接的に求められた訓練用測定データを入力値として、当該蓄電池の所定特性値である訓練用特性値を目標値とした訓練データを複数機械学習することにより生成された深層学習モデルを記憶部に記憶させる記憶処理部と、
処理対象となる対象蓄電池の複数の物理量を含む算出用測定データを取得し、当該算出用測定データを前記深層学習モデルに入力することにより、前記対象蓄電池の所定特性値を算出する算出部と、を備え、
前記深層学習モデルの一つ以上の隠れ層の各々には、一種類以上のパラメータ学習モデルが導入され、前記パラメータ学習モデルから得られた最適解が前記深層学習モデルに入力される
ことを特徴とする蓄電池の所定特性値算出装置。
【請求項11】
前記記憶処理部は、外部の装置から繰り返し前記深層学習モデルを更新するためのデータを取得し、当該データを用いて前記記憶部に記憶されている前記深層学習モデルを更新する
ことを特徴とする請求項10に記載の蓄電池の所定特性値算出装置。
【請求項12】
少なくとも一つの前記算出用測定データと、前記算出用測定データを測定したときに算出された前記対象蓄電池の所定特性値のデータとを、前記訓練データとして前記外部の装置に送信するデータ送信部をさらに備える
ことを特徴とする請求項10に記載の蓄電池の所定特性値算出装置。
【請求項13】
前記蓄電池の所定特性値は、SOC(State of Charge),SOH(State of Health),SOR(State of Resistance),SOP(State of Power),SOT(State of Temperature),SOS(State of Safety),OCV(Open Circuit Voltage)の少なくとも一を含むものである
ことを特徴とする請求項10または11に記載の蓄電池の所定特性値算出装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、深層学習モデル生成装置、及び、当該生成された深層学習モデルを用いた蓄電池の特性値算出装置に関する。
【背景技術】
【0002】
ニューラルネットワークなどの機械学習、深層学習により強化されるモデルを生成し、このモデルを用いて各種の分析、解析を行うことが、近年、注目されている。深層学習モデルの適用分野として、分類モデルの構築、画像分析、自然言語解析などが、よく挙げられるが、物理量の算出にも、深層学習モデルは用いられる。例えば、特許文献1及び2には、ニューラルネットワークなどの機械学習により強化されるモデルを生成し、このモデルを用いて蓄電池の残容量を算出することが記載されている。また、特許文献3には、第1時点における蓄電池の充電率(SOC:State of Charge)及び健全値(SOH:State of Health)を用いて、それより後の第2時点のSOHを推定することが記載されている。さらに、特許文献4には、第1時点における蓄電池のSOH、及び第1時点より後の第2時点の間の蓄電池の状態に係る時系列データを用いて、第2時点のSOHを推定することが記載されている。なお、蓄電池の用途としては、車両などの移動体の動力源として用いることや、余剰電力を一時的に蓄電するために用いることが想定される。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2007-240521号公報
【特許文献2】特開2008-232758号公報
【特許文献3】国際公開第2019/181728号
【特許文献4】国際公開第2019/181729号
【発明の概要】
【発明が解決しようとする課題】
【0004】
深層学習については、訓練データを与え、その後に訓練を続けていけば、精度はどんどん良くなっていくかのように誤解されがちであるが、実際はそうではない。学習効果により一定程度までは精度が高まるものの、その後には値が収束しなくなったり、場合によっては、値が大きく発散したりするようになる。精度を高めるためには、ハイパーパラメータと呼ばれる機械学習アルゴリズムの挙動を設定するパラメータを調整する必要がある。
図13は、従来の深層学習モデル(ニューラルネットワーク)を説明する概念図であり、左から、入力層、隠れ層(Hidden Layer)、出力層の順で並んでいる。ハイパーパラメータとは、ニューロンの重みやバイアスといった学習率(Learning Rate)とは異なり、学習アルゴリズムでは直接選択できないパラメータである。
図13において示される、a : 一層の Hidden Layer のニューロンの数、b : Hidden Layer の層の数、c : シグモイド関数、tanh関数、ランプ関数(ReLU: Rectified Liner Unit)といった活性化関数(Activation Function)の内容が、ハイパーパラメータであり、深層学習モデルの正解率を向上させるために、手動で調整される。この作業は、ハイパーパラメータチューニングとも呼ばれる。
AI技術を駆使する有名プラットフォーマー企業にあっても、バックヤードでは、多くの従業者(技術者)が、深層学習モデルのハイパーパラメータチューニングを、日夜、手動で行っているのが実情である。これには多くの人的コスト、経済的コストがかかる。それにも関わらず、作業者の主観により行われるチューニングの結果によっては、却って正解率が悪くなったりすることもある等、AIの学習効果が然程上がらず、抜本的な解決が望まれている。
【0005】
このような状況に鑑みて、本発明の目的は、深層学習モデルの正解率向上を効率的に行うことのできる深層学習モデル生成装置、特に、蓄電池のSOCやSOH等の特性値や、その他の物理量、特徴量の算出に適した深層学習モデル生成装置を提供すると共に、実際に、蓄電池のSOCやSOH等の特性値を算出することのできる算出装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明は、特徴量を算出するための深層学習モデル生成装置であって、当該特徴量に関する複数の諸元であり、かつ、測定により直接的に又は間接的に求められた訓練用測定データを入力値として、訓練用の特徴量を目標値とした訓練データを複数取得する訓練データ取得部と、前記複数の訓練データを機械学習することにより、処理対象となる複数の諸元を含む算出用測定データから当該対象の特徴量を算出するための深層学習モデルを生成する深層学習モデル生成部と、を備え、前記深層学習モデルの一つ以上の隠れ層の各々には、一種類以上のパラメータ学習モデルが用意されており、前記パラメータ学習モデルから得られた最適解が前記深層学習モデルに入力されることを特徴とする深層学習モデル生成装置により、前述の課題を解決した。
【0007】
ここで、特徴量とは、蓄電池の所定特性値等の物理量の他、人間が認識する画像や自然言語を含むものである。また、パラメータ学習モデルにおける「パラメータ」とは、典型的には、「ハイパーパラメータ」であるが、その他に、AIが上位AIと下位AIの多層から構成される場合の下位AIの「入力値」であってもよい。また、「蓄電池の所定特性値」における所定特性値とは、SOC(State of Charge),SOH(State of Health),SOR(State of Resistance),SOP(State of Power),SOT(State of Temperature),SOS(State of Safety),OCV(Open Circuit Voltage)の少なくとも一を含むものである。すなわち、算出対象は、一つであっても、複数であってもよい。
また、「蓄電池の所定特性値」を算出する場合の訓練用測定データとは、典型的な例としては、電流、電圧、温度等の測定により直接的に求められるものが挙げられるが、SOC(State of Charge),SOH(State of Health)等の間接的に求められるものであってもよい。換言すれば、蓄電池に関する様々な諸元が入力として与えられることもあれば、出力として得られることもある。特性値を入力として、別の特性値を出力とするモデルを構築することも可能であり、例えば、OCVを入力としてSOCを算出することも可能であるし、SOHを入力としてOCVを算出することも可能であり、どの組み合わせでも算出が可能である。当然に、(電池モジュールやパックなどの製品に組み立てた状態での)電圧やその他のデータを含む入力から、(セルを開放させた状態での)OCVを算出することも可能である。
【0008】
また、本発明は、蓄電池の所定特性値算出装置であって、蓄電池の複数の物理量であり、かつ、測定により直接的に又は間接的に求められた訓練用測定データを入力値として、当該蓄電池の所定特性値である訓練用特性値を目標値とした訓練データを複数機械学習することにより生成された深層学習モデルを記憶部に記憶させる記憶処理部と、処理対象となる対象蓄電池の複数の物理量を含む算出用測定データを取得し、当該算出用測定データを前記深層学習モデルに入力することにより、前記対象蓄電池の所定特性値を算出する算出部と、を備え、前記深層学習モデルの一つ以上の隠れ層の各々には、一種類以上のパラメータ学習モデルが導入され、前記パラメータ学習モデルから得られた最適解が前記深層学習モデルに入力されることを特徴とする蓄電池の所定特性値算出装置により、前述の課題を解決した。
【図面の簡単な説明】
【0009】
【
図1】実施形態に係るモデル生成装置及びSOC/SOH算出装置の使用環境を説明するための図である。
【
図2】モデル生成装置の機能構成の一例を示す図である。
【
図3】SOC/SOH算出装置の機能構成の一例を示す図である。
【
図4】モデル生成装置のハードウェア構成例を示す図である。
【
図5】モデル生成装置が行うモデルの生成処理の一例を示すフローチャートである。
【
図6】ハイパーパラメータの自動調整処理を説明する概念図である。
【
図7】上位AIが下位AIの入力値を与える処理を説明する概念図である。
【
図8】ハイパーパラメータの自動調整と下位AI入力値の自動調整を共に行う場合の処理を説明する概念図である。
【
図9】パラメータAIと目標AIの階層関係を示す説明図である。
【
図10】n層にx個のパラメータAIが存在する場合の階層関係を示す説明図である。
【
図11】パラメータAIを有するSOC算出モデル及びSOH算出モデルのトレーニング回数の実例を示すグラフである。
【
図12】パラメータAIを有する画像分析モデルのトレーニング回数の実例を示すグラフである。
【
図13】従来の深層学習モデル(ニューラルネットワーク)を説明する概念図である。
【発明を実施するための形態】
【0010】
以下、本発明の実施の形態について、蓄電池の所定特性値がSOC(State of Charge),SOH(State of Health)であるものとして、図面を用いて説明する。ただし、飽くまで、一例であって、所定特性値が、これ以外のもの、例えば、SOR(State of Resistance),SOP(State of Power),SOT(State of Temperature),SOS(State of Safety),OCV(Open Circuit Voltage)であっても良いことは言うまでもない。なお、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
【0011】
(使用環境)
図1は、実施形態に係る深層学習モデル生成装置(モデル生成装置10)及び蓄電池の所定特性値算出装置(SOC/SOH算出装置20)の使用環境を説明するための図である。モデル生成装置10及びSOC/SOH算出装置20は、蓄電池30と共に使用される。SOC/SOH算出装置20は、蓄電池30のBMS(Battery Management System)であってもよいし、蓄電池30のBMSとは別の装置であってもよい。
【0012】
蓄電池30は機器40に電力を供給する。本図に示す例において、SOC/SOH算出装置20及び蓄電池30は機器40の中に設けられている。一例として、機器40は、例えば、電動車両などの車両である。ただし、蓄電池30が家庭用の蓄電池の場合、機器40は家庭で用いられる電気機器となる。この場合、蓄電池30は機器40の外部に位置する。また、蓄電池30は、系統電力網に接続していてもよい。この場合、蓄電池30は、供給される電力を平準化するために用いられる。具体的には、機器40は、電力が余っている時には電力を蓄え、電力が不測している時には電力を供給する。
【0013】
SOC/SOH算出装置20は、蓄電池30のSOC及び/又はSOHを、モデルを用いて推定する。モデル生成装置10は、SOC/SOH算出装置20が用いる深層学習モデルを、機械学習、例えば、ニューラルネットワークを用いて生成し、かつ更新する。
【0014】
モデル生成装置10は、複数の蓄電池30から、蓄電池30の状態に関するデータの測定値(以下、実績データと記載)を複数取得する。当該複数の実績データの一部は、機械学習の訓練データとして用いられ、実績データの残りの少なくとも一部は、深層学習モデルを検証するために用いられる。
【0015】
実績データには、少なくとも、蓄電池30の電流、電圧、温度、充電率、及び蓄電池30が充放電回数αiからαj(j≧i)の間で充放電状態が変化したことを示す測定結果(以下、これらを纏めて「測定データ」という)が含まれており、蓄電池30とβ(β>αj)でのSOHデータが記憶されている。ここでの実績データは、ある測定データに対応する互いに異なるβを含むSOHデータを含んでいてもよい。換言すれば、実績データは、ある充放電回数での電流、電圧、温度などの測定データであり、その後の充放電回数に関連するSOHの変化を示すことができる。例えば、1つの実績データであって、充電放電回数がαiからαjまで(例えば、1≦αi≦10,1≦αj≦100)のときの測定データは、充放電回数がαj以降のβ1,β2,…βk(例えば、200,300,…)等の測定を含むSOHデータである。
【0016】
なお、実績データは、蓄電池30の種類(例えば、品名や型番)を特定する情報を含んでいるのが好ましい。このようにすると、モデル生成装置10は、蓄電池30の種類別に深層学習モデルを生成することができる。そしてSOC/SOH算出装置20は、当該SOC/SOH算出装置20が接続している蓄電池30の種類に対応する深層学習モデルをモデル生成装置10から取得し、使用することができる。したがって、SOC/SOH算出装置20による蓄電池30のSOC/SOHの推定精度は高くなる。
【0017】
実績データの少なくとも一部はデータ収集装置50から取得される。データ収集装置50は実績データを集める装置であり、複数の蓄電池30のそれぞれから実績データを取得する。データ収集装置50が管理している蓄電池30は、実績データを集めることを主目的として使用されている。なお、実績データはさらにSOC/SOH算出装置20から取得されてもよい。
【0018】
(深層学習モデル生成装置の構成)
図2は、モデル生成装置10の機能構成の一例を示す図である。本図に示す例において、モデル生成装置10は、訓練データ取得部130及びモデル生成部150を備えている。訓練データ取得部130は、複数の訓練データを取得する。訓練データのそれぞれは、蓄電池の電流、電圧、温度、及び充放電状態が変化したことを示す測定結果を含む訓練用測定データを入力値として、当該蓄電池の充電率(SOC:State of Charge)である訓練用SOCや当該蓄電池の健全値(SOH:State of Health)である訓練用SOHを目標値としている。モデル生成部150は、複数の訓練データを機械学習することにより、深層学習モデルを生成する。この深層学習モデルは、処理対象となる対象蓄電池の電流、電圧、及び温度を含む算出用測定データから当該対象蓄電池のSOCやSOHを算出する。
【0019】
なお、訓練用測定データは、例えば、SOCのみを求める態様にあっては、電流、電圧、及び温度のみであってもよい。この場合、モデルに入力される算出用測定データも、電流、電圧、及び温度のみになる。
【0020】
モデル生成装置10は、さらにパラメータ調整部140を備えている。パラメータ調整部140は、従前では従業者(技術者)が手動により調整していたハイパーパラメータを自動で調整(ハイパーパラメータチューニング)するものである。このことから、モデル生成部150は、通常の機械学習により向上する学習率(Learning Rate)に加えて、ハイパーパラメータも適時に(自動)調整された上での深層学習モデルを更新することになる。ハイパーパラメータチューニング処理の詳細については後述する。
【0021】
モデル生成部150が生成した深層学習モデルは、モデル記憶部160に記憶される。そしてモデル記憶部160に記憶された深層学習モデルは、モデル送信部170によってSOC/SOH算出装置20に送信される。本図に示す例において、モデル記憶部160及びモデル送信部170は、モデル生成装置10の一部となっている。ただし、モデル記憶部160及びモデル送信部170の少なくとも一方はモデル生成装置10の外部の装置になっていてもよい。
【0022】
本図に示す例において、モデル生成装置10は、さらに、実績取得部110、実績記憶部120、訓練データ取得部130、及び検証用データ取得部180を備えている。
【0023】
実績取得部110は、SOC/SOH算出装置20及びデータ収集装置50の少なくとも一方から、上記した実績データを取得し、実績記憶部120に記憶させる。ここで実績取得部110は、実績データを、当該実績データの取得先を特定する情報に対応付けて記憶する。また、実績取得部110は、実績データを、当該実績データの測定対象となった蓄電池30の種類を示す情報に対応付けて記憶してもよい。
【0024】
上記したように、複数の実績データの一部は、上記した訓練データとして用いられ、実績データの残りの少なくとも一部は、深層学習モデルを検証するために用いられる。このため、実績記憶部120は、複数の実績データのそれぞれを、訓練データとして用いられるデータか否かを示す情報を対応付けて記憶している。この対応付けは、従業者(技術者)からの入力に従って行われてもよいし、実績取得部110が行ってもよい。
【0025】
そして訓練データ取得部130は、実績記憶部120から、実績データのうち訓練データとして用いられるデータを読み出す。モデル生成部150が蓄電池30の種類別に深層学習モデルを生成する場合、訓練データ取得部130は、深層学習モデルの種類別に訓練データを読み出す。
【0026】
また、検証用データ取得部180は、実績データのうち訓練データとして用いられないデータの少なくとも一部を、モデル生成部150が生成した深層学習モデルを検証するために読み出す。この深層学習モデルの検証は、モデル生成部150が行う。
【0027】
なお、実績取得部110は定期的に動作しているため、実績記憶部120に記憶されている実績データは定期的に更新(追加)される。そしてモデル生成部150は、定期的に深層学習モデルを更新する。モデル送信部170は、モデル記憶部160に記憶されている深層学習モデルが更新されると、深層学習モデルを更新するためのデータをSOC/SOH算出装置20に送信する。
【0028】
(SOC/SOH算出装置の構成)
図3は、SOC/SOH算出装置20の機能構成の一例を示す図である。SOC/SOH算出装置20は、記憶処理部210及び算出部240を備えている。
【0029】
記憶処理部210は、モデル生成装置10から深層学習モデルを取得し、モデル記憶部220に記憶させる。記憶処理部210は、モデル生成装置10から深層学習モデルを更新するためのデータを取得した場合、このデータを用いて、モデル記憶部220に記憶されている深層学習モデルを更新する。本図に示す例において、モデル記憶部220はSOC/SOH算出装置20の一部となっている。ただし、モデル記憶部220はSOC/SOH算出装置20の外部の装置であってもよい。
【0030】
算出部240は、モデル記憶部220が記憶されている深層学習モデルを用いて、SOC/SOH算出装置20が管理している蓄電池30のSOCやSOH遷移の推定結果を算出する。この際、深層学習モデルに入力されるデータ(以下、算出用測定データと記載)は、充放電回数ごとの蓄電池30の電流、電圧、及び温度等である。例えば、深層学習モデルを生成するときの入力データが電流、電圧、及び温度のみである場合、算出用測定データは、電流、電圧、及び温度のみである。
【0031】
本実施形態において、SOC/SOH算出装置20は、表示処理部250を備えている。表示処理部250は、算出部240が算出した蓄電池30のSOCやSOH遷移の推定結果をディスプレイ260に表示させる。ディスプレイ260は、機器40の使用者が視認可能な位置に配置されている。例えば、機器40が車両の場合、ディスプレイ260は当該車両の内部(例えば、運転席の前又は斜め前)に設けられている。
【0032】
算出部240が行う処理の演算量は少ない。このため、算出部240がリアルタイムの算出用測定データを取得する場合、算出部240は、ほぼリアルタイムの蓄電池30のSOCや、SOH遷移の推定結果を算出することができる。このため、機器40の使用者は、ディスプレイ260を見ることにより、ほぼリアルタイムで蓄電池30のSOCを確認したり、今後のSOH遷移を予測したりすることができる。
【0033】
本図に示す例において、SOC/SOH算出装置20は、さらに算出用データ取得部230、データ記憶部270、及びデータ送信部280を備えている。
【0034】
算出用データ取得部230は、蓄電池30から算出用測定データを取得する。データ記憶部270は、算出用データ取得部230が取得したデータを記憶する。データ送信部280は、少なくとも一部の算出用測定データを、当該算出用測定データを測定したときの蓄電池30のSOCを特定するためのデータと共に、モデル生成装置10に送信する。このデータは、実績データとして扱われる。なお、算出用測定データを測定したときの蓄電池30のSOCを特定するためのデータは、例えば、以下のようにして算出される。この算出処理は、SOC/SOH算出装置20が行ってもよいし、SOC/SOH算出装置20の外部の装置が行ってもよい。
【0035】
まず、蓄電池30の充電率(SOC)と開放電圧(OCV)の関係を予め調べておく。そして、定期的に、開放電圧を測定し、この測定値を蓄電池30の充電率に変換することにより、充電率の変化量、すなわち所定の期間における蓄電池30の充電率の変化(ΔSOC)を算出する。
【0036】
一方、蓄電池30の放電電流及び充電電流をそれぞれ測定し続け、この測定結果を積算することにより、上記の所定の期間における蓄電池30の残容量の変化量(ΔC)を算出する。そして、この変化量(ΔC)をΔSOCで除すること(ΔC/ΔSOC)により、蓄電池30の満容量の絶対値を算出する。必要に応じて、蓄電池30の満容量の絶対値とSOCから、残容量を求めてもよい。
【0037】
また、データ送信部280は、少なくとも一部の算出用測定データを、当該算出用測定データを測定したときの蓄電池30のSOH遷移の推定結果を特定するためのデータと共に、モデル生成装置10に送信する。このデータは、実績データとして扱われる。なお、算出用測定データを測定したときの蓄電池30のSOH遷移を推定するためのデータは、例えば、以下のようにして算出される。この算出処理は、SOC/SOH算出装置20が行ってもよいし、SOC/SOH算出装置20の外部の装置が行ってもよい。
【0038】
算出用データ取得部230は、蓄電池30から算出用測定データを取得する。データ記憶部270は、算出用データ取得部230によりデータ取得されたときの充放電回数(上記αi~αj)を記憶する。また、算出用データ取得部230は、充放電回数が所定値(上記β1,β2,…βk)の場合には特定のSOHデータに達したことを記憶するためのものである。そして、データ送信部280は、算出された測定データの一部を、SOHを識別するための上記データと共にモデル生成装置10に送信する。このデータは、実際のデータとみなされる。
【0039】
図4は、モデル生成装置10のハードウェア構成例を示す図である。モデル生成装置10は、システムバス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
【0040】
システムバス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
【0041】
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
【0042】
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
【0043】
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は、モデル生成装置10の各機能(例えば、実績取得部110、訓練データ取得部130、パラメータ調整部140、モデル生成部150、モデル送信部170、及び検証用データ取得部180)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は実績記憶部120及びモデル記憶部160としても機能する。
【0044】
入出力インタフェース1050は、モデル生成装置10と各種入出力機器とを接続するためのインタフェースである。
【0045】
ネットワークインタフェース1060は、モデル生成装置10をネットワークに接続するためのインタフェースである。このネットワークは、例えば、LAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。モデル生成装置10は、ネットワークインタフェース1060を介してSOC/SOH算出装置20及びデータ収集装置50と通信してもよい。
【0046】
なお、SOC/SOH算出装置20のハードウェア構成も
図4に示した例と同様である。そして、ストレージデバイスは、SOC/SOH算出装置20の各機能(例えば、記憶処理部210、算出用データ取得部230、算出部240、ディスプレイ260、及びデータ送信部280)を実現するプログラムモジュールを記憶している。また、ストレージデバイスは、モデル記憶部220及びデータ記憶部270としても機能する。
【0047】
図5は、モデル生成装置10が行う深層学習モデルの生成処理の一例を示すフローチャートである。本図に示す処理とは別に、実績取得部110は、繰り返し実績データを取得して、実績記憶部120を更新している。
【0048】
まず実績データは、訓練データとそれ以外のデータに分類される(ステップS10)。そしてモデル生成装置10の訓練データ取得部130は、実績記憶部120から訓練データを読み出す(ステップS20)。次いで、パラメータ調整部140は、後記するステップS60で必要と判断された場合に、ハイパーパラメータチューニング等の処理を行う。ハイパーパラメータチューニング等処理の具体的な内容については、他の図を用いて、後で説明する。
【0049】
そしてモデル生成部150は、ステップS30で変換された後の訓練データを用いて深層学習モデルを生成する。(ステップS40)。
【0050】
その後、モデル生成部150は、実績記憶部120から、実績データのうち訓練データとして用いられなかったデータを読み出し、このデータを用いて、ステップS40で算出した深層学習モデルの精度を検証する。具体的には、モデル生成部150は、生成した深層学習モデルに対して電流、電圧、及び温度を含むデータを入力し、SOCやSOHの値を得る。そしてこの値と、実績記憶部120から読み出したSOCやSOHの実績値との差を算出する(ステップS50)。この差が基準値以下の場合(ステップS60:Yes)、モデル生成部150は、生成した深層学習モデルをモデル記憶部160に記憶させる(ステップS70)。
【0051】
一方、ステップS50で算出した差が基準値を超える場合(ステップS60:No)、ステップS30以降の処理を繰り返す。この処理の中には、パラメータ調整部140により実行されるハイパーパラメータのチューニングが含まれる。
【0052】
(ハイパーパラメータの調整処理)
図6は、パラメータ調整部140が行うハイパーパラメータの自動調整処理(ハイパーパラメータチューニング)がどのように行われるのかを説明する概念図である。
図6の右に示される階層を示す図は、分析・解析対象の目標値を求める深層学習モデル(ニューラルネットワーク)であり、本実施形態であれば、蓄電池のSOC及び/又はSOHを算出するための深層学習モデルとなる。ここでは、目標値を求める深層学習モデルであることから、「目標AI」と呼ぶ。目標AIは、正解率を向上させるために、重みやバイアスといった学習率(Learning Rate)を訓練により更新していくわけであるが、図中に示される a : 一層の Hidden Layer のニューロンの数、b : Hidden Layer の層の数、c : 活性化関数(Activation Function)等のハイパーパラメータについても適時に調整する必要がある。従前は、この調整を従業者(技術者)が手動により行っていた訳であるが、本発明において、当該調整は自動で行われる。どのようにして行うかというと、
図6をみれば、一目瞭然であるように、パラメータ「a」、パラメータ「b」、パラメータ「c」の最適解を深層学習モデルによって求めるのである。「目標AI」に対して、これらの深層学習モデルを、ここでは、「パラメータAI」と呼ぶ。
図6の例では、「a」、「b」、「c」の3つのパラメータ全てについて、検証を行うためのパラメータAIが用意されているが、頻繁な調整により効果が認められるハイパーパラメータについてのみパラメータAIを用意し、そうでないハイパーパラメータについては適当な頻度で手動で調整して、パラメータAIを設けないようにしてもよい。
【0053】
これらパラメータAIの入力層に与えられる入力値は、例えば、シグモイド関数の採り得る0%~100%といった数値範囲等の適宜の条件の下で、乱数発生器により得られるランダムな値である。入力値をランダムな値にすることによって、(1)最適な結果を得るまでの時間が短縮される可能性が高くなる、(2)精度の高い結果を得る可能性が高い、との有利な効果がある。勿論、ランダムな値にしない事で結果の効率(訓練をかける時間)が上がる可能性もあるのであるが、有力プラットフォーマー企業で多くの技術者を要することから実証されているように、最適な解を見つけるまでの時間の方がかかるのである。ただし、経験則やノウハウにより、範囲を、例えば、20~80%といったように狭めることが可能であり、それにより、計算に要する時間を短縮できる場合がある。パラメータAIのハイパーパラメータについては、従業者(技術者)の経験則により設定した後には、調整を行う必要は特にない。勿論、手動により調整を行ってもよいし、或いは、パラメータAIのハイパーパラメータを調整するために、さらなるパラメータAIを用意してもよい。
【0054】
(下位AI入力値の調整処理)
先述したように、パラメータ学習モデルの対象は、典型的には、「ハイパーパラメータ」であるが、その他にも、AIが上位AIと下位AIの多層から構成される場合の下位AIの「入力値」を対象として、これを上位AIが算出するように構成することも可能である。ただし、最上位AIへの入力値の一部はランダムな値とされている。この場合であっても、深層学習モデルの正解率向上の効率化が達成できる。また、入力値としてランダムな値を一部利用するため、最適な深層学習モデルに到達するためのトレーニング回数を減少させることができる。
図7は、上位AIが下位AIの入力値を与える処理を説明する概念図である。上位AI(パラメータAI)の出力が中段の下位AIの入力や最終段の目標AIの入力とされている。上位AIの出力を下位AIに入力するに際しては、直接入力とすることも、上位AIの出力に対し、適宜、フィルタ処理をしてからの入力とすることも可能である。なお、最上位AIの入力値のうち、ランダムな値でないもの、例えば、生データの電圧、電流、温度が入力値である場合に、その出力は、当然ながら、生データではないものの、電圧、電流、温度間の関係性を有する値となる。
図8は、
図6に示されるハイパーパラメータ調整用のAIと、
図7に示される下位AI入力値の調整用AIと、を共に設けた例である。目標AIのハイパーパラメータ「a」、ハイパーパラメータ「b」、ハイパーパラメータ「c」の最適解を深層学習モデルによって求めると共に、目標AIの入力値が上位のAIの出力から得られるようにされている。このことによって、最適な結果を得るまでの時間短縮、及び正解率向上が、より一層期待できるようになる。
【0055】
図9(a)~(c)は、パラメータAIと目標AIの階層関係を示す説明図である。
図9(a)及び(b)は、
図6の例として説明した目標AIのハイパーパラメータを検証するためのパラメータAIを用意し、その最適解を、目標AIのハイパーパラメータとして入力する場合の階層を示したものである。
図9(a)は、複数あるハイパーパラメータのうち、一つのみを自動調整するべく、1層に1個のパラメータAIが存在する形となっている。
図9(b)は、2つのハイパーパラメータを自動調整するべく、1層に2個のパラメータAIが存在する形となっている。
図9(c)は、
図7の例として説明した上位のAIでの検証により求められた最適解が下位のAIの入力値として入力される場合の階層を示したものである。ここでは、目標AIの上位に配置されるパラメータAIは2段となっている。
【0056】
図8を用いて先述したように、目標AIのハイパーパラメータを検証するためのパラメータAIを用意する態様と、上位のAIでの検証により求められた最適解が下位のAIの入力値として入力される態様とは、併せて構成することができる。
図10は、そのように構成された場合の階層関係を示す説明図である。ただし、
図9の単純な関係でなく、n層の各層に、複数(x個)のパラメータAIが配置された複雑な関係であり、ニューラルネットワーク中のニューロンの配置と似た態様とされている。この中には、上位のAIの結果が下位のAIのハイパーパラメータとして入力される態様と、上位のAIの結果が下位のAIの入力層に与えられる態様とが混在した状況とされている。
【0057】
これらの複雑なAIであっても、ランダムな値を入力すればよいことから、事前の準備は然程煩雑とはならない。そして、最適な深層学習モデル、換言すれば、正解率が合格点に達する深層学習モデルに到達するために要する時間は、従前のハイパーパラメータを手動で調整する場合に比べて、格段に短くなる。
【0058】
ところで、これまで、ハイパーパラメータとしての「最適解」や「最適な深層学習モデル」との表現を用いたが、あくまで、当該時点での「最適」な解であり、当該時点での「最適」深層学習モデルである。完璧なハイパーパラメータや完璧な深層学習モデルといったものはなく、学習は何処までやっても、ある意味、終了するものではない。このため、目標AIに対するパラメータAIは、あるタイミングで切り離されるということはなく、半永久的に、同一システム内で維持されることになる。
【0059】
(実例:最適な深層学習モデルへの到達時間)
目標AIに対してパラメータAIを追加した場合に、最適な深層学習モデル(正解率99.95%以上の深層学習モデル)に到達する迄のトレーニング回数(epoch)をどれ程削減できるかについて、
図11(a)のSOC算出モデルと
図11(b)のSOH算出モデルの実例を示すことによって、説明する。ちなみに、SOH算出モデルを構築する方が、SOC算出モデルを構築するよりも難易度が高く、最適モデルのためのハイパーパラメータを見つけるのに時間を要するとされている。
図11の(a)に点線で描かれているのは、パラメータAIを具備することのない従来の深層学習モデルによるSOC算出モデルであるが、10000回以上のトレーニングをして、ようやく安定した正解率に到達している。一方、実線で描かれているのは、パラメータAIを具備させたSOC算出モデルである。1000ないし2000回のトレーニング後には、lossが0.05%以上となることは略なくなっていることが分かる。
図11の(b)に点線で描かれているのは、パラメータAIを具備することのない従来の深層学習モデルによるSOH算出モデルであるが、lossが一旦低下したように見えて、その後、発散するようになっている。これは、最適なモデルが一度見つかったということではなく、一定傾向の訓練データが与えられた場合に、偶々、正解率が高いように見えただけのことである。このように、最適なモデルが見つからないという問題は、深層学習モデルにおいては、しばしば起こり得る問題である。一方、実線で描かれているのは、パラメータAIを具備させたSOH算出モデルである。やはり、1000ないし2000回のトレーニング後には、lossが0.05%以上となることは略なくなっており、従来のやり方では到達できなかった最適なモデルに到達できていることが分かる。
【0060】
以上、本実施形態によれば、SOC/SOH算出装置20は、モデル生成装置10が生成したモデルを用いて、蓄電池30のSOCやSOHを算出する。モデル生成装置10は、訓練データの入力値として、蓄電池30の電流、電圧、及び温度があれば、SOCを算出する深層学習モデルを生成することができる。さらに、充放電状態が変化したことを示す測定結果があれば、SOHを算出する深層学習モデルも生成することができる。さらに、本実施形態は、深層学習モデルの正解率を高めるため、従前は人の手を介して行う必要があった従前のハイパーパラメータチューニングを自動で行うため、最適な深層学習モデルに早期に到達することができるし、また、人的・経済的コストもかからない。
【0061】
(別の適用例)
これまでの説明から、パラメータAIと目標AIの階層関係により構築される深層学習モデルの適用分野がSOC/SOH算出装置に限られるものでないことは、容易に理解されよう。蓄電池分野において、SOCやSOHを求める以外にも、温度に合わせた電池の状態を把握することによるEV走行距離の予測、一部の充放電サイクルの利用によるバッテリーの寿命測定、蓄電池のセル設計パラメータの最適化予測に適用が可能である。適用は、燃料電池の分野にも及ぶ。燃料電池制御に関して、酸素・水素などの流量、水分量、温度の最適制御や、燃料電池コア温度の監視や、燃料電池排水最適制御についての各値の算出・推定が可能であるし、また、高分子膜(イオン交換膜)の水分量及び温度の最適予測及び制御や、膜/電極接合体(MEA)の寿命予測や、最大Output電力予測/制御などにも適用可能である。燃料電池開発に関しては、燃料電池電極材料の最適配合の導出や、電極材料の最適サイズ設計や、最適流体設計のための各値の算出・推定が可能である。さらに、深層学習モデルの利用分野の典型例である分類モデルの構築、画像分析、自然言語解析にも、本発明は適用し得るものである。
【0062】
(実例:画像分析への適用例)
画像分析モデルにつき、パラメータAIを追加した場合に、深層学習モデルがどれ程に最適化されるのかについて、画像分析算出モデルの実例を示すことによって、説明する。
図12は、パラメータAIを有する画像分析モデルのトレーニング回数の実例を示すグラフであり、
図12(a)は、電池に対して、複数のタイプの傷痕検査を行い、トレーニングサンプル数が少ない場合に得られたトレーニング結果を示すグラフであり、
図12(b)は、特に、溶接縫に近い微小な傷痕を検出する際に得られたトレーニング結果を示すグラフである。
図12(a)からは、パラメータAIを備えた深層学習モデルが、パラメータAIを備えない深層学習モデルに対して、正解率に明確な有意差を有することを確認することができる。また、
図12(b)からは、パラメータAIを備えない深層学習モデルにおいて、正解率が高まる迄に時間を要し、さらには、一度高まった正解率が下降してしまっている様子が看て取れる。先述したように、最適なモデルが見つからないという問題は、深層学習モデルにおいては、しばしば起こり得る問題である。電池に存在する溶接縫に近い傷痕は非常に微小なため、このような事態が生じてしまうのである。一方、パラメータAIを備えた深層学習モデルにおいては、正解率が高まるまでの回数は少なく、かつ、一旦高まった正解率が低下することはない。
【0063】
(実例:自然言語解析への適用例)
自然言語解析モデルにつき、パラメータAIを追加した場合に、深層学習モデルがどれ程に最適化されるのかについて、自然言語解析モデルの実例を示すことによって、説明する。自然言語処理技術を使用する場合、言語、文法、品詞、文脈など、多くの影響要因を考慮する必要がある。一般的なアルゴリズムでは、これらの影響要因を同時に効率的に考慮することができず、精度がまだ十分ではなく、安定性にも欠けるため、しばしば下降傾向が見られる。パラメータAIを備えた自然言語解析モデルによって、上記した問題を改善し、安定な高い正解率を達成することが可能なる。
[表1]は、内容が多い資料から重要な情報を抽出する際に、パラメータAIを備えた深層学習モデルとパラメータAIを備えない深層学習モデルの正解率を比較したものである。パラメータAIを備えないモデルでは、正解率の下降傾向が認められるものの、パラメータAIを備えた深層学習モデルでは、安定して高い正解率が維持されている。
【表1】
上記では、情報抽出モデルについて説明したが、本発明は、インテリジェントな質問応答システム、テキスト分析、コンテンツの推奨、翻訳などにも対応できるものであり、さらに、これらは例示的なものであり、これらに限定されるものでもない。
【0064】
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。たとえば、本実施形態の説明としては、機械学習の例として、ニューラルネットワークを挙げて説明を行ったが、ハイパーパラメータを有するアルゴリズムには、ニューラルネットワーク以外にも、決定木、ランダムフォレスト、SVM等種々のアルゴリズムがあり、これら全ての方式に、パラメータAIを有する本発明を適用可能である。また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
そして、最も重要なこととして、本発明の目的は、単に、SOCやSOHを算出するための最適なモデルを提供するということに止まるものではなく、蓄電池に関する様々な諸元や特性値が入力にも出力にもなり得る自由に設計される深層学習モデルについて、パラメータAIを具備させることによって、最適モデルへの到達が早期に効率よく達成できるという点に、本発明の意義があることは十分に理解されるべきである。
【符号の説明】
【0065】
10 モデル生成装置
20 SOC/SOH算出装置
30 蓄電池
40 機器
50 データ収集装置
110 実績取得部
120 実績記憶部
130 訓練データ取得部
140 パラメータ調整部
150 モデル生成部
160 モデル記憶部
170 モデル送信部
180 検証用データ取得部
210 記憶処理部
220 モデル記憶部
230 算出用データ取得部
240 算出部
250 表示処理部
260 ディスプレイ
270 データ記憶部
280 データ送信部
【手続補正書】
【提出日】2023-12-28
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
特徴量を算出するための深層学習モデル生成装置であって、
当該特徴量に関する複数の諸元であり、かつ、測定により直接的に又は間接的に求められた訓練用測定データを入力値として、訓練用の特徴量を目標値とした訓練データを複数取得する訓練データ取得部と、
前記複数の訓練データを機械学習することにより、処理対象となる複数の諸元を含む算出用測定データから当該対象の特徴量を算出するための深層学習モデルを生成する深層学習モデル生成部と、を備え、
前記深層学習モデルの一つ以上の隠れ層の各々には、少なくとも、ニューロン数の最適解を算出する深層学習モデルと、隠れ層のレイヤ数の最適解を算出する深層学習モデルを含むハイパーパラメータ算出用深層学習モデルが用意されており、ハイパーパラメータ算出用深層学習モデルから得られた最適解が前記深層学習モデルのハイパーパラメータとして設定される(ただし、処理用ハイパーパラメータとモデル用ハイパーパラメータのセットを強化学習により生成し、当該モデル用ハイパーパラメータから最適解を算出する態様を除く)
ことを特徴とする深層学習モデル生成装置。
【請求項2】
前記深層学習モデルは、複数の前記特徴量に関する前記訓練データを用いて生成される
ことを特徴とする請求項1に記載の深層学習モデル生成装置。
【請求項3】
前記特徴量は、物理量である
ことを特徴とする請求項1または2に記載の深層学習モデル生成装置。
【請求項4】
前記特徴量は、蓄電池の所定特性値である
ことを特徴とする請求項1または2に記載の深層学習モデル生成装置。
【請求項5】
前記特徴量は、人間が認識する画像である
ことを特徴とする請求項1または2に記載の深層学習モデル生成装置。
【請求項6】
前記特徴量は、人間が認識する自然言語である
ことを特徴とする請求項1または2に記載の深層学習モデル生成装置。
【請求項7】
前記蓄電池の所定特性値は、SOC(State of Charge),SOH(State of Health),SOR(State of Resistance),SOP(State of Power),SOT(State of Temperature),SOS(State of Safety),OCV(Open Circuit Voltage)の少なくとも一を含むものである
ことを特徴とする請求項4に記載の深層学習モデル生成装置。
【請求項8】
蓄電池の所定特性値算出装置であって、
蓄電池の複数の物理量であり、かつ、測定により直接的に又は間接的に求められた訓練用測定データを入力値として、当該蓄電池の所定特性値である訓練用特性値を目標値とした訓練データを複数機械学習することにより生成された深層学習モデルを記憶部に記憶させる記憶処理部と、
処理対象となる対象蓄電池の複数の物理量を含む算出用測定データを取得し、当該算出用測定データを前記深層学習モデルに入力することにより、前記対象蓄電池の所定特性値を算出する算出部と、を備え、
前記深層学習モデルの一つ以上の隠れ層の各々には、少なくとも、ニューロン数の最適解を算出する深層学習モデルと、隠れ層のレイヤ数の最適解を算出する深層学習モデルを含むハイパーパラメータ算出用深層学習モデルが用意されており、ハイパーパラメータ算出用深層学習モデルから得られた最適解が前記深層学習モデルのハイパーパラメータとして設定される(ただし、処理用ハイパーパラメータとモデル用ハイパーパラメータのセットを強化学習により生成し、当該モデル用ハイパーパラメータから最適解を算出する態様を除く)
ことを特徴とする蓄電池の所定特性値算出装置。
【請求項9】
前記記憶処理部は、外部の装置から繰り返し前記深層学習モデルを更新するためのデータを取得し、当該データを用いて前記記憶部に記憶されている前記深層学習モデルを更新する
ことを特徴とする請求項8に記載の蓄電池の所定特性値算出装置。
【請求項10】
少なくとも一つの前記算出用測定データと、前記算出用測定データを測定したときに算出された前記対象蓄電池の所定特性値のデータとを、前記訓練データとして外部の装置に送信するデータ送信部をさらに備える
ことを特徴とする請求項8に記載の蓄電池の所定特性値算出装置。
【請求項11】
前記蓄電池の所定特性値は、SOC(State of Charge),SOH(State of Health),SOR(State of Resistance),SOP(State of Power),SOT(State of Temperature),SOS(State of Safety),OCV(Open Circuit Voltage)の少なくとも一を含むものである
ことを特徴とする請求項8または9に記載の蓄電池の所定特性値算出装置。