IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ みずほ情報総研株式会社の特許一覧

特許7603114予測システム、予測方法及び予測プログラム
<>
  • 特許-予測システム、予測方法及び予測プログラム 図1
  • 特許-予測システム、予測方法及び予測プログラム 図2
  • 特許-予測システム、予測方法及び予測プログラム 図3
  • 特許-予測システム、予測方法及び予測プログラム 図4
  • 特許-予測システム、予測方法及び予測プログラム 図5
  • 特許-予測システム、予測方法及び予測プログラム 図6
  • 特許-予測システム、予測方法及び予測プログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2024-12-11
(45)【発行日】2024-12-19
(54)【発明の名称】予測システム、予測方法及び予測プログラム
(51)【国際特許分類】
   A61B 10/00 20060101AFI20241212BHJP
   G10L 25/18 20130101ALI20241212BHJP
   G10L 25/66 20130101ALI20241212BHJP
   G16H 50/20 20180101ALI20241212BHJP
【FI】
A61B10/00 H
G10L25/18
G10L25/66
G16H50/20
【請求項の数】 5
(21)【出願番号】P 2023125508
(22)【出願日】2023-08-01
【審査請求日】2023-08-01
(73)【特許権者】
【識別番号】592131906
【氏名又は名称】みずほリサーチ&テクノロジーズ株式会社
(74)【代理人】
【識別番号】100105957
【弁理士】
【氏名又は名称】恩田 誠
(74)【代理人】
【識別番号】100068755
【弁理士】
【氏名又は名称】恩田 博宣
(72)【発明者】
【氏名】永田 亮
(72)【発明者】
【氏名】笠間 俊夫
(72)【発明者】
【氏名】下元 正義
(72)【発明者】
【氏名】山本 凱
(72)【発明者】
【氏名】関山 佑一
【審査官】▲高▼原 悠佑
(56)【参考文献】
【文献】特開2018-050847(JP,A)
【文献】国際公開第2020/013296(WO,A1)
【文献】米国特許出願公開第2018/0364967(US,A1)
【文献】米国特許出願公開第2021/0366505(US,A1)
【文献】米国特許出願公開第2023/0233136(US,A1)
【文献】中国特許出願公開第112927715(CN,A)
【文献】特開2021-108843(JP,A)
【文献】特開2020-127703(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 5/00-5/0538
A61B 5/06-5/398
A61B 10/00
(57)【特許請求の範囲】
【請求項1】
学習対象者の発声データの機械学習を行なう制御部を備えた予測システムであって、
前記制御部が、
学習対象者の発声データの発声区間を、時間間隔に分割した複数の発声ブロックを生成し、
前記発声ブロック毎にスペクトログラムを算出し、
前記スペクトログラム毎にパワースペクトルを算出し、前記算出したパワースペクトルからなるパワースペクトル群の特徴量を算出し、
前記特徴量と認知症診断情報に基づく認知状況ラベルとを関連付けたデータセットを教師情報として学習して予測モデルを生成し、
予測対象者の発声データを取得した場合、前記予測モデルを用いて、前記予測対象者の発声データの特徴量から認知状況ラベルを予測する処理を実行し、
前記特徴量には、前記パワースペクトル群を構成するパワースペクトルの形状の尖度の統計値を少なくとも含むことを特徴とする予測システム。
【請求項2】
前記制御部が、一連の発話において、複数のタイミングで前記発声ブロックを取得して前記スペクトログラムを算出することを特徴とする請求項1に記載の予測システム。
【請求項3】
前記特徴量には、前記パワースペクトル群を構成するパワースペクトルの強度の統計値を含むことを特徴とする請求項1又は2に記載の予測システム。
【請求項4】
学習対象者の発声データの機械学習を行なう制御部を備えた予測システムを用いて、認知状況を予測する方法であって、
前記制御部が、
学習対象者の発声データの発声区間を、時間間隔に分割した複数の発声ブロックを生成し、
前記発声ブロック毎にスペクトログラムを算出し、
前記スペクトログラム毎にパワースペクトルを算出し、前記算出したパワースペクトルからなるパワースペクトル群の特徴量を算出し、
前記特徴量と認知症診断情報に基づく認知状況ラベルとを関連付けたデータセットを教師情報として学習して予測モデルを生成し、
予測対象者の発声データを取得した場合、前記予測モデルを用いて、前記予測対象者の発声データの特徴量から認知状況ラベルを予測する処理を実行し、
前記特徴量には、前記パワースペクトル群を構成するパワースペクトルの形状の尖度の統計値を少なくとも含むことを特徴とする予測方法。
【請求項5】
学習対象者の発声データの機械学習を行なう制御部を備えた予測システムを用いて、認知状況を予測するためのプログラムであって、
前記制御部を、
学習対象者の発声データの発声区間を、時間間隔に分割した複数の発声ブロックを生成し、
前記発声ブロック毎にスペクトログラムを算出し、
前記スペクトログラム毎にパワースペクトルを算出し、前記算出したパワースペクトルからなるパワースペクトル群の特徴量を算出し、
前記特徴量と認知症診断情報に基づく認知状況ラベルとを関連付けたデータセットを教師情報として学習して予測モデルを生成し、
予測対象者の発声データを取得した場合、前記予測モデルを用いて、前記予測対象者の発声データの特徴量から認知状況ラベルを予測する処理を実行する手段として機能させ、
前記特徴量には、前記パワースペクトル群を構成するパワースペクトルの形状の尖度の統計値を少なくとも含むことを特徴とする予測プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、予測対象者の認知状況を予測するための予測システム、予測方法及び予測プログラムに関する。
【背景技術】
【0002】
認知症を発症すると、記憶力、判断力、理解力、計算力、言語能力等の認知機能が低下する。このため、認知症の前駆状態である軽度認知障害(MCI)を早期に発見することが有効である。そこで、認知症検査システムも検討されている(例えば、特許文献1を参照)。この文献に記載された認知症検査システムは、被験者の視覚及び聴覚の少なくとも一方に働きかけて被験者に情報を伝達する情報伝達部と、被験者の反応を測定する測定部と、を備える。そして、測定部の測定結果に基づいて異なる複数の特徴量を算出するとともに、特徴量に基づいて被験者が認知症であるか否かを判定する。ここで、被験者が発する音声の音響的な特徴量である少なくとも1つの音響特徴量と、被験者が発する音声の言語的な特徴量である少なくとも1つの言語特徴量と、に基づいて、被験者が認知症であるか否かを判定する。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2018-15139号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、音響特徴量だけでは的確な判断ができないことがある。一方、特許文献に記載されているように、言語的な特徴量の評価は困難な場合がある。
【課題を解決するための手段】
【0005】
上記課題を解決する予測システムは、学習対象者の発声データの機械学習を行なう制御部を備える。そして、制御部が、学習対象者の発声データの発声区間を、時間間隔に分割した複数の発声ブロックを生成し、前記発声ブロック毎にスペクトログラムを算出し、前記スペクトログラム毎にパワースペクトルの分布形状の特徴量を算出し、前記特徴量と認知症診断情報に基づく認知状況ラベルとを関連付けたデータセットを教師情報として学習して予測モデルを生成し、予測対象者の発声データを取得した場合、前記予測モデルを用いて、前記予測対象者の発声データの特徴量から認知状況ラベルを予測する。
【発明の効果】
【0006】
本開示によれば、予測対象者の発声に基づいて、効率的に認知状況を把握することができる。
【図面の簡単な説明】
【0007】
図1】実施形態の予測システムの説明図である。
図2】実施形態のハードウェア構成の説明図である。
図3】実施形態の処理手順の説明図である。
図4】実施形態の処理手順の説明図であって、(a)は音声データ、(b)は発声区間、(c)は発声ブロック、(d)はスペクトログラム、(e)パワースペクトルの説明図である。
図5】実施形態の評価結果の説明図であって、(a)は7変数の場合、(b)は6変数の場合、(c)は5変数の場合の説明図。
図6】実施形態の評価結果の説明図であって、(a)は4変数の場合、(b)は3変数の場合の説明図。
図7】実施形態の評価結果の説明図であって、(a)は2変数の場合、(b)は1変数の場合の説明図。
【発明を実施するための形態】
【0008】
以下、図1図7に従って、予測システム、予測方法及び予測プログラムを具体化した一実施形態を説明する。
図1に示すように、本実施形態では、認知状況を予測するために、ネットワークにより相互に接続されたユーザ端末10、支援装置20を用いる。
【0009】
(ハードウェア構成例)
図2は、ユーザ端末10、支援装置20として機能する情報処理装置H10のハードウェア構成例である。
【0010】
情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。
【0011】
通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースや無線インタフェース等である。
【0012】
入力装置H12は、利用者等からの入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイやタッチパネル等である。
【0013】
記憶装置H14は、ユーザ端末10、支援装置20の各種機能を実行するためのデータや各種プログラムを格納する記憶装置である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。
【0014】
プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、ユーザ端末10、支援装置20における各処理(例えば、後述する制御部21における処理)を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。例えば、プロセッサH15は、ユーザ端末10、支援装置20のアプリケーションプログラムが起動された場合、後述する各処理を実行するプロセスを動作させる。
【0015】
プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路:ASIC)を備えてもよい。すなわち、プロセッサH15は、以下で構成し得る。
【0016】
〔1〕コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ
〔2〕各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路、或いは
〔3〕それらの組み合わせ、を含む回路(circuitry)
プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
【0017】
(各情報処理装置の機能)
図1を用いて、ユーザ端末10、支援装置20の機能を説明する。
ユーザ端末10は、本システムを利用するユーザが用いるコンピュータ端末である。本実施形態では、予測対象者の認知状況を予測するユーザが用いる。
【0018】
支援装置20は、予測対象者の認知状況を予測するコンピュータシステムである。この支援装置20は、制御部21、音声情報記憶部22、教師情報記憶部23、学習結果記憶部24を備えている。
【0019】
制御部21は、後述する処理(管理段階、学習段階、予測段階等を含む処理)を行なう。このための予測プログラムを実行することにより、制御部21は、管理部211、学習部212、予測部213等として機能する。
【0020】
管理部211は、各種情報を取得する処理を実行する。
学習部212は、機械学習により、認知状況を予測するための予測モデルを生成する処理を実行する。機械学習の手法としては、2値分類可能な分類器であって、例えばロジスティック回帰やSVM(Support Vector Machine)を用いることができる。
予測部213は、予測モデルを用いて、認知状況を予測する処理を実行する。
【0021】
音声情報記憶部22には、学習対象者(認知症患者及び認知症患者以外の人)の音声情報が記録される。この音声情報は、学習対象者の音声サンプル(発声データ)を取得した場合に記録される。音声情報には、学習対象者毎に、音声サンプル及び認知状況ラベルに関するデータが記録される。
音声サンプルは、学習対象者の発声をマイクで録音した音響データである。
認知状況ラベルは、認知症診断情報に基づいて、認知症又は認知症以外のいずれかを特定するための識別情報である。例えば、認知症を「1」、認知症以外を「0」とした学習時の正解ラベルである。
【0022】
教師情報記憶部23には、学習に用いる教師情報が記録される。この教師情報は、教師情報の作成処理が行なわれた場合に記録される。教師情報は、学習対象者の発声の特徴量、認知状況ラベルに関する情報を含む。本実施形態では、発声データの特徴量として、以下の変数を用いる。
【0023】
[変数1]パワースペクトルの重心の平均
[変数2]パワースペクトルの歪度(分布の非対称性を示す指標)の平均
[変数3]パワースペクトルの尖度(分布の鋭さを表す指標)の平均
[変数4]パワースペクトルの重心の標準偏差
[変数5]パワースペクトルの歪度の標準偏差
[変数6]パワースペクトルの尖度の標準偏差
[変数7]スペクトログラムの強度の標準偏差
【0024】
学習結果記憶部24には、認知状況を予測するための情報が記録される。この予測モデルは、学習処理が実行されることにより予測モデルが生成された時に記録される。予測モデルは、発声データから得られた[変数1]~[変数7]の変数値の組み合わせに対して、認知症であるか否かを予測するモデルである。なお、本実施形態では、[変数1]~[変数7]の変数値を組み合わせるが、少なくとも1つ以上の変数を組み合わせた情報を用いることができる。更に、予測モデルからの、認知症であるか否かの確率値に対して、認知症又は認知症以外の何れかの認知状況を識別する閾値が記録される。
【0025】
(学習処理)
次に、図3を用いて、学習処理を説明する。
まず、支援装置20の制御部21は、教師情報の作成処理を実行する(ステップS11)。具体的には、制御部21の管理部211は、音声情報記憶部22から、一連の発話についての音声サンプルを取得する。次に、管理部211は、音声サンプルにおいて、学習対象者の発声区間を抽出する。
【0026】
図4(a)に示すように、管理部211は、音声サンプル500を取得する。
この場合、図4(b)に示すように、管理部211は、音声サンプル500の発声区間を抽出して結合した音声データ501を生成する。
【0027】
次に、図4(c)に示すように、管理部211は、音声データ501を一定時間間隔に、複数のタイミングで分割する。ここでは、重複するように所定間隔で音声データ501を切り出した複数の発声ブロック502を生成する。なお、隣接する発声ブロック502は、一部を重複させておく。
【0028】
次に、図4(d)に示すように、管理部211は、各発声ブロックについて、スペクトログラム503を算出する。スペクトログラム503は、発声ブロック502の周波数の時間依存性を示す。
【0029】
そして、図4(e)に示すように、管理部211は、各スペクトログラム503の所定時刻t0のパワースペクトル504を算出する。
そして、管理部211は、分布形状の特徴量として、[変数1]~[変数7]の変数値を算出する。
【0030】
[変数1]パワースペクトルの重心の平均については、各発声ブロック502のパワースペクトルの重心の周波数を算出し、その平均値を算出する。
[変数2]パワースペクトルの歪度の平均については、各発声ブロック502のパワースペクトルの形状の歪度を算出し、その平均値を算出する。
【0031】
[変数3]パワースペクトルの尖度の平均については、各発声ブロック502のパワースペクトルの形状の尖度を算出し、その平均値を算出する。
[変数4]パワースペクトルの重心の標準偏差については、各発声ブロック502の各重心の周波数の標準偏差を算出する。
【0032】
[変数5]パワースペクトルの歪度の標準偏差については、各発声ブロック502の歪度の標準偏差を算出する。
[変数6]パワースペクトルの尖度の標準偏差については、各発声ブロック502の尖度の標準偏差を算出する。
【0033】
[変数7]スペクトログラムの強度の標準偏差については、各発声ブロック502の強度の標準偏差を算出する。
そして、管理部211は、発声ブロック毎の[変数1]~[変数7]の変数値に対して、認知状況ラベルを記録したデータセットを教師情報として、教師情報記憶部23に記録する。
【0034】
次に、支援装置20の制御部21は、学習処理を実行する(ステップS12)。具体的には、制御部21の学習部212は、教師情報記憶部23に記録された教師情報を用いて、機械学習を行なう。ここでは、[変数1]~[変数7]のすべての変数値の組み合わせから認知状況ラベルを予測する予測モデルを生成する。そして、学習部212は、予測モデルに、[変数1]~[変数7]のすべての変数値を入力して得られた予測値に対して、認知症又は認知症以外の何れかの認知状況を識別する閾値を算出する。そして、学習部212は、生成した予測モデル、閾値を、学習結果記憶部24に記録する。
【0035】
(予測処理)
次に、図3を用いて、予測処理を説明する。
まず、支援装置20の制御部21は、予測対象者データの取得処理を実行する(ステップS13)。具体的には、制御部21の管理部211は、ユーザ端末10に、ガイド画面を出力する。このガイド画面には、予測対象者に対する質問が表示される。この場合、予測対象者は質問に対して、発声により回答する。そして、管理部211は、ユーザ端末10から、予測対象者の音声データ(予測対象者データ)を取得する。
【0036】
この場合、管理部211は、予測対象者データについて、予測対象者の発声区間を抽出する。更に、管理部211は、一定時間間隔に分割した発声ブロックを生成する。次に、管理部211は、各発声ブロックについて、スペクトログラムを算出する。そして、管理部211は、発声ブロック毎の[変数1]~[変数7]の変数値を算出することにより、発声データの特徴量を抽出する。
【0037】
次に、支援装置20の制御部21は、予測処理を実行する(ステップS14)。具体的には、制御部21の予測部213は、学習結果記憶部24に記録されている予測モデルに、各発声ブロックの[変数1]~[変数7]の変数値を入力することにより、発声ブロック毎に認知症であるか否かの予測値を算出する。次に、予測部213は、発声ブロック毎の予測値の統計値(例えば、平均値)を算出して、学習結果記憶部24に記録されている閾値と比較することにより、認知状況を予測する。そして、予測部213は、閾値との比較結果をユーザ端末10に出力する。
【0038】
本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態においては、支援装置20の制御部21は、教師情報の作成処理を実行する(ステップS11)。これにより、認知症患者又は認知症患者以外の音声について複数種類の変数値を算出することができる。
【0039】
(2)本実施形態においては、支援装置20の制御部21は、学習処理を実行する(ステップS12)。これにより、音声における複数種類の変数値について、認知症又は認知症以外を予測するための予測モデルを生成することができる。更に、複数の予測値から認知症又は認知症以外の何れかの認知状況を識別するための閾値を算出することができる。
【0040】
(3)本実施形態においては、支援装置20の制御部21は、予測対象者データの取得処理を実行する(ステップS13)。これにより、予測対象者の音声について複数種類の変数値を算出することができる。
【0041】
(4)本実施形態においては、支援装置20の制御部21は、予測処理を実行する(ステップS14)。これにより、予測対象者の音声から、認知症又は認知症以外の何れかの認知状況を予測することができる。
【0042】
図5図7は、[変数1]~[変数7]を用いた場合のAUC(Area Under the ROC Curve)を示す。このAUCは、値が「1」に近いほど判別能が高いことを示している。図5(a)は、[変数1]~[変数7]のすべての変数を用いた場合の評価結果R7である。図5(b)は、[変数1]~[変数7]の中で6変数を用いた場合に、AUCが高い順番に並べた組み合わせの評価結果R6を示している。変数の選び方にも依存するが、AUCに大きな変化はない。
【0043】
図5(c)は、[変数1]~[変数7]の中で5変数を用いた場合に、AUCが高い順番に並べた10個の組み合わせの評価結果R5を示している。AUCに大きな変化はないが、AUCが高い組み合わせには、[変数1]、[変数7]が含まれる。
【0044】
図6(a)は、[変数1]~[変数7]の中で4変数を用いた場合に、AUCが高い順番に並べた10個の組み合わせの評価結果R4を示している。ここでも、AUCが高い組み合わせには、[変数1]、[変数7]が含まれる。
【0045】
図6(b)は、[変数1]~[変数7]の中で3変数を用いた場合に、AUCが高い順番に並べた10個の組み合わせの評価結果R3を示している。3変数の場合には、AUCに若干の低下が見られる。
【0046】
図7(a)は、[変数1]~[変数7]の中で、2変数を用いた場合に、AUCが高い順番に並べた10個の組み合わせの評価結果R2を示している。また、図7(b)は、[変数1]~[変数7]の中で1変数を用いた場合の評価結果R1である。いずれも、AUCの低下が見られる。
この意味では、複数の変数を用いることにより、AUCが向上する。
【0047】
本実施形態は、以下のように変更して実施することができる。本実施形態、以下の実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
【0048】
・上記実施形態では、ユーザ端末10、支援装置20を用いるが、ハードウェア構成はこれらに限定されるものではない。ユーザ端末10、支援装置20を一つの装置で実現してもよい。また、支援装置20の機能を、クラウドサービスにより提供してもよい。
【0049】
・上記実施形態では、音声の特徴量として、[変数1]~[変数7]の変数値を用いる。全ての要素を用いる必要はなく、一部の要素や他の要素を用いてもよい。パワースペクトルの形状を示す統計値であればよい。また、[変数1]~[変数3]については、平均値に代えて、また、[変数4]~[変数6]については、パワースペクトルについての形状の分散状況を示す統計値を用いてもよい。例えば、[変数1]~[変数7]について、分散、面積、ピークの数、線の長さ等を用いる。
【0050】
・上記実施形態では、支援装置20の制御部21は、予測対象者データの取得処理を実行する(ステップS13)。ここでは、制御部21の管理部211は、ユーザ端末10に、ガイド画面を出力する。これに代えて、医師等が質問を行なって、予測対象者の音声を取得するようにしてもよい。また、ガイド画面は必須ではなく、音声が取得できればよい。また、取得する発話内容も、ガイドに従ったものである必要はなく、自然な会話等から取得してもよい。例えば、医師等の人間や、バーチャル空間内のアバター等のように人間以外のものによる質問を用いてもよい。また、日常生活の会話、電話の通話音声も用いることもできる。
【0051】
・上記実施形態では、音声の特徴量を用いて、認知状況を予測する。これに加えて、性別や年齢などのユーザ属性を用いてもよい。例えば、[変数1]パワースペクトルの重心の平均は、性別に依存する可能性があるので、これに代えて、ユーザ属性として取得した性別情報を用いて、学習処理や予測処理を行なうようにしてもよい。
【0052】
また、顔や手足等の予測対象者の画像や、発話内容を音声認識した自然言語等の情報を用いてもよい。この場合には、学習対象者を撮影した動画における動きの特徴量や、発話内容を音声認識したテキスト情報の特徴量を含めた教師情報を用いて、予測モデルを生成する。
また、発声データに関しては、有声区間の時間や頻度、無声区間の時間や頻度及び質問から回答までの応答時間等のように、音声から得られる、分布形状以外の情報を変数として用いてもよい。
【0053】
・上記実施形態では、支援装置20の制御部21は、予測処理を実行する(ステップS14)。ここでは、予測部213は、発声ブロック毎の予測値の統計値(例えば、平均値)を算出して、学習結果記憶部24に記録されている閾値と比較することにより、認知状況を予測する。ここで、発声ブロック毎の予測値を評価できる情報であれば、統計値に限定されない。例えば、予測値の多数決で、認知状況を予測するようにしてもよい。
また、複数の異なる予測モデルを用いるアンサンブル学習を行なって、予測値を求めてもよい。この場合には、例えば、変数1~7の組み合わせが異なる複数の予測モデルを用いる。または、機械学習の手法が異なる複数の予測モデルを用いてもよい。各モデルの予測値から、全体の認知状況を予測する場合には、統計値のみならず、多数決で認知状況を予測してもよい。
【符号の説明】
【0054】
10…ユーザ端末、20…支援装置、21…制御部、211…管理部、212…学習部、213…予測部、22…音声情報記憶部、23…教師情報記憶部、24…学習結果記憶部。
【要約】
【課題】予測対象者の発声に基づいて、認知状況を把握するための予測システム、予測方法及び予測プログラムを提供する。
【解決手段】支援装置20は、学習対象者の発声データの機械学習を行なう制御部21を備える。そして、制御部21が、学習対象者の発声データの発声区間を、時間間隔に分割した複数の発声ブロックを生成し、発声ブロック毎にスペクトログラムを算出する。更に、制御部21は、スペクトログラム毎にパワースペクトルの分布形状の特徴量を算出する。そして、制御部21は、特徴量と認知症診断情報に基づく認知状況ラベルとを関連付けたデータセットを教師情報として学習して予測モデルを生成する。そして、予測対象者の発声データを取得した場合、予測モデルを用いて、予測対象者の発声データの特徴量から認知状況ラベルを予測する。
【選択図】図1
図1
図2
図3
図4
図5
図6
図7