(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024113782
(43)【公開日】2024-08-23
(54)【発明の名称】推定プログラム、推定方法および推定装置
(51)【国際特許分類】
G16H 50/20 20180101AFI20240816BHJP
A61B 10/00 20060101ALI20240816BHJP
【FI】
G16H50/20
A61B10/00 H
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2023018966
(22)【出願日】2023-02-10
(71)【出願人】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(71)【出願人】
【識別番号】502285457
【氏名又は名称】学校法人順天堂
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】陽奥 幸宏
(72)【発明者】
【氏名】▲ミイ▼ 暁宇
(72)【発明者】
【氏名】柴田 展人
【テーマコード(参考)】
5L099
【Fターム(参考)】
5L099AA11
(57)【要約】
【課題】認知症に関する症状の検査時間を短縮することを課題とする。
【解決手段】推定装置は、各認知機能に対応する各特定のタスクを実施している患者の顔を含む映像データを取得し、映像データを第一の機械学習モデルに入力することで、各特定のタスクを実行している患者の顔に含まれるアクションユニット毎の発生強度をそれぞれ検出する。推定装置は、各認知機能に対して生成された各第二の機械学習モデルに、各認知機能に対応する各特定のタスクを実行している際のアクションユニット毎の発生強度の時間的な変化を入力することで、認知症に関する検査を実行する検査ツールに含まれる前記各認知機能の検査スコアを推定し、各認知機能の検査スコアに基づき、検査ツールの検査スコアを推定する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
コンピュータに、
各認知機能に対応する各特定のタスクを実施している患者の顔を含む映像データを取得し、
取得した前記映像データを第一の機械学習モデルに入力することで、前記各特定のタスクを実行している前記患者の顔に含まれるアクションユニット毎の発生強度をそれぞれ検出し、
前記各認知機能に対して生成された各第二の機械学習モデルに、前記各認知機能に対応する前記各特定のタスクを実行している際の前記アクションユニット毎の発生強度の時間的な変化を入力することで、認知症に関する検査を実行する検査ツールに含まれる前記各認知機能の検査スコアを推定し、
前記各認知機能の検査スコアに基づき、前記検査ツールの検査スコアを推定する、
処理を実行させることを特徴とする推定プログラム。
【請求項2】
前記各認知機能の検査スコアを推定する処理は、
前記各第二の機械学習モデルに、前記各認知機能に対応する前記各特定のタスクを実行している際の前記アクションユニット毎の発生強度の時間的な変化と、前記各特定のタスクのスコアとを入力することで、前記各認知機能の検査スコアを推定する、
ことを特徴とする請求項1に記載の推定プログラム。
【請求項3】
前記各認知機能の検査スコアを推定する処理は、
前記各第二の機械学習モデルに、前記各認知機能に対応する前記各特定のタスクを実行している際の前記アクションユニット毎の発生強度の時間的な変化と、前記各特定のタスクを実行している際の前記患者の顔の向きに関する情報とを入力することで、前記各認知機能の検査スコアを推定する、
ことを特徴とする請求項1または2に記載の推定プログラム。
【請求項4】
前記検査ツールの検査スコアを推定する処理は、
前記各認知機能の検査スコアを説明変数、前記検査ツールの検査スコアを目的変数とする訓練データを用いて訓練された第3の機械学習モデルに、前記各認知機能に対して生成された各第二の機械学習モデルの出力結果を入力することで、前記検査ツールの検査スコアを推定する、
ことを特徴とする請求項1に記載の推定プログラム。
【請求項5】
コンピュータが、
各認知機能に対応する各特定のタスクを実施している患者の顔を含む映像データを取得し、
取得した前記映像データを第一の機械学習モデルに入力することで、前記各特定のタスクを実行している前記患者の顔に含まれるアクションユニット毎の発生強度をそれぞれ検出し、
前記各認知機能に対して生成された各第二の機械学習モデルに、前記各認知機能に対応する前記各特定のタスクを実行している際の前記アクションユニット毎の発生強度の時間的な変化を入力することで、認知症に関する検査を実行する検査ツールに含まれる前記各認知機能の検査スコアを推定し、
前記各認知機能の検査スコアに基づき、前記検査ツールの検査スコアを推定する、
処理を実行することを特徴とする推定方法。
【請求項6】
各認知機能に対応する各特定のタスクを実施している患者の顔を含む映像データを取得し、
取得した前記映像データを第一の機械学習モデルに入力することで、前記各特定のタスクを実行している前記患者の顔に含まれるアクションユニット毎の発生強度をそれぞれ検出し、
前記各認知機能に対して生成された各第二の機械学習モデルに、前記各認知機能に対応する前記各特定のタスクを実行している際の前記アクションユニット毎の発生強度の時間的な変化を入力することで、認知症に関する検査を実行する検査ツールに含まれる前記各認知機能の検査スコアを推定し、
前記各認知機能の検査スコアに基づき、前記検査ツールの検査スコアを推定する、
制御部を有することを特徴とする推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、推定プログラム、推定方法および推定装置に関する。
【背景技術】
【0002】
従来から、専門の医師が被験者に検査ツールを実行し、その結果から、食事や入浴などの基本的な動作も行うことができない認知症や、基本的な動作が行えるが買い物や家事など複雑な動作を行うことができない軽度の認知機能障害の診断することが知られている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、検査には専門知識を有する検者が実施することが要求され、検査ツールには10から20分の時間を要するので、検査ツールの実施、検査スコアの取得、診断までにかかる検査時間が長い。
【0005】
一つの側面では、認知症に関する症状の検査時間を短縮することができる推定プログラム、推定方法および推定装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
第1の案では、推定プログラムは、コンピュータに、各認知機能に対応する各特定のタスクを実施している患者の顔を含む映像データを取得し、取得した前記映像データを第一の機械学習モデルに入力することで、前記各特定のタスクを実行している前記患者の顔に含まれるアクションユニット毎の発生強度をそれぞれ検出し、前記各認知機能に対して生成された各第二の機械学習モデルに、前記各認知機能に対応する前記各特定のタスクを実行している際の前記アクションユニット毎の発生強度の時間的な変化を入力することで、認知症に関する検査を実行する検査ツールに含まれる前記各認知機能の検査スコアを推定し、前記各認知機能の検査スコアに基づき、前記検査ツールの検査スコアを推定する、処理を実行させることを特徴とする。
【発明の効果】
【0007】
一実施形態によれば、認知症に関する症状の検査時間を短縮することができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、実施例1にかかる推定装置を説明する図である。
【
図2】
図2は、実施例1にかかる推定装置の機能構成を示す機能ブロック図である。
【
図3】
図3は、第1の機械学習モデルの生成例を説明する図である。
【
図5】
図5は、マーカの移動について説明する図である。
【
図6】
図6は、各第2の機械学習モデルの訓練を説明する図である。
【
図7】
図7は、認知機能の分類を説明する図である。
【
図11】
図11は、タスクアプリATMTを説明する図である。
【
図12】
図12は、タスクアプリ物品呼称を説明する図である。
【
図13】
図13は、タスクアプリ類似課題を説明する図である。
【
図15】
図15は、タスクアプリ数字の逆唱を説明する図である。
【
図16】
図16は、タスクアプリ高難易度課題を説明する図である。
【
図17】
図17は、タスクアプリ即時再生を説明する図である。
【
図18】
図18は、タスクアプリ遅延再生を説明する図である。
【
図19】
図19は、タスクアプリ時間の見当識を説明する図である。
【
図20】
図20は、タスクアプリ場所の見当識を説明する図である。
【
図21】
図21は、各第2の機械学習モデルの訓練データの生成と機械学習を説明する図である。
【
図22】
図22は、第3の機械学習モデルの機械学習を説明する図である。
【
図23】
図23は、検査スコアの推定の詳細を説明する図である。
【
図24】
図24は、検査スコアの推定の詳細を説明する図である。
【
図25】
図25は、事前処理の流れを示すフローチャートである。
【
図26】
図26は、推定処理の流れを示すフローチャートである。
【
図27】
図27は、検査スコアの推定アプリケーションの利用形態の例を説明する図である。
【発明を実施するための形態】
【0009】
以下に、本願の開示する推定プログラム、推定方法および推定装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
【実施例0010】
<全体構成>
図1は、実施例1にかかる推定装置10を説明する図である。
図1に示す推定装置10は、表情認識技術を用いて、簡単なタスクと表情から、医師が認知症の診断に用いる検査ツールの検査スコアを推定するコンピュータの一例である。
【0011】
具体的には、推定装置10は、各認知機能に対応する各特定のタスクを実施している患者の顔を含む映像データを取得する。そして、推定装置10は、取得した映像データを第1の機械学習モデルに入力することで、各特定のタスクを実行している患者の顔に含まれるアクションユニット(Action Unit:AU)毎の発生強度をそれぞれ検出する。続いて、推定装置10は、各認知機能に対して生成された各第2の機械学習モデルに、各認知機能に対応する各特定のタスクを実行している際のアクションユニット毎の発生強度の時間的な変化を入力することで、認知症に関する検査を実行する検査ツールに含まれる各認知機能の検査スコアを推定する。その後、推定装置10は、各認知機能の検査スコアに基づき、検査ツールの検査スコアを推定する。
【0012】
例えば、
図1に示すように、推定装置10は、特定のタスク1を実行しているときの患者の映像データ、特定のタスク2を実行しているときの患者の映像データ、特定のタスク3を実行しているときの患者の映像データ、特定のタスク4を実行しているときの患者の映像データを取得する。ここで、各特定のタスクは、認知機能ごとに分類されたタスクアプリの一例であり、認知機能に負荷をかけて認知機能を検査するアプリケーションまたは対話型のアプリケーションの一例である。また、特定のタスクは、医師が利用する厳格な検査ツールと比べると、患者にとって短時間で簡単に利用できるツールである。
【0013】
続いて、推定装置10は、特定のタスク1から4を実行しているときの撮像された映像データを第1の機械学習モデルに入力して、各AUの発生強度(値)を取得する。すなわち、推定装置10は、特定のタスク1を実行しているときの各AUの時間変化、特定のタスク2を実行しているときの各AUの時間変化、特定のタスク3を実行しているときの各AUの時間変化、特定のタスク4を実行しているときの各AUの時間変化を取得する。
【0014】
そして、推定装置10は、特定のタスク1を実行しているときの各AUの時間変化を、特定のタスク1が対象とする認知機能1用に生成された第2の機械学習モデルに入力して、認知機能1に対応する検査スコア1を取得する。同様に、推定装置10は、特定のタスク2を実行しているときの各AUの時間変化を、特定のタスク2が対象とする認知機能2用に生成された第2の機械学習モデルに入力して、認知機能2に対応する検査スコア2を取得する。推定装置10は、特定のタスク3を実行しているときの各AUの時間変化を、特定のタスク3が対象とする認知機能3用に生成された第2の機械学習モデルに入力して、認知機能3に対応する検査スコア3を取得する。推定装置10は、特定のタスク4を実行しているときの各AUの時間変化を、特定のタスク4が対象とする認知機能4用に生成された第2の機械学習モデルに入力して、認知機能4に対応する検査スコア4を取得する。
【0015】
その後、推定装置10は、検査スコア1、検査スコア2、検査スコア3、検査スコア4を用いて、検査ツールの全体的なスコアを推定する。例えば、推定装置10は、検査スコア1、検査スコア2、検査スコア3、検査スコア4を、予め生成された第3の機械学習モデルに入力して、検査ツールの全体的なスコアを推定したり、各検査スコアを合算して検査ツールの全体的なスコアを推定したりする。
【0016】
このように、推定装置10は、AUを用いることで、個人差が少なく、かつ、細かな表情の変化を捉えることが可能となり、検査ツールの検査スコアを短時間で推定することができるので、認知症に関する症状の検査時間を短縮することができる。
【0017】
<機能構成>
図2は、実施例1にかかる推定装置10の機能構成を示す機能ブロック図である。
図2に示すように、推定装置10は、通信部11、出力部12、撮像部13、記憶部20、制御部30を有する。
【0018】
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどにより実現される。例えば、通信部11は、後述する映像データや特定のタスクのスコアを受信し、後述する制御部30により処理結果を予め指定された宛先に送信する。
【0019】
出力部12は、各種情報を表示出力する処理部であり、例えばディスプレイやタッチパネルなどにより実現される。例えば、出力部12は、特定のタスクを出力して、特定のタスクに対する回答を受け付ける。
【0020】
撮像部13は、映像を撮像して映像データを取得する処理部であり、例えばカメラなどにより実現される。例えば、撮像部13は、患者が特定のタスクを行っている間、患者の顔を含む映像を撮像し、映像データとして記憶部20に格納する。
【0021】
記憶部20は、各種データや制御部30が実行するプログラムなどを記憶する処理部であり、例えばメモリやハードディスクなどにより実現される。この記憶部20は、訓練データDB21、映像データDB22、第1の機械学習モデル23、各第2の機械学習モデル24、第3の機械学習モデル25を記憶する。
【0022】
訓練データDB21は、第1の機械学習モデル23、各第2の機械学習モデル24、第3の機械学習モデル25の生成に用いられる各種訓練データを記憶するデータベースである。ここで記憶される訓練データには、正解情報が付加された教師ありの訓練データや、正解情報が付加されていない教師なしの訓練データを含めることができる。
【0023】
映像データDB22は、撮像部13により撮像された映像データを記憶するデータベースである。例えば、映像データDB22は、患者ごとに、各特定のタスクを行っている間の患者の顔を含む映像データを記憶する。なお、映像データには、時系列の複数のフレームが含まれる。各フレームには、時系列の昇順に、フレーム番号が付与される。1つのフレームは、撮像部13があるタイミングで撮影した静止画像の画像データである。
【0024】
第1の機械学習モデル23は、映像データに含まれる各フレーム(画像データ)の入力に応じて、AUそれぞれの発生強度を出力する機械学習モデルである。具体的には、第1の機械学習モデル23は、表情を顔の部位と表情筋に基づいて分解して定量化する手法であるAUを推定する。この第1の機械学習モデル23は、画像データの入力に応じて、表情を特定するために設定されるAU1からAU28の各AUの発生強度(例えば5段階評価)で表現した「AU1:2、AU2:5、AU3:1、・・・」のような表情認識結果を出力する。なお、第1の機械学習モデル23には、ニューラルネットワークやランダムフォレストなどの各種アルゴリズムを採用することができる。
【0025】
各第2の機械学習モデル24は、特徴量の入力に応じて、分類された各認知機能に対応する検査スコアの推定結果を出力する機械学習モデルである。例えば、認知機能1に対応する第2の機械学習モデル24は、AUそれぞれの発生強度の時間的な変化(変化パターン)と認知機能1に対応する特定のタスクのスコアとを含む特徴量の入力に応じて、認知機能1の検査スコアを含む推定結果を出力する。なお、第2の機械学習モデル24には、ニューラルネットワークやランダムフォレストなどの各種アルゴリズムを採用することができる。
【0026】
第3の機械学習モデル25は、各認知機能に対応する検査スコアから、検査ツールの全体的な検査スコアの推定結果を出力する機械学習モデルである。例えば、第3の機械学習モデル25は、各認知機能に対応する第2の機械学習モデル24それぞれの出力結果の入力に応じて、検査ツールの全体的な検査スコアの推定結果を出力する。なお、第3の機械学習モデル25には、ニューラルネットワークやランダムフォレストなどの各種アルゴリズムを採用することができる。
【0027】
制御部30は、推定装置10全体を司る処理部であり、例えばプロセッサなどにより実現される。この制御部30は、事前処理部40と運用処理部50を有する。なお、事前処理部40と運用処理部50は、プロセッサが有する電子回路やプロセッサが実行するプロセスなどにより実現される。
【0028】
(事前処理部40)
事前処理部40は、検査スコアの推定の運用に先立って、記憶部20に記憶される訓練データを用いて、各モデルの生成を実行する処理部である。事前処理部40は、第1訓練部41、第2訓練部42、第3訓練部43を有する。
【0029】
第1訓練部41は、訓練データを用いた訓練により、第1の機械学習モデル23の生成を実行する処理部である。具体的には、第1訓練部41は、正解情報(ラベル)付の訓練データを用いた教師あり学習により、第1の機械学習モデル23を生成する。
【0030】
ここで、
図3から
図5を用いて、第1の機械学習モデル23の生成を説明する。
図3は、第1の機械学習モデル23の生成例を説明する図である。
図3に示すように、第1訓練部41は、RGB(Red、Green、Blue)カメラ25a、IR(infrared:赤外線)カメラ25bのそれぞれにより撮像された画像データに対して、訓練データの生成および機械学習を実行する。
【0031】
図3に示すように、まず、RGBカメラ25a及びIRカメラ25bは、マーカが付された人物の顔に向けられる。例えば、RGBカメラ25aは一般的なデジタルカメラであり、可視光を受光し画像を生成する。また、例えば、IRカメラ25bは、赤外線を感知する。また、マーカは、例えばIR反射(再帰性反射)マーカである。IRカメラ25bは、マーカによるIR反射を利用してモーションキャプチャを行うことができる。また、以降の説明では、撮像対象の人物を被験者と呼ぶ。
【0032】
訓練データの生成処理において、第1訓練部41は、RGBカメラ25aによって撮像された画像データ及びIRカメラ25bによるモーションキャプチャの結果を取得する。そして、第1訓練部41は、AUの発生強度121及び撮像画像データから画像処理によりマーカを削除した画像データ122を生成する。例えば、発生強度121は、各AUの発生強度をAからEの5段階評価で表現し、「AU1:2、AU2:5、AU3:1、…」のようにアノテーションが行われたデータであってもよい。
【0033】
機械学習処理において、第1訓練部41は、訓練データの生成処理から出力された画像データ122及びAUの発生強度121を用いて機械学習を行い、画像データからAUの発生強度を推定するための第1の機械学習モデル23を生成する。第1訓練部41は、AUの発生強度をラベルとして用いることができる。
【0034】
ここで、
図4を用いて、カメラの配置について説明する。
図4は、カメラの配置例を示す図である。
図4に示すように、複数のIRカメラ25bがマーカトラッキングシステムを構成していてもよい。その場合、マーカトラッキングシステムは、ステレオ撮影によりIR反射マーカの位置を検出することができる。また、複数のIRカメラ25bのそれぞれの間の相対位置関係は、カメラキャリブレーションによりあらかじめ補正されているものとする。
【0035】
また、撮像される被験者の顔には、AU1からAU28をカバーするように、複数のマーカが付される。マーカの位置は、被験者の表情の変化に応じて変化する。例えば、マーカ401は、眉の根元付近に配置される。また、マーカ402及びマーカ403は、豊麗線の付近に配置される。マーカは、1つ以上のAU及び表情筋の動きに対応した皮膚の上に配置されてもよい。また、マーカは、しわの寄り等により、テクスチャ変化が大きくなる皮膚の上を避けて配置されてもよい。
【0036】
さらに、被験者は、顔の輪郭外に基準点マーカが付された器具25cを装着する。被験者の表情が変化しても、器具25cに付された基準点マーカの位置は変化しないものとする。このため、第1訓練部41は、基準点マーカからの相対的な位置の変化により、顔に付されたマーカの位置の変化を検出することができる。また、基準マーカの数を3つ以上にすることで、第1訓練部41は、3次元空間におけるマーカの位置を特定することができる。
【0037】
器具25cは、例えばヘッドバンドである。また、器具25cは、VRヘッドセット及び固い素材のマスク等であってもよい。その場合、第1訓練部41は、器具25cのリジッド表面を基準点マーカとして利用することができる。
【0038】
なお、IRカメラ25b及びRGBカメラ25aによる撮影が行われる際、被験者は表情を変化させていく。これにより、時系列に沿って表情が変化していく様子を画像として取得することができる。また、RGBカメラ25aは、動画を撮像してもよい。動画は、時系列に並べられた複数の静止画とみなすことができる。また、被験者は、自由に表情を変化させてもよいし、あらかじめ定められたシナリオに沿って表情を変化させてもよい。
【0039】
なお、AUの発生強度は、マーカの移動量により判定することができる。具体的には、第1訓練部41は、判定基準としてあらかじめ設定された位置と、マーカの位置との距離に基づいて算出したマーカの移動量を基に発生強度を判定することができる。
【0040】
ここで、
図5を用いて、マーカの移動について説明する。
図5は、マーカの移動について説明する図である。
図5の(a)、(b)、(c)は、RGBカメラ25aによって撮像された画像である。また、画像は、(a)、(b)、(c)の順で撮像されたものとする。例えば、(a)は、被験者が無表情であるときの画像である。第1訓練部41は、(a)の画像のマーカの位置を、移動量が0の基準位置とみなすことができる。
図5に示すように、被験者は、眉を寄せるような表情を取っている。このとき、表情の変化に従い、マーカ401の位置は下方向に移動している。その際、マーカ401の位置と、器具25cに付された基準マーカとの間の距離は大きくなっている。
【0041】
このようにして、第1訓練部41は、被験者のある表情が写った画像データと、その表情時の各マーカの強度とを特定し、説明変数「画像データ」、目的変数「各マーカの強度」とする訓練データを生成する。そして、第1訓練部41は、生成された訓練データを用いた教師あり学習により、第1の機械学習モデル23を生成する。例えば、第1の機械学習モデル23は、ニューラルネットワークである。第1訓練部41は、第1の機械学習モデル23の機械学習を実行することで、ニューラルネットワークのパラメータを変更する。第1訓練部41は、説明変数をニューラルネットワークに入力する。そして、第1訓練部41は、ニューラルネットワークから出力される出力結果と目的変数である正解データとの誤差が小さくなるようにニューラルネットワークのパラメータを変更した機械学習モデルを生成する。
【0042】
なお、第1の機械学習モデル23の生成は、あくまで一例であり、他の手法を用いることができる。また、第1の機械学習モデル23としては、特開2021-111114号公報に開示されるモデルを用いることもできる。また、顔の向きについても、同様の手法により学習することができる。
【0043】
第2訓練部42は、訓練データを用いた訓練により、各第2の機械学習モデル24の生成を実行する処理部である。具体的には、第2訓練部42は、正解情報(ラベル)付の訓練データを用いた教師あり学習により、各第2の機械学習モデル24を生成する。
【0044】
図6は、各第2の機械学習モデル24の訓練を説明する図である。
図6に示すように、第2訓練部42は、各認知機能に対応する第2の機械学習モデル24ごとに、予め用意した訓練データ、または、患者が特定のタスクを実行しているときの映像データと訓練済みの第1の機械学習モデル23とを用いて生成した訓練データを用いて訓練を実行する。
【0045】
例えば、第2訓練部42は、検査ツールの検査対象を分類した認知機能1に対応する第2の機械学習モデル24を訓練する場合、医師が患者に対して実行した検査ツールの「検査スコアの値」から認知機能1の検査スコア1を取得する。また、第2訓練部42は、患者が認知機能1に対応する特定のタスク1を実行した結果であるスコアと、患者が特定のタスク1を実行している間に撮像された患者の顔を含む映像データを第1の機械学習モデル23に入力して得られた各AUの発生強度および顔の向きとを取得する。
【0046】
そして、第2訓練部42は、「正解情報」として「検査スコア1の値」を含むとともに、「特徴量」として「各AUの発生強度の時間変化、顔の向きの時間変化、特定のタスク1のスコア」を含む訓練データを生成する。そして、第2訓練部42は、訓練データの特徴量を第2の機械学習モデル24に入力し、第2の機械学習モデル24の出力結果と正解情報(検査スコア1の値)との誤差が小さくなるように、認知機能1に対応する第2の機械学習モデル24のパラメータを更新することで、当該第2の機械学習モデル24の訓練を実行する。
【0047】
ここで、認知症関連の検査に利用されるMMSE(Mini Mental State Examination)を例にして、認知機能の分類について説明する。
図7は、認知機能の分類を説明する図である。
図7に示すように、検査ツール(MMSE)で検査される認知機能は、分類1から分類6に分類され、各分類には、特定のタスクの一例であるタスクアプリが対応付けられる。
【0048】
例えば、分類1は、「Visuospatial」に関する認知機能に該当し、MMSEでは「1点満点」の「図形描写」の検査内容が含まれ、タスクアプリでは「15点満点」の「ATMT(Advanced Trail Making Test)」を実行するアプリケーションが含まれる。分類2は、「Language」に関する認知機能に該当し、MMSEでは「1点満点」の「文の復唱」、「3点満点」の「口頭指示」、「1点満点」の「書字指示」、「1点満点」の「自発書字」、「2点満点」の「物品呼称写」の検査内容が含まれ、タスクアプリでは「3点満点」の「物品呼称」を実行するアプリケーションと「3点満点」の「類似課題」を実行するアプリケーションが含まれる。
【0049】
分類3は、「Concentration」に関する認知機能に該当し、MMSEでは「5点満点」の「計算」の検査内容が含まれ、タスクアプリでは「5点満点」の「引き算」を実行するアプリケーションと「2点満点」の「数字の逆唱」を実行するアプリケーションと「1点満点」の「高難易度課題」を実行するアプリケーションが含まれる。また、分類4は、「Working Memory」に関する認知機能に該当し、MMSEでは「3点満点」の「即時想起」の検査内容が含まれ、タスクアプリでは「3点満点」の「即時再生」を実行するアプリケーションが含まれる。
【0050】
分類5は、「Memory recall」に関する認知機能に該当し、MMSEでは「3点満点」の「遅延再生」の検査内容が含まれ、タスクアプリでは「3点満点」の「遅延再生」を実行するアプリケーションが含まれる。分類6は、「Orientation」に関する認知機能に該当し、MMSEでは「5点満点」の「時間の見当識」および「場所の見当識」の検査内容が含まれ、タスクアプリでは「4点満点」の「時間」を実行するアプリケーションおよび「3点満点」の「場所」を実行するアプリケーションが含まれる。
【0051】
上述した検査ツールとしては、MMSE以外にも、HDS-R(Hasegawa's Dementia Scale-Revised)、または、MoCA(Montreal Cognitive Assessment)などの認知症に関する検査を実行する検査ツールを用いることができる。
【0052】
図8は、MMSEを説明する図である。
図8に示すMMSEは、口頭、記述、描画などの回答方式で、11項目、30点満点の認識脳検査であり、6分から10分の所要時間が要求される。「時間の見当識、3単語の遅延再生、文字復唱、文字写字、場所の見当識、計算、3段階の口頭命令、図形模写、3単語の即時再生、物品呼称、写字命令」などの検査が行われる。判定基準は、点数で判定され、23点以下で認知症が疑われ、27点以下では経度認知障害(MCI:Mild Cognitive Impairment)が疑われる。例えば、得点ごとの判断基準としては、0点から10点が重度、11点から20点が中等度、21点から27点が経度、28点から30点が問題なしと設定される。
【0053】
図9は、HDS-Rを説明する図である。
図9に示すHDS-Rは、口頭のみの回答方式で、9項目、30点満点の認識脳検査であり、6分から10分の所要時間が要求される。「年齢、時間の見当識、場所の見当識、3単語の即時記銘、3単語の遅延再生、計算、数字の逆唱、物品記銘、言語流暢性」などの検査が行われる。判定基準は、点数で判定され、20点以下で認知症が疑われる。例えば、重症度ごとの判断基準としては、24.45点前後で非認知症、17.85点前後で経度認知症、14.10点前後で中等度認知症、9.23点前後でやや高度認知症、4.75点前後で高度認知症と設定される。
【0054】
図10は、MoCAを説明する図である。
図10に示すMoCAは、口頭、記述、描画の回答方式で、10分前後の所要時間が要求される。検査内容は、「視空間の遂行機能、命名、記憶、注意力、復唱、語想起、抽象概念、遅延再生、見当識」などが行われる。判定基準は、点数で判定され、25点以下でMCIが疑われる。基本的に、MoCAは、MCIのスクリーニング用である。
【0055】
次に、特定のタスク(タスクアプリ)それぞれについて説明する。
図11は、タスクアプリATMTを説明する図である。
図11に示すように、タスクアプリ(ATMT)は、ランダムに数字を並べ、「1」から順番に患者に選択させるタスクである。1をクリックすると、2のクリックが有効になり、2をクリックすると、3のクリックが有効となる。選択済みの番号は、色を変えて表示され、現在探索集の番号、残り時間はタスクの枠外に表示する。表示数がXXの場合、XX個完了するが、制限時間YY秒を超過したら終了となる。終了時間と達成数(正解数)とが記録され、正解数等に基づきスコアが決定される。なお、XXとYYは、任意に設定できる数値である。
【0056】
図12は、タスクアプリ物品呼称を説明する図である。
図12に示すように、タスクアプリ(物品呼称)は、例えば3つの絵を表示し、それが何かを患者に選択させるタスクである。例えば、犬の絵であれば、動物名一覧の中から「犬」が選択されると正解となる。3つの絵は「動物」、「乗り物」、「日用品」で何パターンかのうちランダムに選択される。患者による選択はラジオボタン式であり、3つを選び終わるか、制限時間YY秒を経過したら終了となる。終了時間と回答とが記録され、正解数等に基づきスコアが決定される。時間切れの場合、途中回答とYY秒が記録される。なお、YYは、任意に設定できる数値である。
【0057】
図13は、タスクアプリ類似課題を説明する図である。
図13に示すように、タスクアプリ(類似課題)は、2つの言葉に共通するものを選択させるタスクである。例えば、みかんとリンゴであれば、選択対象一覧の中から「果物」が選択されると正解となる。患者は、2つに共通するものをラジオボタン式で選択する。制限時間YY秒を経過したら終了となる。正解と選択結果とが記録され、正解数等に基づきスコアが決定される。時間切れの場合、正解と途中回答とが記録される。なお、YYは、任意に設定できる数値である。
【0058】
図14は、タスクアプリ引き算を説明する図である。
図14に示すように、タスクアプリ(引き算)は、例えば100を表示し、順に7ずつ引き算させるタスクである。現在入力中の項目は色を変えて表示され、最大数(XX)回計算したら終了する。XX回の計算を終えるか、制限時間YY秒を超過したら終了となる。終了時間と回答とが記録され、正解数等に基づきスコアが決定される。時間切れの場合は、途中回答と制限時間が記録される。なお、XXとYYは、任意に設定できる数値である。
【0059】
図15は、タスクアプリ数字の逆唱を説明する図である。
図15に示すように、タスクアプリ(数字の逆唱)は、例えば表示されている数字を逆順にして入力させるタスクである。例えば、425が表示された場合には、5、2、4が順に入力されると正解となる。ランダムで、3桁の数字と4桁の数字とを表示して逆唱させる。それぞれの数字は、XX秒間表示させ、回答時間は、それぞれYY秒とする。2問の回答が終了するが、制限時間を超過したら終了となる。表示した数字と回答のセットが記録され、正解数等に基づきスコアが決定される。なお、XXとYYは、任意に設定できる数値である。
【0060】
図16は、タスクアプリ高難易度課題を説明する図である。
図16に示すように、タスクアプリ(高難易度課題)は、例えば加算した数字がZZZになるよう3つの数字を選択させるタスクである。例えば、166が表示された場合には、27、64、75が選択されると正解となる。チェックボックス式で12個の数字をランダムに表示して、3つの数字をチェックボックスで選択させる。制限時間は、YY秒とする。正解と選択結果とが記録され、正解数等に基づきスコアが決定される。時間切れの場合は、正解と途中回答とが記録される。なお、XXとYYは、任意に設定できる数値である。
【0061】
図17は、タスクアプリ即時再生を説明する図である。
図17に示すように、タスクアプリ(即時再生)は、例えば3つの言葉を並べ記憶するよう指示し、その後、並べた数字の表示を消してすぐに回答選択させ、その後、再度表示し、記憶するよう指示するタスクである。例えば、犬、ひまわり、電車を表示して記憶するよう指示し、YY秒後に表示が消される。その後に動物、植物、乗り物に関する単語をランダムに表示させて、チェックボックス式で選択させ、ZZ秒経過で終了する。さらに、もう一度同じ3語を表示し、「あとでもう一度聞くので覚えておいてください」と指示する。表示された3つの単語と選択した単語とが記録され、正解数等に基づきスコアが決定される。時間切れの場合は、選択された単語が記録される。なお、YYとZZは、任意に設定できる数値である。
【0062】
図18は、タスクアプリ遅延再生を説明する図である。
図18に示すように、タスクアプリ(遅延再生)は、例えば
図17の即時再生で表示させた3語を選択させるタスクである。上記例で説明すると、ランダムに表示された単語の中から、犬、ひまわり、電車をチェックボックスで選択させる。制限時間は、YY秒とする。正解と選択結果とが記録され、正解数等に基づきスコアが決定される。時間切れの場合は、正解と途中回答とが記録される。なお、YYは、任意に設定できる数値である。
【0063】
図19は、タスクアプリ時間の見当識を説明する図である。
図19に示すように、タスクアプリ(時間の見当識)は、今日の日付を患者に選択させるタスクである。選択は、ラジオボタン式であり、年から順に年、月、日、曜日と選択させる。回答を終了するか、制限時間が超過したら終了となる。回答終了時間と回答とが記録され、正解数等に基づきスコアが決定される。なお、時間切れの場合は、途中回答と制限時間が記録される。
【0064】
図20は、タスクアプリ場所の見当識を説明する図である。
図20に示すように、タスクアプリ(場所の見当識)は、リストから今の場所を患者に選択させるタスクである。選択は、ラジオボタン式であり、県から順に県、市、場所と選択させる。回答を終了するか、制限時間が超過したら終了となる。回答終了時間と回答とが記録され、正解数等に基づきスコアが決定される。なお、時間切れの場合は、途中回答と制限時間が記録される。
【0065】
上述したように、第2訓練部42は、分類ごとに、「AUの時間変化、顔の向き、タスクアプリのスコア」の入力に応じて、当該分類に対応する検査ツールの検査スコアを出力するように、第2の機械学習モデル24を生成する。
【0066】
図21は、各第2の機械学習モデル24の訓練データの生成と機械学習を説明する図である。
図21に示すように、第2訓練部42は、複数のタスクアプリを含む特定のタスクが開始されてから終了するまでに撮像された映像データをカメラなどから取得し、各タスクアプリの実行時間等に基づき、映像データをタスクアプリごとに分割する。
【0067】
例えば、第2訓練部42は、認知機能の分類1に対応するタスクアプリ(ATMT)の実行時の各フレーム(画像データ)を訓練済みの第1の機械学習モデル23に入力し、「AU1:2、AU2:5・・・」および「顔の向き:A」、「AU1:2、AU2:6・・・」および「顔の向き:A」などを取得する。このようにして、第2訓練部42は、映像データから、分類1のタスクアプリ(ATMT)を実行しているときの患者の各AUの時間変化と患者の顔の向きの時間変化とを特定する。
【0068】
また、第2訓練部42は、特定のタスクの終了後に出力されるスコア「XX」を取得し、その中からATMTのスコア「XX1」を取得する。また、第2訓練部42は、特定のタスクを実行した患者に対して医師が実行した検査ツールの結果(値)である「検査スコア:EE」を医師や電子カルテなどから取得し、そのうちATMTに対応する検査スコア「EE1」を取得する。
【0069】
そして、第2訓練部42は、「各AUの発生強度」と「顔の向き」と「スコア(XX1)」とを説明変数、「検査スコア:EE1」を目的変数とする訓練データを生成し、分類1対応の第2の機械学習モデル24を生成する。すなわち、第2の機械学習モデル24は、「各AUの発生強度の時間変化の変化パターン、顔の向きの時間変化の変化パターン、ATMTのスコア」と、「ATMTの検査スコア:EE1」との関係を訓練する。
【0070】
別例を説明すると、第2訓練部42は、認知機能の分類2に対応するタスクアプリ(物品呼称)およびタスクアプリ(類似課題)の実行時の各フレームを訓練済みの第1の機械学習モデル23に入力し、「各AUの発生強度」および「顔の向き」などを取得する。このようにして、第2訓練部42は、映像データから、分類2のタスクアプリ(物品呼称)およびタスクアプリ(類似課題)を実行しているときの患者の各AUの時間変化と患者の顔の向きの時間変化とを特定する。
【0071】
また、第2訓練部42は、特定のタスクの終了後に出力されるスコア「XX」を取得し、その中から分類2(物品呼称と類似課題)のスコアを取得する。また、第2訓練部42は、検査ツールの結果から分類2に対応する検査スコアを取得する。
【0072】
そして、第2訓練部42は、「各AUの発生強度」と「顔の向き」と「スコア」とを説明変数、「検査スコア」を目的変数とする訓練データを生成し、分類2対応の第2の機械学習モデル24を生成する。
【0073】
図2に戻り、第3訓練部43は、各認知機能の検査スコアを説明変数、検査ツールの検査スコアを目的変数とする訓練データを用いて第3の機械学習モデル25を訓練する処理部である。すなわち、第3訓練部43は、各認知機能(各分類)に対して生成された各第2の機械学習モデル24の出力結果を用いたアンサンブル学習により、検査ツールの全体的な検査スコアを推定する第3の機械学習モデル25を生成する。
【0074】
図22は、第3の機械学習モデルの機械学習を説明する図である。
図22に示すように、第3訓練部43は、検査ツールのうち分類1に対応する認知機能の検査スコア1、分類2に対応する認知機能の検査スコア2などの各認知機能の検査スコア(検査スコア1から検査スコアn)を説明変数、検査ツール自体のスコアである全体の検査スコアを目的変数とする訓練データを用いた重回帰分析により、第3の機械学習モデル25を訓練する。
【0075】
(運用処理部50)
図2に戻り、運用処理部50は、タスク実行部51、映像取得部52、AU検出部53、第1推定部54、第2推定部55を有し、事前処理部40により事前に準備された各モデルを用いて、映像データに写る人物(患者)の検査スコアを推定する処理部である。
【0076】
タスク実行部51は、患者に対して特定のタスクを実行し、スコアを取得する処理部である。例えば、タスク実行部51は、
図11から
図20に示した各タスクアプリを出力部12に表示し、患者からの回答(入力)を受け付けることで、各タスクアプリを実行する。その後、タスク実行部51は、各タスクアプリが終了すると各タスクアプリのスコアを取得し、推定部54等に出力する。
【0077】
映像取得部52は、複数のタスクアプリを含む特定のタスクを実施している患者の顔を含む映像データを取得する処理部である。例えば、映像取得部52は、特定のタスクが開始されると、撮像部13による撮像を開始し、特定のタスクが終了すると、撮像部13による撮像を終了し、特定のタスクが実行されている間の映像データを、撮像部13より取得する。
【0078】
そして、映像取得部52は、取得した映像データを映像データDB22に格納し、AU検出部53に出力する。なお、映像取得部52は、各タスクアプリの実行時間を取得することで、映像データをタスクアプリごとに分割することもできる。
【0079】
AU検出部53は、映像取得部52により取得された映像データを第1の機械学習モデル23に入力することで、患者の顔に含まれるAU毎の発生強度を検出する処理部である。例えば、AU検出部53は、分類(認知機能)ごとまたはタスクアプリごとに、対応する映像データ内の各フレームを第1の機械学習モデル23に入力し、フレームごとにAUの発生強度と患者の顔の向きを検出する。そして、AU検出部53は、検出されたフレームごとにAUの発生強度と患者の顔の向きを、第1推定部54に出力する。
【0080】
このようにして、AU検出部53は、タスクアプリごと、すなわち認知機能ごとに、AU毎の発生強度の時間変化および顔の向きの時間変化を検出することができる。なお、顔の向きは、AUの発生強度から特定することもできる。
【0081】
第1推定部54は、各認知機能(各分類)に対して生成された各第2の機械学習モデル24に、各認知機能に含まれる各タスクアプリを実行している際のAU毎の発生強度の時間的な変化を含む特徴量を入力することで、認知症に関する検査を実行する検査ツールに含まれる各認知機能の検査スコアを推定する処理部である。
【0082】
例えば、第1推定部54は、タスク実行部51からタスクアプリごとのスコアを取得し、AU検出部53からタスクアプリごとにAU毎の発生強度の時間変化および顔の向きの時間変化を取得する。そして、第1推定部54は、認知機能(分類)ごとに生成された各第2の機械学習モデル24に、当該認知機能のタスクアプリにより患者にテストが行われているときの「AU毎の発生強度の時間変化、顔の向きの時間変化、タスクアプリのスコア」を入力して、各第2の機械学習モデル24の出力結果を取得する。すなわち、第1推定部54は、各第2の機械学習モデル24を用いて、認知機能ごとの検査スコアの推定結果を取得する。
【0083】
第2推定部55は、各認知機能の検査スコアに基づき、検査ツールの検査スコアを推定する処理部である。例えば、第2推定部55は、第1推定部54から認知機能ごと(分類ごと)の検査スコアの推定結果を取得し、各検査スコアを第3の機械学習モデル25に入力し、第3の機械学習モデル25の出力結果を取得する。そして、第2推定部55は、第3の機械学習モデル25の出力結果に含まれる各検査スコアの値の確率値(信頼度)のうち、最も確率値が大きい値を検査スコアの推定結果として取得する。その後、第2推定部55は、推定結果を出力部12に表示出力し、記憶部20に格納する。
【0084】
ここで、検査スコアの推定の詳細について説明する。
図23と
図24は、検査スコアの推定の詳細を説明する図である。
図23に示すように、運用処理部50は、特定のタスクが開始されてから終了するまでに撮像された映像データを取得し、特定のタスクに含まれるタスクアプリを実行しているときの映像データを取得する。
【0085】
続いて、運用処理部50は、タスクアプリごとの映像データを第1の機械学習モデル23に入力して、タスクアプリごともしくは分類ごとに、各AUの発生強度の時間変化および顔の向きの時間変化を取得する。
【0086】
例えば、運用処理部50は、分類1のタスクアプリ(ATMT)を実行しているときの映像データを第1の機械学習モデル23に入力して、分類1の認知機能のタスク(ATMT)を実行しているときの各AUの発生強度の時間変化および顔の向きの時間変化を取得する。同様に、運用処理部50は、タスクアプリ(物品呼称)などの各タスクアプリを実行しているときの映像データを第1の機械学習モデル23に入力して、タスクアプリ(物品呼称)などの各タスクアプリを実行しているときの各AUの発生強度の時間変化および顔の向きの時間変化を取得する。
【0087】
そして、運用処理部50は、特定のタスクのスコアを取得し、認知機能(分類)ごとのスコアを特定する。続いて、運用処理部50は、各認知機能の各AUの発生強度の時間変化および顔の向きの時間変化と各認知機能のスコアとを、各認知機能に対応する各第2の機械学習モデル24に入力して、各認知機能の検査ツールの検査スコアを推定する。
【0088】
例えば、運用処理部50は、分類1のタスクアプリ(ATMT)の各AUの発生強度の時間変化および顔の向きの時間変化と、タスクアプリ(ATMT)のスコアとを、タスクアプリ(ATMT)に対応する第2の機械学習モデル24に入力して、分類1に対応する検査ツールの検査スコアを推定する。
【0089】
また、運用処理部50は、分類2のタスクアプリ(物品呼称)およびタスクアプリ(類似課題)を実行しているときの各AUの発生強度の時間変化および顔の向きの時間変化と、タスクアプリ(物品呼称)とタスクアプリ(類似課題)のスコアの合計値とを、分類2に対応する第2の機械学習モデル24に入力して、分類2に対応する検査ツールの検査スコアを推定する。
【0090】
その後、
図24に示すように、運用処理部50は、各分類の検査スコアの推定結果を第3の機械学習モデル25に入力して、検査ツール全体の検査スコアの推定結果を取得する。例えば、運用処理部50は、分類1から分類6それぞれの第2の機械学習モデル24の出力結果を、第3の機械学習モデル25に入力して検査スコアの推定結果を取得する。
【0091】
<事前処理の流れ>
図25は、事前処理の流れを示すフローチャートである。
図25に示すように、事前処理部40は、処理開始が指示されると(S101:Yes)、訓練データを用いて第1の機械学習モデル23を生成する(S102)。
【0092】
続いて、事前処理部40は、特定のタスクが開始されると(S103:Yes)、映像データを取得する(S104)。そして、事前処理部40は、映像データをタスクアプリの実行間隔ごとに分類して第1の機械学習モデル23に入力し、タスクアプリごとに、各AUの発生強度と顔の向きとを取得する(S105)。
【0093】
その後、事前処理部40は、特定のタスクが終了すると(S106:Yes)、タスクアプリごとにスコアを取得する(S107)。また、事前処理部40は、タスクアプリごとに検査ツールの検査スコアを取得する(S108)。
【0094】
そして、事前処理部40は、各認知機能(分類)について、分類に含まれるタスクアプリに基づき取得された「各AUの発生強度の時間変化、顔の向きの時間変化、スコア」を含む訓練データを生成し(S109)、訓練データを用いて、認知機能(分類)ごとに各第2の機械学習モデル24を生成する(S110)。
【0095】
<推定処理の流れ>
図26は、推定処理の流れを示すフローチャートである。
図26に示すように、運用処理部50は、処理開始が指示されると(S201:Yes)、患者に対して特定のタスクを実行し(S202)、映像データの取得を開始する(S203)。
【0096】
そして、運用処理部50は、特定のタスクが終了すると(S204:Yes)、映像データの取得を終了し、タスクアプリごとにスコアを取得する(S205)。運用処理部50は、タスクアプリごとの映像データを第1の機械学習モデル23に入力し、タスクアプリごとに、各AUの発生強度と顔の向きとを取得する(S206)。
【0097】
その後、運用処理部50は、認知機能(分類)ごとに、分類に含まれるタスクアプリの各AUの発生強度と顔の向きとに基づき分類に対応する各AUの時間変化と顔の向きの時間変化とを特定し、分類ごとの「各AUの時間変化、顔の向きの時間変化、スコア」を特徴量として生成する(S207)。
【0098】
そして、運用処理部50は、認知機能(分類)ごとの各特徴量を、各第2の機械学習モデルに入力して認知機能(分類)ごとに検出スコアの推定結果を取得する(S208)。その後、運用処理部50は、各第2の機械学習モデルの出力結果(検出スコア)を第3の機械学習モデルに入力して検査スコアの推定結果を取得し(S209)、推定結果を表示部12等に出力する(S210)。
【0099】
<効果>
上述したように、実施例1の推定装置10は、医師の専門的な知識がなくとも、認知機能の検査スコアを推定し、認知症や軽度認知機能障害のスクリーニングをすることができる。また、実施例1の推定装置10は、数分程度の特定のタスクと表情情報とを組み合わせることで、検査ツールで診断する場合と比べて、短時間で認知症や軽度認知機能障害のスクリーニングをすることができる。
【0100】
また、推定装置10は、認知機能ごとに検査スコアを推定することができるので、どの認知機能が低下しているかの情報を短時間で取得することができ、治療に役立てる情報の提供を実現することができる。
【0101】
また、推定装置10は、簡単なタスクアプリで認知機能のスコアや検査ツールのスコアを推定することができるので、認知症判定にかかる処理時間の短縮化、細分化した認知症判定の高速化、医師などの人手による診療時間の短縮化などを実現することができる。
推定装置10は、例えば、各AUの時間変化のみを説明変数としてもよく、各AUの時間変化と顔の向きの時間変化を説明変数としてもよく、各AUの時間変化とスコアを説明変数としてもよい。また、上記実施例では、目的変数として、検査スコアの値を用いる例を説明したが、これに限定されるものではない。例えば、目的変数として、「0点から10点」、「11点から20点」、「20点から30点」などのように、検査スコアの範囲を用いることもできる。
このように、推定装置10は、精度やコストに応じて、訓練や検出に使用する特徴量を決定することができるので、簡易的なサービスを提供することができ、さらに医師の診断をサポートする詳細なサービスを提供することもできる。
このような状況で、ユーザは、自宅などの任意の場所において、アプリ71を購入して、アプリケーションサーバ70からアプリ71をダウンロードし、自信のスマホ60などにインストールする。そして、ユーザは、自信のスマホ60を用いて、実施例1で説明した運用処理部50と同様の処理を実行し、検査スコアを取得する。
この結果、ユーザが、アプリによる検査スコアの推定結果をもって病院に診察に行くことで、病院側では、簡易な検出結果を取得した状態で診察を行うことができるので、病名や症状の早期確定、治療の早期開始に役立てることができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、事前処理部40と運用処理部50とを別々の装置で実現することもできる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
このように、推定装置10は、プログラムを読み出して実行することで推定方法を実行する情報処理装置として動作する。また、推定装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、推定装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、上記実施例が同様に適用されてもよい。
このプログラムは、インターネットなどのネットワークを介して配布されてもよい。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行されてもよい。