(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024043867
(43)【公開日】2024-04-02
(54)【発明の名称】測定装置、プログラムおよびモデル生成装置
(51)【国際特許分類】
A61B 10/00 20060101AFI20240326BHJP
A61B 3/113 20060101ALI20240326BHJP
【FI】
A61B10/00 H
A61B3/113
【審査請求】未請求
【請求項の数】18
【出願形態】OL
(21)【出願番号】P 2022149085
(22)【出願日】2022-09-20
(71)【出願人】
【識別番号】500470264
【氏名又は名称】シミックホールディングス株式会社
(74)【代理人】
【識別番号】110002952
【氏名又は名称】弁理士法人鷲田国際特許事務所
(72)【発明者】
【氏名】渡辺 誠司
【テーマコード(参考)】
4C316
【Fターム(参考)】
4C316AA21
4C316AA30
4C316AB16
4C316FA01
4C316FA04
4C316FC28
4C316FZ03
(57)【要約】
【課題】被検者の反応性を正確に測定する測定装置、プログラムおよびモデル生成装置を提供する。
【解決手段】測定装置は、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得する取得部と、反応信号と基準信号とに基づいて、被検者の反応性を測定する測定部と、を有する。
【選択図】
図3
【特許請求の範囲】
【請求項1】
測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得する取得部と、
前記基準信号と前記反応信号に基づいて、前記被検者の反応性を測定する測定部と、
を有する測定装置。
【請求項2】
前記基準信号は、前記測定情報の時間的な位置を示すように変化する請求項1に記載の測定装置。
【請求項3】
前記基準信号は、所定周波数より高い高周波で構成された音波信号を含む請求項1に記載の測定装置。
【請求項4】
前記基準信号は、測定情報の一部が特定のパターンで点滅するように構成された光信号を含む請求項1に記載の測定装置。
【請求項5】
前記取得部は、前記測定情報に対する前記被検者の目の反応を示す反応信号を取得し、
前記測定部は、前記反応信号と前記基準信号とに基づいて、前記被検者の目の反応性を測定する請求項1に記載の測定装置。
【請求項6】
前記取得部は、前記測定情報に対する前記被検者の手の反応を示す反応信号を取得し、
前記測定部は、前記反応信号と前記基準信号とに基づいて、前記被検者の手の反応性を測定する請求項1に記載の測定装置。
【請求項7】
前記測定情報は、測定動画からなり、
前記取得部は、前記測定動画と連動して出力された前記基準信号と、前記測定動画に対する前記被検者の反応を示す連続的な反応信号を取得し、
前記測定部は、前記基準信号と前記連続的な反応信号とに基づいて、前記被検者の反応性を測定する請求項1に記載の測定装置。
【請求項8】
前記測定部は、前記基準信号に基づいて、前記被検者の反応信号を、前記測定情報に対する他の被検者の反応を示す反応信号と比較することにより、前記被検者の反応性を測定する請求項1に記載の測定装置。
【請求項9】
異なる測定空間で且つ異なる時刻に取得された前記測定情報を、前記基準信号に基づいて対応付けて前記被検者の反応性を測定する請求項1に記載の測定装置。
【請求項10】
前記測定部は、前記測定情報に対する他の被検者の反応を示す反応信号に基づいて訓練された機械学習モデルに前記反応信号と前記基準信号を入力して、前記被検者の反応性を測定する請求項1に記載の測定装置。
【請求項11】
前記測定部は、前記被検者の反応性に基づいて前記被検者の特定の疾患を判定する請求項1に記載の測定装置。
【請求項12】
前記測定部は、前記被検者の反応性に基づいて前記被検者の反射神経の状態を判定する請求項1に記載の測定装置。
【請求項13】
前記測定部は、前記被検者の反応性に基づいて前記被検者の運転適性を判定する請求項1に記載の測定装置。
【請求項14】
前記測定部は、前記測定空間に前記基準信号と前記測定情報を出力する端末装置と通信システムを介して接続され、前記端末装置に対して前記基準信号と前記測定情報を配信する請求項1に記載の測定装置。
【請求項15】
前記反応信号は、前記基準信号と前記測定情報を前記測定空間に出力した装置とは異なる装置で取得される請求項1に記載の測定装置。
【請求項16】
コンピュータに、
測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得するステップと、
前記反応信号と前記基準信号とに基づいて、前記被検者の反応性を測定するステップと、
を実行させるプログラム。
【請求項17】
測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、前記複数の被検者の状態を判定した判定結果とを取得する取得部と、
前記基準信号に基づいて前記複数の被検者の前記反応信号を対応付け、前記対応付けられた反応信号と前記判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成する訓練部と、
を有するモデル生成装置。
【請求項18】
コンピュータに、
測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、前記複数の被検者の状態を判定した判定結果とを取得するステップと、
前記基準信号に基づいて前記複数の被検者の前記反応信号を対応付け、前記対応付けられた反応信号と前記判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成するステップと、
を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、測定装置、プログラムおよびモデル生成装置に関する。
【背景技術】
【0002】
従来から、例えば認知機能などを診断するために被検者の視線の動きを検出する診断装置が提案されている。例えば、特許文献1には、認知機能障害を簡便に診断する認知機能障害診断装置が開示されている。この認知機能障害診断装置は、診断用映像を表示する表示面における被検者の視点を時系列的に検出し、その視点の分布に基づいて被検者の認知機能障害を診断する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1の装置は、診断用映像に対する被検者の視点の移動を正確に測定して記録することが困難であった。
【0005】
本開示は、被検者の反応性を正確に測定する測定装置、プログラムおよびモデル生成装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示に係る測定装置は、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得する取得部と、反応信号と基準信号とに基づいて、被検者の反応性を測定する測定部と、を有するものである。
【0007】
本開示に係るプログラムは、コンピュータに、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得するステップと、反応信号と基準信号とに基づいて、被検者の反応性を測定するステップと、を実行させるものである。
【0008】
本開示に係るモデル生成装置は、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、複数の被検者の状態を判定した判定結果とを取得する取得部と、基準信号に基づいて複数の被検者の反応信号を対応付け、対応付けられた反応信号と判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成する訓練部と、を有するものである。
【0009】
本開示に係るプログラムは、コンピュータに、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、複数の被検者の状態を判定した判定結果とを取得するステップと、基準信号に基づいて複数の被検者の反応信号を対応付け、対応付けられた反応信号と判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成するステップと、を実行させるものである。
【発明の効果】
【0010】
本開示によれば、被検者の測定情報に対する反応性を正確に測定することが可能となる。
【図面の簡単な説明】
【0011】
【
図1】本開示の実施の形態1に係る測定装置を備えた測定システムの構成を示す図である。
【
図4】目の反応信号と基準信号の変化を示す図である。
【
図6】実施の形態1の動作を示すフローチャートである。
【
図7】被検者が測定動画を視聴する様子を示す図である。
【
図8】測定動画において視線を位置合わせする画面を示す図である。
【
図9】測定動画においてシーンが切り替わる様子を示す図である。
【
図10】機械学習モデルを用いて被検者の目の反応性を判定する様子を示す図である。
【
図12】実施の形態2の検出部の構成を示す図である。
【
図13】実施の形態2の測定動画においてシーンが切り替わる様子を示す図である。
【
図14】手の反応信号と基準信号の変化を示す図である。
【
図15】実施の形態2の変形例の概要を示す図である。
【
図16】目および手の反応信号と基準信号の変化を示す図である。
【
図18】実施の形態5に係るモデル生成装置の構成を示す図である。
【
図19】実施の形態5の動作を示すフローチャートである。
【
図20】実施の形態1~5の変形例において光信号が出力される様子を示す図である。
【発明を実施するための形態】
【0012】
以下、本開示に係る実施の形態を添付図面に基づいて説明する。
【0013】
(実施の形態1)
図1に、本開示の実施の形態1に係る測定装置を備えた測定システムの構成を示す。測定システム1は、複数の端末装置2と、通信システム3と、測定装置4とを有する。端末装置2、通信システム3および測定装置4は、互いに接続されている。
【0014】
端末装置2は、測定空間に配置され、被検者の反応性を検知する。ここで、測定空間は、被検者が位置して、被検者の反応を測定する空間を示す。
【0015】
通信システム3は、複数のBS(Base Station、基地局)5と、コアネットワーク8と、インターネット9とを有する。BS5は、コアネットワーク8に接続されている。また、コアネットワーク8は、インターネット9を介して測定装置4に接続されている。通信システム3は、例えば、第5世代移動通信システム(5G)から構成することができる。しかしながら、本開示による通信システムは、これに限定されるものでなく、4G、6Gなどの他のセルラ通信システム、WiFi(登録商標)、無線LAN(Local Area Network)などの無線通信システムや固定電話回線などであってもよい。
【0016】
BS5は、自身の無線通信エリアに存在する端末装置2との間で無線通信し、端末装置2から送信された検知データを含むデータをコアネットワーク8に送信する。ここで、データは、例えば、被検者の年齢および性別などの情報を含んでもよい。
【0017】
コアネットワーク8は、BS5およびインターネット9を介して端末装置2と測定装置4との間を接続するネットワーク回線である。コアネットワーク8は、例えば、通信システム3における通信機能を制御するプログラムを含み、BS5から送信されたデータを受信すると、そのプログラムに基づいてデータをインターネット9を介して測定装置4に送信してもよい。
【0018】
測定装置4は、通信システム3を介して端末装置2から検知データを含むデータを取得し、その検知データに基づいて、被検者の反応性、例えば被検者の目の反応性を測定する。
しかしながら、本開示による測定システム1は、上述したシステム構成に限定されず、これ以外のシステム構成であってもよい。
【0019】
【0020】
端末装置2は、バスBを介して相互接続される記憶部10と、プロセッサ11と、ユーザインタフェース(UI)12と、通信部13とをハードウェア構成として有する。
なお、端末装置2は、例えば、スマートフォン、タブレット、パーソナルコンピュータ等の計算装置によって実現され得る。端末装置2における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワークなどを介し何れかの外部装置からダウンロードされてもよいし、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。
【0021】
記憶部10は、例えば、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブなどの1つ以上の非一時的な記憶媒体(non-transitory storage medium)によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。本実施例による記憶部10は、測定情報や基準信号などを記憶してもよい。
【0022】
ここで、測定情報は、被検者に提供される測定、検査などに用いられる情報であり、被検者の反応を測定する測定空間に出力される。測定情報は、例えば、被検者に特定の部位を反応させるための情報であり、被検者の目が反応するように画像が変化する測定動画から構成してもよい。
また、基準信号は、測定情報に連動して測定空間に出力され、例えば、順次出力される測定情報の時間的な位置を示す信号であってもよい。例えば、基準信号は、強度(振幅)が順次変化するよう構成されてもよく、例えば時間をカウントするように一定の時間間隔(例えば数ミリ秒間隔)で強度が変化するように構成してもよい。また、基準信号は、周波数が順次変化するように構成されてもよい。また、基準信号は、ONとOFFを順次切り換えるように構成されてもよい。
一実施例では、基準信号は、所定周波数より高い高周波の音波信号から構成してもよい。具体的には、音波信号は、一般的な人では自覚することが困難な約14kHzの周波数帯を超える周波数の音、又は、非可聴周波数帯域の音などから構成することができる。
【0023】
ユーザインタフェース(UI)12は、キーボード、マウス、カメラ、マイクロフォン、ワイヤレスコントローラ等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと端末装置2との間のインタフェースを実現する。例えば、ユーザは、ディスプレイ又はタッチパネルに表示されたGUI(Graphical User Interface)をキーボード、マウス等を用いて操作し、端末装置2を操作してもよい。
【0024】
ここで、ディスプレイは、プロセッサ11の制御の下、測定空間に測定動画などの測定情報を表示する。
スピーカは、プロセッサ11の制御の下、測定空間に基準信号の音波信号を出力する。
【0025】
カメラは、測定動画に対する被検者の反応を撮影することによって取得される撮影画像、例えば測定動画に対する被検者の連続的な反応信号を含む撮影動画を取得する。このように、カメラは、被検者の反応を検知する検知部としても機能する。カメラは、例えば被検者の目を含む範囲を撮影して、測定動画に対する被検者の目の反応、すなわち視点の移動を検知する。なお、撮影画像は、撮影動画に限られるものではなく、例えば、所定の時間間隔を空けて撮影された複数の画像を含んでもよい。
マイクロフォンは、スピーカから測定空間に基準信号として出力された音波信号を含む受信音を取得する。
【0026】
プロセッサ11は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ11は、記憶部10に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述される端末装置2の各種機能及び処理を実行する。本実施例によるプロセッサ11は、出力制御部11aと、データ処理部11bとを実現する。
【0027】
出力制御部11aは、記憶部10に記憶された測定動画および音波信号を出力するようにUI12のディスプレイおよびスピーカなどを制御する。このとき、出力制御部11aは、音波信号の出力に連動して測定空間に測定動画を出力するように制御する。すなわち、出力制御部11aは、測定動画の進行に合わせて音波信号の強度が順次変化するように、UI12に音波信号と測定動画を測定空間に出力させる。
【0028】
なお、出力制御部11aは、記憶部10に記憶された測定動画および音波信号を出力するものに限られるものではない。例えば、出力制御部11aは、測定装置4から通信システム3を介して配信される測定動画および音波信号を出力してもよい。
【0029】
データ処理部11bは、UI12のカメラで撮影された撮影動画と、UI12のマイクロフォンで取得された受信音が入力され、撮影動画と受信音とを順次対応付けて一時的に保存する。すなわち、データ処理部11bは、入力時間に基づいて、撮影動画と受信音を順次対応付けて動画ファイルとして保存してもよい。これにより、撮影動画に含まれる被検者の反応が、受信音に含まれる音波信号と共に保存されることになる。このようにして、測定動画に対する被検者の反応を音波信号に対応付けた検知データが得られる。
【0030】
通信部13は、BS5との通信処理を実行する各種通信回路により実現され、データ処理部11bで得られた検知データをBS5に出力する。
【0031】
なお、上述したハードウェア構成は単なる一例であり、本開示による端末装置2は、これ以外の適切なハードウェア構成により実現されてもよい。
【0032】
【0033】
測定装置4は、バスBを介して相互接続される通信部14と、プロセッサ15と、記憶部16と、ユーザインタフェース(UI)17とをハードウェア構成として有する。
【0034】
なお、測定装置4は、例えば、サーバ、スマートフォン、タブレット、パーソナルコンピュータ等の計算装置によって実現され得る。測定装置4における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワークなどを介し何れかの外部装置からダウンロードされてもよいし、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。
【0035】
通信部14は、インターネット9との通信処理を実行する各種通信回路により実現され、通信システム3を介して複数の端末装置2から出力される検知データを受信する。
【0036】
プロセッサ15は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ15は、記憶部16に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述される測定装置4の各種機能及び処理を実行する。本実施例によるプロセッサ15は、取得部15aと、測定部15bとを実現する。
【0037】
取得部15aは、通信部14で受信された検知データに基づいて、測定空間に出力された基準信号(例えば、音波信号)と、基準信号の出力に連動して測定空間に出力される測定情報(例えば、測定動画)に対する被検者の反応を示す反応信号とを取得する。
【0038】
例えば、取得部15aは、
図4に示すように、被検者の目の反応を示す連続的な反応信号Sa1およびSa2を検知データの撮影動画から取得し、この反応信号Sa1およびSa2に対応付けられた音波信号Sbを検知データの受信音から取得する。ここで、反応信号Sa1およびSa2は、横軸に時間、縦軸に被検者Sの目の移動方向(Sa1は左右方向、Sa2は上下方向)を示している。また、音波信号Sbは、横軸に時間、縦軸に振幅を示している。なお、反応信号Sa1およびSa2と音波信号Sbの時間は、測定動画の再生時間(開始から終了までの時間)を示している。
【0039】
測定部15bは、取得部15aで取得された反応信号と音波信号とに基づいて、被検者の反応性を測定する。例えば、認知症の診断では、目の反応性に基づいて認知症の兆候を発見できると言われている。このため、認知症の診断では、測定部15bは、音波信号Sbに基づいて、反応信号Sa1およびSa2を健常者や認知症患者などの反応信号から生成したモデルと比較することで被検者の目の反応性を測定してもよい。また、測定部15bは、反応信号Sa1およびSa2を上記のモデルと比較することで、特定の疾患を判定してもよい。
【0040】
記憶部16は、プロセッサ15から得られる被検者の反応信号Sa1およびSa2および音波信号Sbと、被検者の目の反応性と、特定の疾患の判定結果を記憶する。記憶部16は、例えば、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブなどの1つ以上の非一時的な記憶媒体(non-transitory storage medium)によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。本実施例による記憶部16は、複数の被検者の反応信号を音波信号と対応付けて記憶する。
【0041】
ユーザインタフェース(UI)17は、キーボード、マウス、カメラ、マイクロフォン等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと測定装置4との間のインタフェースを実現する。
【0042】
なお、上述したハードウェア構成は単なる一例であり、本開示による測定装置4は、これ以外の適切なハードウェア構成により実現されてもよい。
【0043】
次に、本実施の形態の動作について説明する。
図5に、本実施の形態の概要を示す。本実施の形態は、端末装置2が、基準信号と測定情報を連動して測定空間Rに出力し、その測定情報に対する被検者Sの反応を撮影した撮影動画を、基準信号を含む受信音と共に取得する。続いて、測定装置4が、測定情報に対する被検者Sの反応を示す反応信号を撮影動画から取得すると共に、基準信号を受信音から取得する。そして、測定装置4は、反応信号と基準信号に基づいて被検者Sの反応性を測定し、その測定結果を端末装置2に出力する。
【0044】
続いて、
図6に示すフローチャートを参照して本実施の形態の動作を詳細に説明する。
まず、
図2に示す端末装置2の出力制御部11aが、記憶部10に記憶された測定動画(測定情報)および音波信号(基準信号)Sbを出力するようにUI12のディスプレイおよびスピーカを制御する。これにより、ステップS1で、ディスプレイに測定動画が表示され、その測定動画が表示される測定空間Rにスピーカから音波信号Sbが出力される。
【0045】
このとき、プロセッサ11の出力制御部11aは、音波信号Sbと測定動画を連動させてディスプレイに表示させる。例えば、出力制御部11aは、音波信号Sbと測定動画を互いに連動するように対応付けて保存した保存データに基づいて、音波信号Sbと測定動画を出力してもよい。すなわち、保存データは、音波信号Sbと測定動画のいずれか一方が出力された場合に、他方も連動して出力されるように音波信号Sbと測定動画を対応付けて保存したものである。保存データとしては、例えば、音波信号Sbと測定動画を対応付けて保存した動画ファイルなど、音波信号Sbと測定動画を1つのファイルに内包したデータが挙げられる。なお、保存した動画ファイルとしては、例えば、MP4(Moving Picture Experts Group Audio Layer-4)、AVI(Audio Video Interleave)、MOV(QuickTime File Format)、WebMまたはFLV(Flash Video)などが挙げられる。
なお、出力制御部11aは、音波信号Sbと測定動画を別々に保存し、音波信号Sbの出力開始と同時に、測定動画の表示を開始させてもよい。また、出力制御部11aは、音波信号Sbを出力しつつ所定のタイミングで測定動画の表示を開始させてもよい。
【0046】
図7に示すように、被検者Sを測定する測定空間Rでは、UI12のスピーカ12aから音波信号Sbを出力しつつ、被検者Sがディスプレイ12bに表示される測定動画を視聴する。このとき、測定動画におけるシーンの変化に対して被検者Sの目が反応を示すことになる。
【0047】
ここで、測定動画の一例を説明する。
例えば、
図8に示すように、測定動画Mが開始されると、前処理としてディスプレイ12bに対して被検者Sの視線を位置合わせする画面が表示される。この位置合わせ画面では、例えば、所定の位置に4つの基準点Pが順次表示され、その4つの基準点Pを順次視認させる被検者Sへの音声と文字による指示が音波信号Sbと共に出力されてもよい。これにより、被検者Sの視線がディスプレイ12bに対して位置合わせされ、被検者Sの視線の位置を正確に測定することができる。また同時に、測定動画Mに連動して音波信号Sbが測定空間Rで正常に再生されていることの確認もとれる。
【0048】
続いて、
図9Aに示すように、測定動画Mには、一部が目隠しMaで隠された迷路が表示される。そして、「迷路の出入り口を視線で繋いでください」との指示が、例えば音声で被検者Sに出力される。
【0049】
測定動画Mは、目隠しMaのシーンで所定時間経過後、
図9Bに示されるように、迷路全体が目隠しMbで隠されたシーンに切り替わる。そして、測定動画Mは、目隠しMbのシーンで所定時間経過後、
図9Cに示されるように、目隠しMaとは別の部分を目隠しMcで隠された迷路のシーンに切り替わる。このとき、被検者Sがディスプレイ12bに断片的に表示される迷路を記憶していた場合、被検者Sの視線は迷路の入口と出口を繋ぐ経路に沿って移動することになる。
【0050】
このとき、
図7に示す音波信号Sbは、所定周波数より高い高周波、例えば一般的な人では自覚することが困難な周波数帯域を超える周波数で構成されている。このため、被検者Sは、音波信号Sbに注意を奪われることなく、測定動画Mを視聴することができる。
【0051】
このようにして、被検者Sによる測定動画Mの視聴中、UI12のカメラ12cが測定動画Mに対する被検者Sの目の反応を撮影し、UI12のマイクロフォン12dが測定空間Rに出力された音波信号Sbを集音する。
【0052】
従来、端末装置に動画を表示して、被検者Sの視線の移動に基づいて認知症などを診断する場合、端末装置の画面に測定中に動画が正しく表示されていることを確認するために、医師や助手が測定に立ち会う必要があった。また、従来、測定時に表示された動画と、被検者Sの視線の動きとの時間的な位置を正確に紐づける方法がなかった。
【0053】
そこで、本開示では、音波信号Sbが測定動画Mに連動して測定空間Rに出力され、その測定動画Mに対する被検者Sの目の反応がカメラ12cで撮影されると共に、測定空間Rに出力された音波信号Sbがマイクロフォン12dで受信される。これにより、被検者Sの目の反応を撮影した撮影動画と、測定空間Rに出力された音波信号Sbとが同期的に取得される。このため、例えば、複数の端末装置2から取得した撮影動画と音波信号Sbに基づいて、各被検者Sの目の反応と、その時に再生されていた測定動画Mの時間的な位置を正確に把握することができる。また、
図8に示すように視線を位置合わせする際に、取得された撮影動画において被検者Sの視線が動かない場合や、音波信号Sbが存在しない場合は、端末装置から基準信号と測定情報が正しく出力されていないか、または、被検者Sが測定情報を目視できないことなどが原因として考えられるため、測定が無効であると判断することもできる。これにより医師や助手が測定時に立ち会わなくても正しく測定情報が出力されていることを担保できる。
【0054】
続いて、カメラ12cで撮影された撮影動画と、マイクロフォン12dで取得された受信音は、プロセッサ11のデータ処理部11bに入力される。データ処理部11bは、カメラ12cおよびマイクロフォン12dから入力される撮影動画と受信音とを順次対応付けて一時的に保存する。保存形式としては、例えば、撮影動画と受信音とを対応付けて1つの動画ファイルに内包するファイル形式が挙げられる。ここで、撮影動画は測定動画Mに対する被検者Sの目の反応を撮影したものであり、受信音は測定動画Mに連動する音波信号Saを含むものである。このため、撮影動画と受信音を同期的に取得することにより、音波信号Sbを介して被検者Sの目の反応(動き)を測定動画Mに対応付けることになる。
【0055】
ここで、測定動画Mに対する被検者Sの目の反応を、音波信号Sbではなく、端末装置2に内蔵された時計の時刻に対応付けて記録した場合を考える。この場合、複数の異なる端末装置2において測定動画Mの再生ボタンを押してから測定動画Mの再生が始まるまでの開始時間に、端末装置2の処理速度や使用可能なキャッシュ容量などの要因により差が生じる場合がある。さらに、測定動画Mの再生中に一時的に再生がフリーズするおそれもある。その結果、被検者Sの目の反応と測定動画Mを異なる時刻に対応付けることになる。このとき、各端末装置2のログを調べたとしても、測定動画Mがディスプレイ12bに実際に表示された正確な時刻を判断することはできない。
【0056】
そこで、本開示では、測定空間Rから取得された音波信号Sbを介して被検者Sの目の反応を測定動画Mに対応付ける。これにより、例えば端末装置2から測定動画Mの再生開始が遅れた場合でも音波信号Sbの進行も測定動画Mと共に遅れて進行するため、端末装置2のスペックとは関係なく、音波信号Sbを介して被検者Sの目の反応と測定動画Mを同じ時間的な位置に対応付け記録することができる。
【0057】
続いて、データ処理部11bは、例えば測定動画Mが終了した場合に、反応測定が終了したと判断する。その後、端末装置2は、撮影動画と受信音を含んだ検知データを通信システム3を介し測定装置4に出力する。
【0058】
例えば、
図1に示すように、取得した検知データはまず、BS5に無線出力され、その後、BS5からコアネットワーク8およびインターネット9を介して測定装置4に出力される。例えば、通信システム3が5G通信システムなどから構成されている場合、検知データを端末装置2から測定装置4にストリーミング配信(出力)し、測定装置4に検知データを記録することができる。
【0059】
図3に示す測定装置4に出力された検知データは、通信部14を介してプロセッサ15の取得部15aで受信される。そして、取得部15aが、ステップS2で、検知データから、被検者Sの目の動きを示す反応信号Sa1およびSa2と、音波信号Sbとを抽出する。
【0060】
具体的には、取得部15aは、検知データに含まれる撮影動画から被検者の目の部位を検出して、撮影動画の進行に応じた目の動き(視線の移動)をトラッキングする。この被検者Sの目の動きは、測定動画Mに対する反応を示している。このため、取得部15aは、目の動きをトラッキングすることにより、測定動画Mに対する被検者Sの目の反応を示す連続的な反応信号Sa1およびSa2を取得することができる。また、取得部15aは、検知データに含まれる受信音から音波信号Sbを抽出する処理を行う。
このとき、取得部15aは、被検者の目の部位に加えて被検者の顔の向きを撮影画像から検出し、その顔の向きに基づいて、被検者の目の動きをトラッキングしてもよい。例えば、取得部15aは、被検者の顔の向きに基づいて、被検者の目の部位の検出範囲を限定し、その検出範囲において被検者の目の動きをトラッキングしてもよい。これにより、目の反応信号Sa1およびSa2をさらに正確に測定することができる。
【0061】
ここで、撮影動画と受信音は端末装置2において互いに対応付けられているため、取得部15aは、
図4に示すように、取得または記録した検知データから音波信号Sbと反応信号Sa1およびSa2を互いに対応付けられた形でデータを抽出することができる。
【0062】
また、取得部15aは、被検者ごとに、検知データ、または、検知データから抽出された音波信号Sbと反応信号Sa1およびSa2のデータを記憶部16に記録してもよい。
【0063】
続いて、プロセッサ15の測定部15bは、ステップS3で、反応信号Sa1およびSa2と音波信号Sbに基づいて、被検者Sの目の反応性を測定する。
【0064】
例えば、複数の被検者Sの反応信号Sa1およびSa2を取得した場合、その反応信号Sa1およびSa2は、被検者S間で同様に音波信号Sbと対応付けられた形で取得して記録される。すなわち、測定部15bは、音波信号Sbに基づいて同じ時間的な位置で、被検者Sの反応信号Sa1およびSa2を、他の被検者の反応信号と比較することにより、被検者Sの目の反応性を正確に測定することができる。
【0065】
例えば、測定部15bは、音波信号Sbに基づいて、被検者Sの反応信号Sa1およびSa2を健常者や認知症患者などの反応信号と比較してもよい。一般的に、認知症などの疾患では、健常者と違い、例えば迷いによる反応の遅れなどの症状が目の反応性に現れる。そこで、測定部15bは、例えば、被検者Sの反応信号Sa1およびSa2と健常者や認知症患者などの反応信号とを比較することで、被検者Sの目の反応性が正常か否かを判定してもよい。
【0066】
また、測定部15bは、AI(Artificial Intelligence)を用いて被検者Sの目の反応性を測定してもよい。例えば、
図10に示すように、測定部15bは、複数の被検者の反応信号Sa1およびSa2を健常者および認知症患者に分類した反応信号の症例データに基づいて、両者の特徴を学習させた訓練済み機械学習モデルMDを生成する。このとき、訓練済み機械学習モデルMDは、各症例データにアルツハイマー型認知症およびレビー小体型認知症などの分類や進行度合いのラベルを付与して学習させてもよい。そして、測定部15bは、特定の被検者Sで検知した音波信号Sbと反応信号Sa1およびSa2を訓練済み機械学習モデルMaに入力することで、被検者Sの目の反応性から認知症の兆候を判定してもよい。なお、測定部15bは、被検者Sの目の反応性について段階的に評価してもよい。
【0067】
このように、測定部15bは、測定空間Rに出力される音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力される測定動画Mに対する被検者Sの反応を示す反応信号Sa1およびSa2とに基づいて、被検者Sの反応性を測定する。この反応信号Saは、測定空間Rから測定動画Mと同期的に取得された音波信号Sbを介して、測定動画Mの時間的な位置と正確に対応付けられている。このため、測定動画Mの表示内容に対する被検者Sの目の反応性を正確に測定することができる。
【0068】
また、測定部15bは、異なる測定空間Rで且つ異なる時刻に取得された反応信号Sa1およびSa2を、音波信号Sbに基づいて対応付けて被検者の反応性を測定する。これにより、測定部15bは、被検者の反応性を容易に測定することができる。
【0069】
また、測定部15bは、測定動画Mに対する被検者Sの反応を示す連続的な反応信号Saに基づいて、被検者Sの目の反応性を測定する。一方、静止画に対する被検者の反応を測定した場合には、無変化のシーンに対する被検者Sの反応性を反応信号の分布に基づいて測定するので、同じ時間内で取得できる情報量に大きな違いがある。このように、測定部15bは、反応信号Saの時系列的な変化を測定動画Mと連動させて多くの情報を取得することで、被検者Sの目の反応性をより正確に測定することができる。
【0070】
また、音波信号Sbは、例えば、数ミリ秒間隔で振幅または周波数が変化するように構成されてもよい。これにより、測定動画Mの時間的な位置と被検者Sの反応信号Sa1およびSa2をより細かく対応付けることができるため、被検者Sの視線の移動もより細かく追跡することができる。このため、被検者Sの目の反応性をより正確に測定することができる。
【0071】
また、測定部15bは、音波信号Sbに基づいて、被検者Sの反応信号Sa1およびSa2を他の被検者の反応信号と比較する。このとき、複数の被検者Sの反応信号を同じ時間的な位置に対応付けて比較できるため、被検者Sの目の反応性をより正確に測定することができる。
【0072】
なお、測定部15bは、測定動画Mのシーンが切り替わったときの反応信号Sa1およびSa2に基づいて被検者Sの目の反応性を測定してもよい。例えば、測定部15bは、
図9Bに示した迷路の全体が目隠しされた場面から、
図9Cに示した迷路の一部が目隠しされた場面に切り替わったときの反応信号Sa1およびSa2に基づいて、被検者Sの目の反応性を測定してもよい。
被検者Sの視線は画面の切り替わりと自身の記憶に応じて移動するため、そのときの反応信号Saに基づいて被検者Sの目の反応性をより正確に測定することができる。
【0073】
このようにして、測定部15bは、被検者Sの目の反応性を測定すると、その測定された反応性に基づいて、被検者Sの認知機能の状態などを判定する。そして、測定部15bは、ステップS4で、反応性の測定結果や疾患の可能性などの測定結果を通信部14を介して被検者Sの端末装置2に出力する。
【0074】
このような測定を定期的に実施することで、記録された被検者Sの過去と現在の反応信号Sa1およびSa2を、音波信号Sbに基づいて比較することにより、認知機能の低下を科学的に記録して評価することが可能になる。さらに、被検者Sが認知症を発症した場合、被検者Sの記録されたデータを同じ方法で測定した他の健常者のデータと正確に比較することも可能になる。
【0075】
(実施の形態2)
以下、本開示の実施の形態2について説明する。ここでは、上記の実施の形態1との相違点を中心に説明し、上記の実施の形態1との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
【0076】
上記の実施の形態1では、測定部15bは、被検者Sの目の反応性を測定したが、被検者Sの反応性を測定することができればよく、これに限られるものではない。
例えば、測定部15bは、被検者Sの手の反応性を測定してもよい。また、測定部15bは、手の反応性に基づいてパーキンソン病などの疾患を判定してもよい。
【0077】
図11に、本実施の形態の概要を示す。本実施の形態は、端末装置2が、基準信号と測定情報を連動して測定空間Rに出力し、その測定情報に対する被検者Sの手の反応を示す反応信号を、基準信号を含む受信音と共に取得する。続いて、測定装置4が、受信音に含まれる手の反応信号と基準信号とを抽出する。そして、測定装置4は、手の反応信号と基準信号に基づいて被検者Sの手の反応性を測定し、その測定結果を端末装置2に出力する。
【0078】
例えば、
図12に示すように、端末装置2のUI12は、検出部21を含んでもよい。この検出部21は、把持部22と、5つの検出ボタン23と、スピーカ24とを有する。
【0079】
把持部22は、被検者Sが手で把持する部分であり、棒状に延びるように形成されている。
検出ボタン23は、被検者Sが指で押下するためのもので、指の位置に対応して配置されている。5つの検出ボタン23は、それぞれ、被検者Sにより指で押下されたとき、反応音を測定空間Rに出力するようにスピーカ24を制御する。この反応音は、例えば、検出ボタン23ごとに異なる周波数帯の音が出力されるように構成されてもよい。また、検出ボタン23の反応音は、音波信号Sbと異なる周波数帯の反応信号Scとして測定空間Rに出力されてもよい。
【0080】
さらに、検出部21には、図示しない平行センサや振動センサなどが内蔵されている。平行センサは、手の平行度や傾きを検出するセンサである。また、振動センサは、手の震えを検出するセンサである。平行センサおよび振動センサで検出された検出信号は、電気信号ケーブルを経由してプロセッサ11のデータ処理部11bに出力される。なお、検出部21は、端末装置2と電気信号ケーブルにより物理的に接続されてもよいし、無線通信により接続されてもよい。
【0081】
次に、本実施の形態の動作について説明する。
【0082】
まず、実施の形態1と同様に、出力制御部11aの制御の下、UI12のスピーカ12aから測定空間Rに音波信号Sbが出力され、この音波信号Sbの出力に連動して測定動画がディスプレイ12bに表示される。
【0083】
ここで、測定動画の一例を説明する。
例えば、
図13に示すように、測定動画M1には、四角形状の複数の変化部M1aが表示される。また、「変化部M1aに赤色が表示されたら検出ボタン23を押してください」との指示が、例えば音声と文字で被検者Sに出力される。そして、複数の変化部M1aが、不定期に順次赤色に変化することにより、被検者Sの手の反応を誘導する。なお、測定は、左右同時でなく、左手と右手に分けて測定するよう、測定動画M1と指示を構成してもよい。
【0084】
図12に示すように、被検者Sは、検出部21の把持部22を把持しており、変化部M1aの表示の変化に応じて検出ボタン23を指で押下する。すると、検出ボタン23の押下に応じてスピーカ24より反応信号Scを出力する。また、検出部21に内蔵された振動センサなどが、被検者Sの手の震えなどを常時検出し、その検出信号をデータ処理部11bに出力する。なお、反応信号Scは、例えば、音波信号Sbより低い周波数、例えば人の可聴領域に含まれる周波数の音波信号から構成されてもよい。
そして、マイクロフォン12dが、実施の形態1と同様に、測定空間Rに出力された音波信号Sbと反応信号Scを含む受信音を受信し、その受信音をデータ処理部11bに出力する。
【0085】
データ処理部11bは、検出部21で検出された検出信号と、マイクロフォン12dから入力された受信音とを対応付けて検知データを生成する。なお、この測定実施前に、例えば、
図8に示すような4つの基準点Pを順次赤色に点滅させ、被検者Sが検出ボタン23を押すように誘導して、検出部21の検出信号と反応信号Scの出力に誤差がないか、確認してから測定を実施してもよい。このように、検出信号と受信音を対応付けることにより、音波信号Sbを介して、被検者Sの手の反応信号Scおよび検出信号を測定動画M1に対応付けることができる。
そして、検知データはデータ処理部11bを経由して、通信部13から通信システム3を介して測定装置4に出力される。そして、検知データは、通信部14を介してプロセッサ15の取得部15aに入力される。
【0086】
取得部15aは、検知データに含まれる受信音から音波信号Sbと反応信号Scを抽出する。これにより、
図14に示すように、被検者Sの手の反応信号Scを音波信号Sbに対応付けたデータが取得される。ここでは、1本の指の反応信号Scのみを示している。そして、測定部15bが、取得部15aで取得された反応信号Scと音波信号Sbに基づいて、被検者Sの手の反応性を測定する。例えば、測定部15bは、音波信号Sbに基づいて、被検者Sの反応信号Scを、他の被検者の反応信号と比較することにより、被検者Sの手の反応性を測定する。
【0087】
このとき、測定部15bは、測定空間Rに出力される音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力される測定動画Mに対する被検者Sの反応を示す反応信号Scとに基づいて、被検者Sの反応性を測定する。この反応信号Scは、測定空間Rから測定動画M1と同期的に取得された音波信号Sbを介して、測定動画M1の時間的な位置と正確に対応付けられている。このため、他の被検者の反応信号と比較することにより、被検者Sの手の反応性をより正確に測定することができる。
【0088】
また、測定部15bは、被検者Sの手の反応性に基づいて、パーキンソン病などの疾患を判定してもよい。一般的に、パーキンソン病などの疾患では、健常者と比較して、例えば手の開閉の反応の遅れなどの症状が現れる。そこで、測定部15bは、被検者Sの手の反応性に基づいて、パーキンソン病などの疾患の可能性を判定してもよい。
【0089】
また、一般的に、パーキンソン病などの疾患では、震えや筋固縮などの症状が現れる。そこで、測定部15bは、手の反応性に加えて、検出部21に内蔵された振動センサなどから得られる検出信号に基づいて被検者Sの手の震えを測定することにより、パーキンソン病などの疾患の可能性を判定してもよい。
【0090】
なお、
図15に示すように、端末装置2は、測定情報に対する被検者Sの手の反応を示す反応信号と、目の反応を撮影した撮影動画と、検出部21で検出された検出信号とを基準信号を含む受信音と共に取得してもよい。これにより、測定装置4は、基準信号と、手の反応信号と、目の反応信号と、検出信号とを取得する。そして、測定装置4は、手および目の反応信号と基準信号と検出信号に基づいて被検者Sの反応性を測定する。
このとき、取得部15aは、
図16に示すように、被検者Sの目の反応信号Sa1およびSa2と手の反応信号Scとを音波信号Sbに対応付けたデータが取得される。例えば、測定部15bは、音波信号Sbに基づいて同じ時間的な位置で、被検者Sの反応信号Sa1およびSa2と反応信号Scを、他の被検者の目の反応信号および手の反応信号とそれぞれ比較することにより、被検者Sの目と手の反応性を測定してもよい。また、測定部15bは、目と手の反応性および手の振動に基づいて、パーキンソン病などの被検者Sの特定の疾患や疾患の進行度合いを判定してもよい。
【0091】
なお、前述では、検出部21を使用して被検者Sの反応性を測定したが、端末装置2のディスプレイ12bに検出部21を一体的に配置(例えばタッチパネルなど)し、ディスプレイ12bを手で触れることで、検出部21を使用せずに、被検者Sの反応性を直接測定してもよい。例えば、端末装置2は、測定動画M1の変化部M1aが赤色で表示された時に、その赤色で表示された箇所を指で触れるように被検者Sに指示する。これにより、端末装置2は、被検者Sの手の反応信号Scをディスプレイ12bから取得してもよい。また、端末装置2は、この測定中に、端末装置2に設けられた平行センサおよび振動センサから検出信号を取得してもよい。そして、データ処理部11bは、端末装置2で検出された検出信号および反応信号Scと、カメラ12cで撮影された撮影動画と、マイクロフォン12dから入力された受信音とを対応付けて検知データを生成してもよい。
【0092】
本実施の形態によれば、測定部15bは、測定空間Rに出力された音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力された測定動画M1に対する被検者Sの手の反応を示す反応信号Scとに基づいて、被検者Sの手の反応性を測定する。この反応信号Scは、測定空間Rから測定動画M1と同期的に取得された音波信号Sbを介して、測定動画M1と高精度に対応付けられるため、被検者Sの手の反応性を正確に測定することができる。
【0093】
(実施の形態3)
以下、本開示の実施の形態3について説明する。ここでは、上記の実施の形態1および2との相違点を中心に説明し、上記の実施の形態1および2との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
【0094】
上記の実施の形態1および2では、測定部15bは、認知症などの被検者Sの特定の疾患を判定したが、被検者Sの反応性に基づいて判定することができればよく、これに限られるものではない。
【0095】
例えば、測定部15bは、被検者Sの反応性に基づいて、反射神経の向上を判定してもよい。例えば、野球選手は、打席でボールを打つときに反射神経(例えば、体の反射神経、動体視力など)が重要と考えられている。しかしながら、反射神経を向上させる様々な方法(例えば質の良い睡眠の摂取、トレーニング方法など)が提案されているが、選手のコンディションは日々変化しており、その効果と変化を試合中などに短時間で正確に測定して評価することは困難であった。
【0096】
そこで、反射神経を向上させる方法を試す前と後、例えば薬品の摂取前と摂取後で、実施の形態1および2と同様に、端末装置2が選手の目と手の反応を検知する。続いて、測定装置4の取得部15aが、例えば
図16に示すように、音波信号Sbに対応付けられた選手の反応信号Sa1,Sa2およびScを取得して記録する。そして、測定部15bが、音波信号Sbに基づいて、記録された反応信号Sa1,Sa2およびScを比較することにより、トレーニングの実施前と実施後の反射神経の向上を判定する。この判定結果により、その選手に対するトレーニングの効果を評価することができる。
【0097】
なお、本実施形態では、測定部15bは、反射神経を向上させる方法を試す前と後の反応信号に基づいて反射神経の向上を判定したが、これに限られるものではない。例えば、測定部15bは、音波信号Sbに基づいて、複数の野球選手の反応信号Sa1,Sa2およびScを比較することにより、チーム内の各選手の反射神経の状態を判定してもよい。この判定結果から試合や代打に起用する選手を見分けることができる。
【0098】
本実施の形態によれば、測定部15bは、被検者S(選手)の反応性に基づいて被検者Sの反射神経の状態を正確に数値で示すことができる。
【0099】
(実施の形態4)
以下、本開示の実施の形態4について説明する。ここでは、上記の実施の形態1~3との相違点を中心に説明し、上記の実施の形態1~3との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
【0100】
測定部15bは、被検者Sの反応性に基づいて、被検者Sの運転適性を判定してもよい。例えば、車の運転手は、運転環境に対する目の反応、ブレーキなどを操作する足の反応、ハンドルなどを操作する手の反応、外部の音などに対する聴覚の反応などが重要と考えられる。
【0101】
そこで、
図17に示すように、端末装置2は、測定情報に対する被検者Sの足の反応信号と、手の反応信号と、耳(聴覚)の反応信号と、目の反応を撮影した撮影動画とを、基準信号を含む受信音と共に取得する。これにより、測定装置4は、基準信号と、目の反応信号と、足の反応信号と、手の反応信号と、耳の反応信号とを取得する。そして、測定装置4は、目、足、手および耳の反応信号と基準信号に基づいて被検者Sの運転適性を測定する。
【0102】
具体的には、端末装置2は、実施の形態1と同様に、測定動画に対する運転手(被検者S)の目の反応を撮影した撮影動画を取得してもよい。ここで、端末装置2は、例えば、運転シミュレータを用いてもよい。また、測定動画は、例えば、運転シミュレータの操作に応じて変化する動画をディスプレイ12bに表示してもよい。続いて、測定装置4の取得部15aが、撮影動画と受信音から運転手の目の反応信号Saと音波信号Sbとを取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の目の反応信号Saを、他の運転手(例えば運転能力を有する運転手と運転能力を欠いた運転手)の目の反応信号と比較することにより、測定動画に対する運転手の目の反応性を判定する。測定部15bは、この判定結果に基づいて、運転中の視線を評価することができる。
【0103】
また、端末装置2は、測定動画に対する運転手の足の反応信号を取得してもよい。例えば、検出部21を運転シミュレータのフットブレーキに配置し、ブレーキ操作に応じた足の反応信号(反応音)が検出ボタン23(例えばブレーキ)の押下に応じてスピーカ24より出力されてもよい。また、検出部21を運転シミュレータのアクセルに配置し、アクセル操作に応じた足の反応信号(反応音)が検出ボタン23(例えばアクセル)の押下に応じてスピーカ24より出力されてもよい。これにより、測定装置4の取得部15aが、足の反応信号と音波信号Sbとを取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の足の反応信号を、他の運転手の足の反応信号と比較することにより、測定動画に対する運転手の足の反応性を判定してもよい。これにより、測定部15bは、ブレーキ操作の反応時間またはアクセル操作の反応時間を評価することができる。
【0104】
また、端末装置2は、実施の形態2と同様に測定動画に対する運転手の手の反応信号Scを取得してもよい。例えば、検出部21を運転シミュレータのハンドルに配置し、ハンドル操作に応じた手の反応信号が検出部21の平行センサなどから電気信号ケーブルを経由してデータ処理部11bに出力されてもよい。これにより、測定装置4の取得部15aが、手の反応信号Scと音波信号Sbとを取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の手の反応信号Scを、他の運転手の反応信号と比較することにより、測定動画に対する運転手の手の反応性を判定してもよい。なお、ブレーキ、アクセルなどの各反応音は、音波信号Sbと異なる周波数帯の反応信号として測定空間Rに出力されてもよい。これにより、測定部15bは、運転時における被検者Sの複数の反応性を正確に測定して評価することができる。
【0105】
また、端末装置2は、被検者Sの可聴領域内の測定音を測定情報として測定空間Rに出力し、この測定音に対する運転手の聴覚を測定してもよい。ここで、測定音は、例えば、クラクション音などを用いてもよい。運転手は、測定音が聞こえたとき、測定音が鳴った方向を確認することが必要であることから、このときの運転手の目の反応信号Saを耳の反応信号として撮影動画から取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の目の反応信号を測定することにより、測定動画の測定音に対する運転手の聴覚の反応性を判定してもよい。これにより、測定部15bは、運転に必要な聴力を有しているのか評価することができる。
【0106】
このように、測定部15bは、運転手の反応性に基づいて、運転手の運転能力を正確に判定することができる。例えば、高齢者の運転免許の更新などにおいて運転能力を判定することで、運転免許の更新を適切に行うことができる。
【0107】
本実施の形態によれば、測定部15bは、運転手の反応性に基づいて運転手の運転能力を正確に判定することができる。
【0108】
(実施の形態5)
以下、本開示の実施の形態6について説明する。ここでは、上記の実施の形態1~4との相違点を中心に説明し、上記の実施の形態1~4との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
【0109】
上記の実施の形態1~4では、機械学習モデルを利用して、音波信号Sbと反応信号から被検者Sの反応を測定したが、このような機械学習モデルは、以下のように生成することが可能である。
【0110】
例えば、
図18に示すモデル生成装置61によって機械学習モデルを生成してもよい。モデル生成装置61は、バスBを介して相互接続される通信部14と、プロセッサ62と、記憶部16と、ユーザインタフェース(UI)17とをハードウェア構成として有する。なお、通信部14、記憶部16およびUI17は、測定装置4と同様の構成であるため説明を省略する。
【0111】
プロセッサ62は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ62は、記憶部16に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述されるモデル生成装置61の各種機能及び処理を実行する。本実施例によるプロセッサ62は、取得部62aと、訓練部62bとを実現する。
【0112】
取得部62aは、機械学習モデルを訓練するための訓練データを取得する。この訓練データは、測定空間Rに出力された基準信号(例えば、音波信号Sb)と、基準信号の出力に連動して測定空間Rに出力される測定情報(例えば、測定動画)に対する複数の被検者Sの反応を示す反応信号と、複数の被検者の状態を専門家が「正常」か「異常」かなどと判定した判定結果とが含まれる。
【0113】
ここで、専門家は、認知症などの疾患を判定する場合には、医師などが該当する。例えば、医師は、被検者に認知症の傾向があると判定した場合には、脳のMRI(Magnetic Resonance Imaging)検査または脳のCT(Computed Tomography)検査などの検査を行い、各被検者が認知症か否かを判定してもよい。
【0114】
訓練部62bは、取得部62aで取得された基準信号に基づいて複数の被検者Sの反応信号を、例えば時間的な位置を合わせるように対応付ける。そして、訓練部62bは、対応付けられた反応信号と判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを機械学習することで、訓練済み機械学習モデルを生成する。
【0115】
次に、本実施の形態の動作について、
図19に示すフローチャートを参照して説明する。
【0116】
まず、実施の形態1と同様に、ステップS1で、端末装置2が、測定動画Mを表示し、この測定動画Mの表示に連動して音波信号Sbを測定空間Rに出力する。端末装置2は、被検者Sの目の反応を撮影した撮影動画と音波信号Sbとを同期的に取得すると、これらを対応付けた検知データを生成する。
【0117】
このようにして、生成された複数の被検者Sの検知データは、モデル生成装置61の取得部62aに、通信部14またはUI17を介してそれぞれ入力される。取得部62aは、ステップS21で、検知データから、被検者Sの目の動きを示す反応信号Saと、音波信号Sbとを抽出して訓練データを取得する。このとき、取得部62aには、例えば、医師により診断された被検者Sに対する「正常」か「異常」かの判定結果が訓練データとして入力される。さらに、判定結果は、認知症の種類、進行度合などの他の情報を含んでいてもよい。
【0118】
続いて、訓練部62bが、音波信号Sbに基づいて、複数の反応信号Saを同じ時間的な位置に対応付ける。そして、訓練部62bは、ステップS22で、対応付けられた反応信号Saと、各被検者Sの判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成する。
このとき、複数の被検者Sの反応信号Saは、測定空間Rから測定動画Mと同期的に取得された音波信号Sbに基づいて高精度に比較することができる。すなわち、複数の被検者Sの反応信号Sは、音波信号Sbに基づいて、測定動画Mに対する時間的な位置が全て一致するため、非常に高い精度で比較して特徴を抽出することができる。このため、訓練部62bは、正確な判定結果(正常又は異常など)を出力する機械学習モデルを生成することができる。
【0119】
なお、モデル生成装置61は、測定装置4に内蔵されてもよい。これにより、モデル生成装置61は、端末装置2から測定装置4に送信される反応信号Saと音波信号Sbに基づいて、機械学習モデルを生成することができる。また、モデル生成装置61と測定装置4が、端末装置2に内蔵されてもよい。これにより、モデル生成装置61は、端末装置2で取得される反応信号Saと音波信号Sbに基づいて、機械学習モデルを生成することができる。
【0120】
本実施の形態によれば、訓練部62bは、測定空間Rに出力された音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力された測定動画Mに対する被検者Sの反応を示す反応信号Saと、専門家による被検者Sに対する「正常」か「異常」かの判定結果とを入力とし、機械学習モデルを訓練する。このとき、反応信号Saは、測定空間Rから測定動画Mと同期的に取得された音波信号Sbに基づいて複数の訓練データを高精度に比較することができるため、正確な判定結果を出力する機械学習モデルを生成することができる。
【0121】
なお、上記の実施の形態1~5では、基準信号は、音波信号Sbから構成されたが、測定空間Rに出力される信号であればよく、これに限られるものではない。例えば、基準信号は、カメラ12cで撮影可能なディスプレイ12bに表示される光信号から構成してもよい。例えば、
図20に示すように、実施の形態1のディスプレイ12bにミラー12eを配置し、測定動画Mと共に表示された光信号Sdをミラー12eでカメラ12cに投影してもよい。
【0122】
具体的には、光信号Sdは、測定動画Mの一部が特定のパターンで点滅するように構成してもよい。光信号Sdの点滅パターンは、測定動画Mの時間的な位置を示すように構成されており、測定動画Mに連動して測定空間Rに出力される。そして、光信号Sdは、ミラー12eで投影されることにより、被検者Sの反応と共にカメラ12cで撮影される。すなわち、光信号Sdは、被検者Sの反応を撮影するカメラ12cの撮影範囲にミラー12eで投影されることになる。なお、光信号Sdは、測定動画Mの全体を点滅させる必要はなく、測定動画Mの一部を点滅させればよい。これにより、データ処理部11bは、被検者Sの反応を撮影した撮影動画から基準信号(光信号Sd)を取得することができる。
【0123】
また、端末装置2は、複数の基準信号、例えば音波信号Sbと光信号Sdを測定空間Rに出力してもよい。端末装置2は、測定空間Rから取得された検知データから光信号Sdと音波信号Sbの基準信号を抽出することにより、検知データの撮影動画と受信音を正確に対応付けることができる。例えば、撮影動画と受信音の時間的な位置がずれている場合、端末装置2は、音波信号Sbと光信号Sdに基づいて、撮影動画と受信音を位置合わせし、被検者Sの反応信号を測定動画Mにより正確に対応付けることができる。また、測定中に取得された光信号Sdと音波信号Sbの時間的な位置がずれていた場合、端末装置2はディスプレイ12bに警告文で表示して、測定を中止することもできる。
【0124】
また、上記の実施の形態1~5において、測定装置4は通信部14を介して、端末装置2に対して基準信号と測定動画Mを配信してもよい。例えば、測定装置4は、基準信号と測定動画Mをストリーミング配信、すなわち基準信号と測定動画Mを配信しつつ端末装置2は受信した測定情報を順次スピーカ12aとディスプレイ12bから出力されてもよい。
さらに、上記の実施の形態1~5において、端末装置2は通信部13を介して、測定装置4に対して、撮影動画と受信音を対応付けた検知データを配信してもよい。例えば、端末装置2は、検知データをストリーミング配信、すなわち撮影動画と受信音をカメラ12cとマイクロフォン12dから取得しつつ検知データを測定装置4に配信してもよい。
【0125】
一般的に、測定情報または検知データをストリーミング配信する場合、ネット環境や機器処理速度などにより測定情報や検知データの配信及び再生が一時的に途切れたり停止したりするなどの現象が起きることがある。ここで、本開示では、測定情報に基準信号が連動して測定空間Rに出力される。これにより、測定情報または検知データの配信及び再生にて一時的な途切れや停止の不具合が生じた場合でも、基準信号に基づいて、測定情報または検知データにて問題が起きた時間的な位置を正確に把握することができる。
【0126】
また、上記の実施の形態1~5では、端末装置2と測定装置4は、通信システム3を介して接続されたが、反応信号と基準信号を測定装置4の取得部15aで取得できればよく、これに限られるものではない。例えば、端末装置2と測定装置4を直接的に接続してもよい。
【0127】
また、上記の実施の形態1~5では、測定装置4は、端末装置2とは別の装置として構成されたが、端末装置2に内蔵されてもよい。
例えば、端末装置2のプロセッサ11が、取得部15aおよび測定部15bを含むように構成することができる。この取得部15aと測定部15bとから本開示の測定装置4が構成される。
【0128】
例えば、実施の形態1と同様に、UI12から測定空間Rに音波信号Sbが出力され、この音波信号Sbの出力に連動して測定動画MがUI12から測定空間Rに出力される。続いて、UI12が、測定動画Mに対する被検者Sの反応を撮影すると共に、音波信号Sbを含む受信音を受信する。そして、データ処理部11bが、その撮影動画と受信音とを対応付けて検知データを生成し、その検知データを取得部15aに出力する。
取得部15aは、検知データを入力すると、被検者の反応を示す反応信号Sa1およびSa2を撮影動画から取得し、この反応信号Sa1およびSa2に対応付けられた音波信号Sbを受信音から取得する。そして、測定部15bが、反応信号Sa1およびSa2と音波信号Sbとに基づいて、被検者Sの反応性を測定する。
【0129】
また、上記の実施の形態1~5において、測定動画Mと音波信号Sbは、端末装置2から出力されたが、互いに連動して測定空間Rに出力されればよく、これに限られるものではない。例えば、測定動画Mと音波信号Sbは、放送局からテレビ放送用電波で送信されて、その電波を受信したテレビジョンにより測定空間Rに出力されてもよい。また、測定動画Mと音波信号Sbは、DVD(Digital Versatile Disc)などの記録媒体に保存して、端末装置2とは別に配置された出力装置から出力してもよい。そして、出力された測定動画に対する被検者Sの反応が、スマートフォンなどの端末装置2により取得され、通信システム3を介して測定装置4に送信される。
このように、反応信号は、音波信号Sbと測定動画Mを測定空間Rに出力した装置とは異なる装置で取得されてもよい。反応信号が異なる装置で取得された場合でも、音波信号Sbと測定動画Mが連動して測定空間Rに出力されているため、被検者Sの反応性を正確に測定することができる。
【0130】
また、上記の実施の形態1~5では、測定装置4は、通信システム3を介して端末装置2に接続されたが、測定装置4を通信システム3のコアネットワーク8内に配置してもよい。例えば、測定装置4は、コアネットワーク8内のクラウドサーバに配置してもよい。また、BS5とコアネットワーク8との間にエッジサーバを設けた場合には、測定装置4は、エッジサーバに配置してもよいし、測定装置4の一部機能をコアネットワーク8とエッジサーバに別けて配置してもよい。
【0131】
以上、本開示に係る実施の形態について図面を参照して詳述してきたが、上述した各装置の機能は、コンピュータプログラムにより実現することができる。
【0132】
上述した各装置の機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカなどの出力装置、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD-ROM(Digital Versatile Disk Read Only Memory)やUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。
【0133】
そして、読取装置は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。
【0134】
そして、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。
【0135】
以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
【産業上の利用可能性】
【0136】
本開示に係る測定装置、プログラムおよびモデル生成装置は、被検者の反応を示す反応信号を利用する装置およびプログラムに利用できる。
【符号の説明】
【0137】
2 端末装置
3 通信システム
4 測定装置
5 BS
7 メインサーバ
8 コアネットワーク
9 インターネット
10 記憶部
11,62 プロセッサ
11a 出力制御部
11b データ処理部
12 UI
12a スピーカ
12b ディスプレイ
12c カメラ
12d マイクロフォン
12e ミラー
13 通信部
14 通信部
15 プロセッサ
15a,62a 取得部
15b 測定部
16 記憶部
17 UI
21 検出部
22 把持部
23 検出ボタン
61 モデル生成装置
62b 訓練部
M,M1 測定動画
M1a 変化部
Ma~Mc 目隠し
MD 機械学習モデル
P 基準点
R 測定空間
S 被検者
Sa,Sa1,Sa2 目の反応信号
Sb 音波信号
Sc 手の反応信号
Sd 光信号