IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ VIE STYLE株式会社の特許一覧 ▶ 株式会社日本総合研究所の特許一覧

特開2024-162653プログラム、情報処理方法、及び情報処理装置
<>
  • 特開-プログラム、情報処理方法、及び情報処理装置 図1
  • 特開-プログラム、情報処理方法、及び情報処理装置 図2
  • 特開-プログラム、情報処理方法、及び情報処理装置 図3
  • 特開-プログラム、情報処理方法、及び情報処理装置 図4
  • 特開-プログラム、情報処理方法、及び情報処理装置 図5
  • 特開-プログラム、情報処理方法、及び情報処理装置 図6
  • 特開-プログラム、情報処理方法、及び情報処理装置 図7
  • 特開-プログラム、情報処理方法、及び情報処理装置 図8
  • 特開-プログラム、情報処理方法、及び情報処理装置 図9
  • 特開-プログラム、情報処理方法、及び情報処理装置 図10
  • 特開-プログラム、情報処理方法、及び情報処理装置 図11
  • 特開-プログラム、情報処理方法、及び情報処理装置 図12
  • 特開-プログラム、情報処理方法、及び情報処理装置 図13
  • 特開-プログラム、情報処理方法、及び情報処理装置 図14
  • 特開-プログラム、情報処理方法、及び情報処理装置 図15
  • 特開-プログラム、情報処理方法、及び情報処理装置 図16
  • 特開-プログラム、情報処理方法、及び情報処理装置 図17
  • 特開-プログラム、情報処理方法、及び情報処理装置 図18
  • 特開-プログラム、情報処理方法、及び情報処理装置 図19
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024162653
(43)【公開日】2024-11-21
(54)【発明の名称】プログラム、情報処理方法、及び情報処理装置
(51)【国際特許分類】
   G09B 19/00 20060101AFI20241114BHJP
   G16H 20/70 20180101ALI20241114BHJP
   G06Q 40/06 20120101ALI20241114BHJP
   G06Q 50/10 20120101ALI20241114BHJP
   A61B 5/372 20210101ALI20241114BHJP
【FI】
G09B19/00 Z
G16H20/70
G06Q40/06
G06Q50/10
A61B5/372
【審査請求】有
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023078378
(22)【出願日】2023-05-11
(11)【特許番号】
(45)【特許公報発行日】2024-09-09
(71)【出願人】
【識別番号】515059979
【氏名又は名称】VIE株式会社
(71)【出願人】
【識別番号】302064762
【氏名又は名称】株式会社日本総合研究所
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(72)【発明者】
【氏名】茨木 拓也
(72)【発明者】
【氏名】西下 慧
【テーマコード(参考)】
4C127
5L040
5L049
5L050
5L055
5L099
【Fターム(参考)】
4C127AA03
4C127GG15
4C127LL08
4C127LL13
5L040BB55
5L049CC11
5L050CC11
5L055BB55
5L099AA15
(57)【要約】
【課題】リスク回避や損失忌避に対するユーザの傾向を適切に把握し、期待値を合理的に判断できるようにする。
【解決手段】プログラムは、プロセッサに、期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行うこと、ユーザに装着された脳波測定デバイスから測定される脳波情報を取得すること、選択肢の選択処理中に取得される脳波情報に基づいて、期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、リスク回避又は損失忌避が行われたときの第2脳活動とを学習し、ユーザの脳活動を推定する学習モデルを生成すること、ユーザに対して期待値判断に関する訓練の処理中に取得される脳波情報を学習モデルに入力し、脳活動の推定結果に基づいて、訓練を行うニューロフィードバック処理を行うこと、を実行させる。
【選択図】図18
【特許請求の範囲】
【請求項1】
情報処理装置に含まれるプロセッサに、
期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行うこと、
前記ユーザに装着された脳波測定デバイスから測定される脳波情報を取得すること、
前記選択肢の選択処理中に取得される前記脳波情報に基づいて、前記期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、前記リスク回避又は前記損失忌避が行われたときの第2脳活動とを学習し、前記ユーザの脳活動を推定する学習モデルを生成すること、
前記ユーザに対して期待値判断に関する訓練の処理中に取得される前記脳波情報を前記学習モデルに入力し、前記脳活動の推定結果に基づいて、前記訓練を行うニューロフィードバック処理を行うこと、
を実行させるプログラム。
【請求項2】
前記ニューロフィードバック処理における前記訓練の結果情報を出力すること、を前記プロセッサにさらに実行させる請求項1に記載のプログラム。
【請求項3】
前記ユーザにより選択された選択肢に基づいて前記ユーザの傾向を特定すること、
前記傾向に関する傾向情報を前記ユーザに出力すること、を前記プロセッサにさらに実行させる請求項1に記載のプログラム。
【請求項4】
前記傾向に関する前記ユーザの指示情報を取得すること、を前記プロセッサにさらに実行させ、
前記ニューロフィードバック処理を行うことは、
前記指示情報に応じて、前記ニューロフィードバック処理の訓練内容を変更すること、を含む請求項3に記載のプログラム。
【請求項5】
前記指示情報が、前記リスク回避又は前記損失忌避の傾向を弱める指示を含む場合、
前記訓練は、訓練処理中の脳波情報が前記第1脳活動になるよう誘導する処理を含む、請求項4に記載にプログラム。
【請求項6】
前記ニューロフィードバック処理後に、期待値を用いる選択肢を前記ユーザに選択させる処理を行うことを前記プロセッサにさらに実行させる請求項1乃至5のいずれか一項に記載のプログラム。
【請求項7】
前記ニューロフィードバック処理と、当該ニューロフィードバック処理後に選択肢を前記ユーザに選択させる処理とを、終了条件が満たされるまで繰り返すことを前記プロセッサにさらに実行させる請求項6に記載のプログラム。
【請求項8】
情報処理装置に含まれるプロセッサが、
期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行うこと、
前記ユーザに装着された脳波測定デバイスから測定される脳波情報を取得すること、
前記選択肢の選択処理中に取得される前記脳波情報に基づいて、前記期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、前記リスク回避又は前記損失忌避が行われたときの第2脳活動とを学習し、前記ユーザの脳活動を推定する学習モデルを生成すること、
前記ユーザに対して期待値判断に関する訓練の処理中に取得される前記脳波情報を前記学習モデルに入力し、前記脳活動の推定結果に基づいて、前記訓練を行うニューロフィードバック処理を行うこと、
を実行する情報処理方法。
【請求項9】
プロセッサを含む情報処理装置であって、
前記プロセッサが、
期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行うこと、
前記ユーザに装着された脳波測定デバイスから測定される脳波情報を取得すること、
前記選択肢の選択処理中に取得される前記脳波情報に基づいて、前記期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、前記リスク回避又は前記損失忌避が行われたときの第2脳活動とを学習し、前記ユーザの脳活動を推定する学習モデルを生成すること、
前記ユーザに対して期待値判断に関する訓練の処理中に取得される前記脳波情報を前記学習モデルに入力し、前記脳活動の推定結果に基づいて、前記訓練を行うニューロフィードバック処理を行うこと、
を実行する情報処理装置。


【発明の詳細な説明】
【技術分野】
【0001】
本発明は、プログラム、情報処理方法、及び情報処理装置に関する。
【背景技術】
【0002】
従来、リスクと採算性を定量評価して運用の戦略の候補を複数立案し、戦略候補を選択した場合のリスクと採算性への効果を評価して提示する意思決定支援システムが知られている(例えば特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2021-117781号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述の特許文献1は、複数の設備である設備群について運用戦略の意思決定を支援するものであるが、確率論を伴う期待値を適切に判断することは難しい。例えば、人間は、潜在的にリスクを回避したり、損失を忌避又は回避したりする傾向にあり、このリスクや損失も加味したうえで期待値を合理的に判断することは難しいと言われている。また、リスク回避や損失忌避は、その人自身の考え方に依存してしまう。
【0005】
そこで、開示技術の一態様は、リスク回避や損失忌避に対するユーザの傾向を適切に把握し、期待値の合理的判断を訓練することを可能にするプログラム、情報処理方法及び情報処理装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
開示技術の一態様におけるプログラムは、情報処理装置に含まれるプロセッサに、期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行うこと、前記ユーザに装着された脳波測定デバイスから測定される脳波情報を取得すること、前記選択肢の選択処理中に取得される前記脳波情報に基づいて、前記期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、前記リスク回避又は前記損失忌避が行われたときの第2脳活動とを学習し、前記ユーザの脳活動を推定する学習モデルを生成すること、前記ユーザに対して期待値判断に関する訓練の処理中に取得される前記脳波情報を前記学習モデルに入力し、前記脳活動の推定結果に基づいて、前記訓練を行うニューロフィードバック処理を行うこと、を実行させる。
【発明の効果】
【0007】
開示技術の一態様によれば、リスク回避や損失忌避に対するユーザの傾向を適切に把握し、期待値の合理的判断を訓練することができる。
【図面の簡単な説明】
【0008】
図1】本開示技術の前提を説明するための図である。
図2】コイントスの一例を示す図である。
図3】課題A及びBの一例を示す図である。
図4】本開示技術の実験概要を説明するための図である。
図5】本実験におけるニューロフィードバックトレーニングの例を示す図である。
図6】ニューロフィードバックトレーニング前後の心理尺度の比較を示す図である。
図7】コイントス課題におけるデコーダーの精度を示す図である。
図8】コイントス課題の成績比較を行う図である。
図9】NFセッションにおける平均脳活動とコイントス選択率とを示す図である。
図10】確率課題におけるデコーダーの精度を示す図である。
図11】確率課題の選択率の比較を行う図である。
図12】確率課題の獲得額の比較を行う図である。
図13】実施形態に係るシステム1の概要例を説明する図である。
図14】実施形態に係るイヤホンセットの一例を示す図である。
図15】実施形態に係るイヤホンの断面の概略の一例を示す図である。
図16】実施形態に係る情報処理装置の一例を示すブロック図である。
図17】実施形態に係る情報処理装置の一例を示すブロック図である。
図18】実施形態に係る処理端末の訓練処理の一例を示すフローチャートである。
図19】実施形態に係る画面遷移の一例を示す図である。
【発明を実施するための形態】
【0009】
以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
【0010】
<前提>
まず、開示の実施形態について説明する前に、本開示技術の前提について説明する。図1は、本開示技術の前提を説明するための図である。図1に示すとおり、人は、利得と損失とでは価値の感じ方が異なる。例えば、同じ金額でも、利得としての100万円と、損失としての100万円では、損失の価値の方を利得の価値よりも大きく感じてしまう。そのため、55%の確率で100万円の利得、45%の確率で100万円の損失というゲームがある場合に、期待値は0より大きいが、損失の100万円を回避したいという傾向が強く、このゲームをしないことを選択する人の方が多い。
【0011】
そこで、本開示技術では、後述するニューロフィードバックを用いて、期待値を合理的に判断できる脳に鍛える支援を行う。例えば、本開示技術では、投資課題を提供し、期待値を適切に判断できる脳活動に誘導し、リスクを回避しすぎないようにする。
【0012】
<関連論文1>
次に、期待値判断に関し、例えば投資に関する脳機能を評価する論文を紹介する(Samanez Larkin, G. R., Kuhnen, C. M., Yoo, D. J., & Knutson, B. (2010). Variability in nucleus accumbens activity mediates age related suboptimal financial risk taking. Journal of Neuroscience 30 (4), 1426 1434.)。
【0013】
上記論文1において、高齢投資家人口の増大は、世界経済に大きな影響を及ぼす可能性があるため、fMRIと投資課題とを用いて、高齢者の意思決定の傾向を明らかにするための実験が行われた。実験内容は、以下のとおりである。
(実験内容)
高齢者(65-81歳)と若年者(19-30歳)とに対し、低リスクオプション(債権)と、高リスクオプション2つ(2種類の株)とを提示し、被験者に選択してもらう。選択肢の一例が下記に示される。
・50%の確率で+10ドル、25%の確率で-10ドル、25%の確率で0ドル(期待値+2.5ドル)
・25%の確率で+10ドル、50%の確率で-10ドル、20%の確率で0ドル(期待値-2.5ドル)
・100%の確率で1ドル
上記3つのオプションから1つ選ぶ課題が100回繰り返される。
被験者の最適選択について、ベイジアンアップデート(投資とその結果の情報を都度に積算)を基に各被験者の投資能力が評価された。例えば、各被験者の投資能力は、ベイジアンアップデータの規定から「リスク志向ミス」と「リスク回避ミス」とに分けられ、さらにハイリスク選択肢の中でも期待値が低い方を選ぶ「混乱的ミス」の量に基づいて評価された。
【0014】
(実験結果)
上記実験では、高齢者は、若年者に比べて最適な選択肢を選ぶ確率が低く、ミスの中でもリスク志向的ミスが多かったことが示されている。また、リスク志向的なミスと、側坐核(Nucleus accumbens, NAcc)における活動の変動性とが、強い関係にあることが報告されている。すなわち、関連論文1によれば、脳活動と投資判断(期待値判断の一例)とは関係があることが示されている。
【0015】
<関連論文2>
また、損失忌避に関する論文であり、事象関連電位からギャンブル課題における個人の損失忌避傾向を実験した論文について説明する(Zeng, J., Wang, Y., Zeng, J., Cao, Z., Chen, H., Liu, Y., ... & Su, L. (2019). Predicting the behavioural tendency of loss aversion. Scientific reports, 9(1), 1 7.)。
【0016】
上記論文2において、以下の実験が行われた。
(実験内容)
被験者20人に対し、表が出たらXの金銭を受け取り、裏が出たらYの金銭を失うというコイントスゲームが行われる。表か裏が出る確率はそれぞれ50%である。また、Y=LXの式で損失額が決定され、Lは実験条件によって変化する。
High lossの場合:0.9≦L≦1.0
Medium lossの場合:0.5≦L≦0.6
Low lossの場合:0.1≦L≦0.2
【0017】
図2は、コイントスの一例を示す図である。図2に示す例では、表が出た場合は+100元、裏が出た場合は-90元を示す。Lは0.9であり、High loss条件を示す。また、コイントスゲーム中の被験者の脳波が測定され、LPC(Late positive complex)の増減が測定された。LPCは、記憶や感情、言語処理など高次な処理を行うような課題で観察される事象関連電位で、感情価を含む刺激に対して大きくなると言われている。
【0018】
(実験結果)
被験者の多くは 、Low loss条件では Betすることを選択したが、High loss条件ではBetしないことを選択した。また、Low loss条件でBetした時、すなわち、ある程度の損失を容認した時の方が、High loss条件でBetしなかった時、すなわち、利益も損失も発生しない時よりもLPCが増加することが報告されている。これは、感情的な刺激がLPCを増加させることと一致している。関連論文2によれば、脳活動と期待値判断に関する刺激とは関係があることが示されている。
【0019】
<関連論文3>
リスク回避に関する論文であり、ストレス調整のバイオフィードバック訓練によって、確実性がより低くリターンの大きい選択肢を取るようになったことが報告されている論文である(Iodice, P., Cannito, L., Chaigneau, et al. Learned self regulation in top level managers through neurobiofeedback training improves decision making under stress. Sci Rep 12, 6127 (2022). doi.org /10.1038/s41598 022 10142 x)。
【0020】
上記論文3において以下の実験が行われた。
(実験内容)
被験者は、多国籍企業の本社に勤務する管理職男性23名である。
トレーニング前は、ベースラインの心理尺度測定が4つなされた。
・意思決定スタイル:個人が意思決定の状況にどのようにアプローチするか(合理的、回避的、依存的、直感的、自発的)
・衝動性:合計得点が高いほど、衝動性のレベルが高い
・感情状態:ポジティブ又はネガティブ
・内的生理状態を知覚する能力:気の散り方、感情の自覚など自らの内的状態に関する認知度が測定
【0021】
トレーニング中は、ストレス耐性トレーニングが25分間行われた。
実験群:皮膚コンダクタンスレベルを反映した画面上の温度計の温度の上げ下げを交互に行い、バイノーラルビートや瞑想ガイドを聴いて被験者をリラックスさせた。
対象群:実験の目的と関係ないビデオを被験者に視聴させた。
【0022】
ストレス誘導が行われた後に以下のいずれかの課題が行われる。
・課題A
3種類の金額と2種類の即時性の報酬を組み合わせた2つの選択肢から好きな方を選択(例:今日25ユーロvs25日後に35ユーロのどちらか)
・課題B
保証された小さい報酬と確率に基づき提供される大きい金額のどちらかを選択(例、必ず20ユーロ獲得vs30%の確率で80ユーザ獲得)
図3は、課題A及びBの一例を示す図である。図3に示すように、論文3では異なるタイプの課題が被験者に提示された。
【0023】
(実験結果)
ストレス調整訓練を行った実験群の方が、訓練後に回答時間がのび、本能的な反応が減ったことがわかった。また、被験者のカーソルの動きを追跡した分析結果によると、次のことが報告されている。対象群は、本能的な反応が多かった(=回答時間が短かった)が、実験群は、より長い反応時間をかけたにもかかわらず、MD値が低く、被験者がより確信を持って 選択肢を選択したことがわかる。
MD値:カーソルのスタートボタンから選択肢の選択への軌跡を独自に幾何学的に計算した値で、これらの値が高いほど、選択された選択肢に向かう軌道の間、非選択選択肢による魅力が高いことを示している (=より迷いが生じている)。
【0024】
関連論文3から、バイオフィードバックトレーニングにより個人のストレスが調整され、自己調整能力が高められた結果、ストレスに対する自己管理能力が向上することにより、より確実性は低いがリターンの大きい選択肢が選ばれるようになったと言える。
【0025】
ここで、本開示技術の発明者は、上記論文1~3等の知見に対する検討を進め、脳波情報を用いるニューロフィードバックによって個人の期待値判断の合理性を向上させることができるようになることを期待し、以下の実験を行った。期待値判断に対する実際の課題として、金銭の損得が発生する投資課題を用いる実験が行われた。
【0026】
<実験の概要>
図4は、本開示技術の実験概要を説明するための図である。図4に示す実験概要は、以下の(1)~(4)の手順により行われる。
(1)脳波情報を計測しながら投資課題を被験者に行ってもらう。脳波測定デバイスは、後述する図14及び15に示すイヤホン型の脳波測定デバイスが用いられる。なお、本実験では、各被験者は、練習を12回試行後に、30試行×3セッションの合計90回の課題を行った。
【0027】
課題は以下のとおりである。
・コインの表または裏が出る確率は50%ずつ
・表が出たらX円獲得、裏が出たらY円失う
・Xの値は100~1500円の範囲でランダム
・損失額はY=LXで計算
・Lの値は以下の3つの条件に設定
High lossの場合:0.9≦L≦1.0
Medium lossの場合:0.5≦L≦0.6
Low lossの場合:0.1≦L≦0.2
1セッション(30試行)内で、High、Medium、Lowの各条件が10回ずつランダムに提示される。
【0028】
(2)各被験者の投資傾向が脳波情報を用いて分析される。投資傾向は、例えば、リスク回避又は損失忌避の志向があり、大きな利得を得にくい、リスクを取る志向があり、大きな利得を得る可能性があるなどである。課題処理中の脳波情報に基づいて、各被験者の脳活動を分類する学習モデル(デコーダー)が生成される。例えば、ハイリスクで期待値が大きい選択肢(高利得の選択肢)を選択した時の第1脳活動と、ローリスクで低利得の選択肢を選択した時の第2脳活動とを学習させ、脳波情報がどちらの脳活動であるかを可視化できるようにする。
【0029】
本実験では、コイントスが選択された時の脳波情報に基づく第1脳活動と、コイントスが選択されなかった時の脳波情報に基づく第2脳活動とに分類する学習モデル(デコーダー)が作成される。また、期待値に変動を与えるLごとに、コイントスが全て選択された場合の結果の合計値(期待される獲得値)と、各被験者が実際に獲得した獲得値とが各被験者に提示される。
【0030】
ここで、各被験者に対し、事前アンケートが行われた。アンケートは全16問である。
A.投資は楽しそうだ
B.投資では効率よく資産を増やすことができる。
C1.実際に投資をやってみようと思う(すでにやっている人は今後も続けたいか)
C2.現在の貯蓄の一部分であれば投資に回してみたい
D.投資は損をするというイメージが強いのでやりたくない
E.投資は不確実性が高いのでやりたくない
F.投資はプロの人がやるもので、自分が積極的にやるものではない
G.自分は知識不足なので投資をやるべきではない
H.自分は投資のスキルに自信がないので投資をやるべきではない
I.投資のための情報収集や勉強が面倒だ
J.余剰資金があったらできるだけ貯蓄に専念し、投資で増やすことは考えていない
K.余剰資金があったら、預貯金だけでなくリスク資産も取り入れたバランスの良い資産形成をした
L.流動性が高くリターンが早い、短期的な投資(株式投資等)に魅力を感じる
M.流動性が低く安定したリターンを得られる、長期的な投資(債権投資等)に魅力を感じる
N.投資をするとしたら収益性(利回りが良く、値上がりが期待できる)を重視したい
O.投資をするとしたら安定性(大幅な値上がりは期待できないが、大幅な値下がりの可能性も低い)を重視したい
【0031】
(3)ニューロフィードバック処理が行われる。ニューロフィードバック処理では、被験者の脳波状態に応じて、例えば、第1脳活動又は第2脳活動の状態にするように誘導する処理が行われる。
【0032】
(4)ニューロフィードバック処理後に、課題処理が行われる。これにより、ニューロフィードバック処理の効果が測定可能になる。例えば、被験者が、期待値が大きい方を選択できるようにニューロフィードバック処理で訓練される場合、その後の投資課題により、実験前後の獲得金額などに差が生じるかなどが実証される。なお、ここでは、(3)と(4)とを繰り返し行うことを、ニューロフィードバックトレーニング(以下、「NT」とも称する)と称する。
【0033】
ニューロフィードバックトレーニングは、以下の2つ(NTA及びNTB)が行われた。
(NTA)
・ニューロフィードバック期間:30秒
・個人の脳活動に従って大きさが変化するオブジェクト(例、お札)が表示され、指示に従って被験者はオブジェクトを大きく、又は小さくするように試行錯誤する。
例えば、ニューロフィードバック処理は、コイントスした時の脳活動に近づけたら金銭が大きくなる条件下で金銭を大きくするような指示であり、invNFは、金銭を小さくするような指示である。
・ニューロフィードバック処理後に、コイントス課題の選択肢が表示され、被験者に選択させる
・課題(コイントスする/しない)×1回のニューロフィードバック(以下、「NF」とも称する)あたり5試行実施
・各ブロック: invNF、NFを交互に4ブロックずつ、計20試行ずつでコイントスの選択率が評価される。
【0034】
(NTB)
・ニューロフィードバック期間:30秒
・個人の脳活動に従って大きさが変化するオブジェクト(例、お札)が表示され、指示に従って被験者はオブジェクトを大きく、又は小さくするように試行錯誤する。
例えば、NFは、リスクあり、かつ期待値大の選択肢を選択した時の脳活動に近づけたら金銭が大きくなる条件下で金銭を大きくするような指示であり、invNFは、金銭を小さくするような指示である。
・ニューロフィードバック処理後に、確率課題の選択肢が表示され、被験者に選択させる。
確率課題は、次のとおりである。
表示画面に以下の2種類の選択肢が表示されるので、被験者はどちらかを選択する。
選択肢1:表示された金額が確実に受け取れる。
選択肢2:表示された金額が指定された確率で受け取れる(受け取れない可能性もある)。
提示例)4000円が100%or1万円が50%
・条件:個人の脳活動に応じて大きさが変化するオブジェクト(例、お札)が表示される。
NF:リスクあり、かつ期待値大を選択したときの脳活動に近づけたら金銭が大きくなる条件下で金銭を大きくするよう指示
invNF:金銭を小さくするように指示
・課題(いずれかの選択肢を選択)×1回の NF(ニューロフィードバック)あたり5試行実施
・各ブロック:invNF、NFを交互に4ブロックずつ、計20試行ずつでコイントスの選択率が評価される。
【0035】
図5は、本実験におけるニューロフィードバックトレーニングの例を示す図である。図5(A)は、ニューロフィードバックトレーニングA(NTA)を示し、課題がコイントス課題を含む。図5(A)に示す例では、脳活動を示すオブジェクト(1000円札)が画面に表示され、「大きくして下さい」という指示が画面に表示され、被験者はオブジェクトを大きく、又は小さくするように試行錯誤する。このとき、課題においてリスクを取って期待値の大きい選択肢が選択される脳波情報に近づけばオブジェクトが大きくなるように、オブジェクトのサイズが決定される。
【0036】
ニューロフィードバック処理によりオブジェクトのサイズを利用して訓練が行われた後、コイントス課題が所定回行われる。ニューロフィードバック処理とコイントス課題とを1セッションとし、所定回のセッションが行われる。
【0037】
図5(B)は、ニューロフィードバックトレーニングB(NTB)を示し、課題が確率課題を含む。図5(B)に示す例では、脳活動を示すオブジェクト(1000円札と1万円札)が画面に表示され、どちらかのお札に対して「大きくして下さい」という指示が画面に表示され、被験者はオブジェクトを大きくするように試行錯誤する。このとき、課題においてリスクを取って期待値の大きい選択肢が選択される脳波情報に近づけば1万円札のオブジェクトが大きくなるように、あるいは、リスク回避又は損失忌避の選択肢が選択される脳波情報に近づけば1000円札のオブジェクトが大きくなるように、オブジェクトのサイズが決定される。
【0038】
ニューロフィードバック処理によりオブジェクトのサイズを利用して訓練が行われた後、確率課題が所定回行われる。ニューロフィードバック処理と確率課題とを1セッションとし、所定回のセッションが行われる。
【0039】
ニューロフィードバックトレーニング(NT)後に、再度、上述した16個の質問が各被験者に対して行われる。
【0040】
<実験結果>
次に、上述した実験に対する結果を説明する。図6~12は、上述のした実験に対する各評価を示す図である。図6は、ニューロフィードバックトレーニング前後の心理尺度の比較を示す図である。図6に示す心理尺度は、16項目のアンケートに対する心理尺度であり、各アルファベットに対するアンケートは、以下の心理尺度を示す。
A.投資への興味、B.投資へのメリットへ認識、C(C1+C2).投資意向、D.投資へのネガティブイメージ(1)損失への嫌悪感、E.投資へのネガティブイメージ(2)不確実性への嫌悪感、F.投資への心理的距離、G.投資の知識不足知覚、H.投資のスキル不足知覚、I.投資開始への心理的コスト、J.資産形成:貯蓄選好、K.資産形成:バランス志向、L.高流動性資産への魅力、M.低流動性資産への魅力、N.収益性商品への魅力、O.安定性資産への魅力
【0041】
図6に示す例では、「H.投資のスキル不足知覚」と「L.高流動性資産への魅力」との項目について有意な差が見られる(P<0.05)。すなわち、ニューロフィードバックトレーニング後では、投資の不足知覚について、被験者は投資へのスキルに自信が持てるようになっており、高流動性資産への魅力について、被験者は流動性が高い投資により魅力を感じるようになっている。
【0042】
図7は、コイントス課題におけるデコーダーの精度を示す図である。図7に示す例では、被験者14名のデコーダーの平均精度は74.95%である。デコーダーの精度は、脳波情報からコイントス時の脳活動(第1脳活動)と非コイントス時の脳活動(第2脳活動)とを適切に分類する精度を示す。図7に示す結果により、脳波情報から、コイントス時と非コイントス時とを見分けることが可能であることが示されている。
【0043】
ニューロフィードバックトレーニング前にコイントスを選択した平均割合は、High loss条件下で約20%、Medium loss条件下で約60%、Low loss条件下で約100%である。また、ニューロフィードバックトレーニング前に実際に獲得した額は、High Loss条件とMedium loss条件とにおいて、全てコイントスしたときの期待値よりも低かった。これは、実際にコイントスを選択した率が低いため、獲得した額も少ないと考えられる。
【0044】
図8は、コイントス課題の成績比較を行う図である。図8に示す例では、ニューロフィードバックトレーニング前では各条件の平均獲得額は120円弱であり、流動性投資を志向するニューロフィードバックトレーニング後(NF後)では各条件の平均獲得額は120円強であり、安定性投資を志向するニューロフィードバックトレーニング後(invNF後)では各条件の平均獲得額は60円弱であった。ここで、NF後と逆NF(invNF)後との差が有意な差があった(P<0.05)。この結果は、ニューロフィードバックトレーニングの仕方により、獲得額に差が出ることを示す。
【0045】
図9は、NFセッションにおける平均脳活動とコイントス選択率とを示す図である。なお、NFセッションには逆NFも含まれる。図9に示す例では、デコーダーの解読結果と、コイントス選択の割合にはやや正の相関(傾き0.27 )がみられた。すなわち、デコーダーの解読結果が1に近い(コイントス選択時の脳活動に近い)ほどコイントスの割合も上がっていることを示す。
【0046】
図10は、確率課題におけるデコーダーの精度を示す図である。図10に示す例では、被験者16名のデコーダーの平均精度は73.79%である。デコーダーの精度は、脳波情報から確率課題の流動性高期待値の選択時の脳活動(第1脳活動)と、安定性低期待値の選択時の脳活動(第2脳活動)とを適切に分類する精度を示す。図10に示す結果により、脳波情報から、流動性かつ高期待値の選択時と、安定性かつ低期待値の選択時とを見分けることが可能であることが示されている。
【0047】
ここで、ニューロフィードバックトレーニング前に実際に獲得された金額(5000円弱)は、全て期待値が高い方が選択された場合の最大期待値(Expected Value)(約5500円)より低かった。これは、各被験者は、リスク回避により、低期待値の確実選択肢を選択する傾向があったことが言える。
【0048】
図11は、確率課題の選択率の比較を行う図である。図10に示す例では、ニューロフィードバックトレーニング前ではリスク選択肢を選択する確率は約50%であり、流動性投資を志向するニューロフィードバックトレーニング後(NF後)ではリスク選択肢(リスクは高いがリターンが大きい選択肢)を選択する確率は約70%になり、安定性投資を志向するニューロフィードバックトレーニング後(invNF後)ではリスク選択肢を選択する確率は約60%になる。特に、NF後とニューロフィードバックトレーニング前との差が有意な差があった(P<0.05)。これは、NFのニューロフィードバックトレーニングの効果により、被験者がリスク選択肢を選択するようになったことを示す。
【0049】
図12は、確率課題の獲得額の比較を行う図である。図12に示す例では、ニューロフィードバックトレーニング前では各条件の平均獲得額は約4800円であり、流動性かつ高期待値を志向するニューロフィードバックトレーニング後(NF後)で平均獲得額は5000円強であり、これらの差は有意な差があった(P<0.05)。ニューロフィードバックトレーニングにより、有意に獲得額が上昇したことを示す。
【0050】
<本実験のまとめ>
コイントス課題について、トレーニング前では、期待値が0以上でも、選択をしない場合がある。これは、損失忌避の結果として機会損失をする傾向があることが分かった。また、ニューロフィードバックトレーニング中のコイントス課題では、若干コイントスを選択するようになり、損失忌避の傾向が弱まると言える。
【0051】
確率課題について、トレーニング前では、リスク回避的な選択で機会損失をする傾向が観察された。また、ニューロフィードバックトレーニング中の確率課題では、有意にリスク選択肢を取る傾向が見られ、これに伴い、獲得金額も有意に上昇した。
【0052】
被験者は、コイントス課題及び確率課題を実施し、ニューロフィードバックトレーニングを体験することにより、金融態度に対する変化が見られた。例えば、不確実性 への嫌悪感がやや減る、又は投資スキルに関して自信がつくなどである。また、貯蓄に関し、確実性選好が和らぎ、流動性資産への態度がニュートラルになった。これは、金融意思決定課題を通して、自身の意思決定傾向を自覚し、ニューロフィードバック処理などでトレーニングしたからであると言える。したがって、ユーザの期待値判断傾向を把握し、ユーザ所望の志向になるようにニューロフィードバックトレーニングを行うことは、例えば、投資を行うユーザに対するコンテンツとして有益であると考えられる。例えば、初心者や経験が浅いユーザの投資入門コンテンツとして有望であると言える。
【0053】
以上のとおり、期待値判断に関するニューロフィードバック処理を行うことで、ユーザが所望する志向に近づく可能性が高まることが分かった。そこで、発明者らは、本実験を汎用化して実現させるべく、以下のシステムを構築する。
【0054】
[実施形態]
以下、実施形態におけるシステムの概要を、図面を用いて説明する。
<システムの概要>
図13は、実施形態に係るシステム1の概要例を説明する図である。システム1では、脳波を測定するユーザは、脳波測定デバイスとして、外耳道や後頭部周辺に生体電極が設けられるイヤホンセット10を装着する。
【0055】
図13に示す例は、首掛け式のイヤホンセット10であるが、外耳道から脳波信号がセンシング可能であり、後頭部付近から脳波信号をセンシング可能であれば、いずれの脳波測定デバイスを用いてもよい。例えば、リファレンス信号を耳たぶから取得するようなイヤホンセットや、その他の位置(外耳道の他の位置)からリファレンス信号やアース信号を取得するようなイヤホンや、完全ワイヤレスのイヤホンなどが利用可能である。
【0056】
また、ユーザは、例えば、脳波測定デバイスとして、国際式10/20法を用いて脳波を測定するヘッドギアを装着してもよい。また、脳波測定デバイスは、頭皮電極を用いる測定器、頭蓋内電極を用いて脳活動を測定する測定器、磁気共鳴機能画像法(functional magnetic resonance imaging:fMRI)を用いて脳活動を測定する測定器、近赤外光分光法(Near-Infrared Spectroscopy:NIRS)を用いて脳活動を測定する測定器などの脳波を測定可能な装置を含む。
【0057】
図13に示す例の場合、イヤホンセット10は、外耳道又は後頭部近辺から脳波情報を取得し、ネットワークNを介して脳波情報を情報処理装置30又は情報処理装置50に送信する。また、イヤホンセット10は、脳波情報に所定の処理を実行し、情報処理装置30又は情報処理装置50に送信してもよい。所定の処理は、増幅処理、サンプリング、フィルタリング、差分演算などを含む。
【0058】
情報処理装置30は、例えばサーバであり、各ユーザの脳波測定デバイスにより測定される脳波情報を用いて期待値判断に関する課題の処理中にユーザの脳波情報を用いて脳活動を分類する学習モデルを生成する。情報処理装置30は、ユーザの脳波信号を学習モデルに入力し、推定された脳活動に基づくオブジェクトを画面に表示してニューロフィードバック処理を行う。また、情報処理装置30は、ニューロフィードバック処理と課題処理とを組み合わせることで、課題処理の結果をユーザに出力し、ニューロフィードバック処理における効果をユーザに知らせてもよい。
【0059】
また、上述した一連の処理が、ウェブブラウザ上で実行されるアプリケーションや、スマートフォンなどにインストールされて実行されるネイティブなアプリケーションとして実装されてもよい。情報処理装置30は、生成されたアプリケーション(以下「アプリ」ともいう。)を、各ユーザの情報処理装置50に送信してもよい。
【0060】
情報処理装置50は、例えば、ユーザが保持する携帯端末などの処理端末であり、イヤホンセット10から脳波情報を順次取得する。情報処理装置50は、順次取得される脳波情報をトレーニングアプリに入力し、ニューロフィードバックを用いて脳活動を所望の状態にし、期待値判断を行うことができるように訓練する。
【0061】
<イヤホンセットの構成>
図14~15は、実施形態におけるイヤホンセット10の概要について説明する。なお、イヤホンセット10は、図14~15に示す例に限られず、外耳道や後頭部周辺から脳波をセンシングすることが可能であり、外部装置に出力可能であれば、いずれのイヤホンでも本開示の技術に適用することができる。
【0062】
図14は、実施形態に係るイヤホンセット10の一例を示す図である。図14に示すイヤホンセット10は、一対のイヤホン100R、100Lと、首掛け部110とを有する。各イヤホン100R、100Lは、首掛け部110と信号通信可能なケーブルを用いて接続されるが、無線通信を用いて接続されてもよい。以下、左右を区別する必要がない場合はRLを省略する。
【0063】
首掛け部110は、首の後方に沿う中央部材と、首の両サイドに沿って湾曲した形状を有する棒状部材(アーム)112R、112Lとを有する。中央部材の背中側の首に接触する表面には、脳波情報をセンシングする電極122、124が設けられる。電極122、124は、例えば、一方が後頭部Ozの脳波信号をセンシングする電極であり、他方はアース接続される電極、又はリファレンス電極である。また、首掛け部110は、脳波情報を処理する処理部や外部と通信を行う通信装置を有してもよいが、これらの処理部や通信部はイヤホン100に設けられてもよい。
【0064】
また、首掛け部110の両サイドの棒状部材112R、112Lは、その先端側が、付け根側(中央部材側)よりも重くなっており、これにより電極122、124は、装着者の首に適切に圧着するようになる。例えば、棒状部材112R、112Lの先端側には重りが設けられる。なお、電極122、124の位置はこの位置に限られない。
【0065】
図15は、実施形態に係るイヤホン100Rの断面の概略の一例を示す図である。図15に示すイヤホン100Rは、例えば、スピーカ102とノズル104との間に弾性部材(例えばウレタン)108を設けてもよい。この弾性部材108を設けることにより、スピーカ102の振動がイヤーチップ106の弾性電極に伝わりにくくなり、イヤーチップ106の弾性電極とスピーカ102とが音について干渉することを防ぐことができる。
【0066】
さらに、弾性電極を含むイヤーチップ106は、音導口に位置しているが、弾性電極自身の弾性により、音振動による干渉を防ぐことが可能である。また、ハウジングには弾性部材を採用することで、この弾性部材により、音振動をイヤーチップ106の弾性電極に伝えにくく、音振動による干渉を防ぐことが可能である。
【0067】
また、イヤーチップ106は、外耳道からセンシングする脳波情報を、ノズル104に設けられる電極の接点に伝導させる。脳波信号は、イヤーチップ106から接点を介してイヤホン100内部の生体センサ(不図示)に伝えられる。生体センサは、順次取得する脳波情報を、ケーブルを介して首掛け部110に設けられる処理装置に出力したり、外部の装置に送信したりする。また、イヤーチップ106と、生体センサやオーディオ・サウンド・プロセッサを含むハウジングとは、絶縁されていてもよい。
【0068】
<サーバの構成例>
図16は、実施形態に係る情報処理装置30の一例を示すブロック図である。情報処理装置30は、例えばサーバであり、1又は複数の装置により構成されてもよい。また、情報処理装置30は、各ユーザ端末から脳波情報(脳波信号を含む)を取得して処理し、例えば、期待値判断に関するニューロフィードバックを生成したり、支援したりする。また、サーバ10は、ユーザ端末側で実行される訓練処理を生成したり、支援したりしてもよい。情報処理装置30は、サーバ30とも表記する。なお、情報処理装置30は、必ずしもサーバでなくてもよく、汎用コンピュータでもよい。
【0069】
サーバ30は、1つ又は複数のプロセッサ(CPU:Central Processing Unit)310、1つ又は複数のネットワーク通信インタフェース320、メモリ330、ユーザインタフェース350、及びこれらの構成要素を相互接続するための1つ又は複数の通信バス370を含む。
【0070】
サーバ30は、例えば、場合によりユーザインタフェース350を含んでもよい。ユーザインタフェース350は、ディスプレイ装置(図示せず)、及びキーボード及び/又はマウス(又は他の何らかのポインティングデバイス等の入力装置。図示せず)を含んでもよい。
【0071】
メモリ330は、例えば、SSD、DRAM、SRAM、DDR RAM又は他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよい。メモリ330は、コンピュータにより読取可能な非一時的記録媒体でもよい。
【0072】
また、メモリ330の他の例として、プロセッサ310から遠隔に設置される1つ又は複数の記憶装置でもよい。ある実施例において、メモリ330は次のプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。
【0073】
1つ又は複数のプロセッサ310は、メモリ330から、必要に応じてプログラムを読み出して実行する。例えば、1つ又は複数のプロセッサ310は、メモリ330に格納されているプログラムを実行することで、訓練制御部312、取得部313、課題処理部314、学習部315、訓練部316、出力部317を構成してもよい。 訓練制御部312は、順に取得される脳波情報を制御したり、処理したりし、以下の各処理を制御する。
【0074】
取得部313は、ユーザに装着された脳波測定デバイス、例えばイヤホンセット10に含まれる生体電極で測定される脳波情報、例えば脳波信号を順に取得する。脳波測定デバイスは、イヤホンセット10に限定されない。また、取得部317は、脳波測定デバイスから脳波情報を取得したユーザ端末から、脳波情報を取得しても良い。
【0075】
課題処理部314は、期待値判断の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行う。例えば、課題処理部314は、リスク回避又は損失忌避に関し、期待値を用いる複数の選択肢をユーザに提示し、少なくとも1つの選択肢をユーザに選択させる処理を行う。また、選択肢には、選択肢を選択しないことが1つの選択肢として含まれても良い。課題処理部314は、期待値に対するユーザの判断志向を特定するためのアンケート、及び/又はゲームなどの処理を実行する。具体例として、課題処理部314は、上述したコイントス課題や確率課題を実行するが、これらの例に限られない。
【0076】
学習部315は、課題に含まれる選択肢の選択処理中に取得される脳波情報に基づいて、期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、リスク回避又は損失忌避が行われたときの第2脳活動とを学習し、ユーザの脳活動を推定する学習モデルを生成する。例えば、学習モデルは、ニューラルネットワークを用いる。
【0077】
例えば、学習部315は、流動性かつ高期待値の第1選択肢が選択されたときの脳波情報と、確実性かつ低期待値の第2選択肢が選択されたときの脳波情報とをそれぞれ学習データとして学習モデルに入力して機械学習を行う。学習部315は、学習データを用いて機械学習を行うことで、脳波情報に基づいて、第1脳活動及び第2脳活動のいずれかを推定結果とする分類問題を解く学習済みの学習モデルを生成する。また、コイントス課題のように、選択肢が選択されたときを第1選択肢が選択されたとき、選択肢が選択されなかったときを第2選択肢が選択されたときとしてもよい。
【0078】
訓練部316は、訓練処理中に取得される脳波情報を学習モデルに入力し、脳活動の推定結果に基づいて、ユーザに対して期待値判断に関する訓練を行うニューロフィードバック処理を行う。例えば、訓練部316は、脳活動の推定結果に基づき変化するオブジェクトを画面に表示するよう制御し、ユーザに対する指示情報を出力し、脳活動が所望の脳活動になるように誘導する処理を行う。
【0079】
具体例として、訓練部316は、オブジェクトとしてお札の画像を使用する場合、第1脳活動に誘導するときはお札を大きくするような指示情報を出力し、第2脳活動に誘導するときはお札を小さくすような指示情報を出力する。
【0080】
また、訓練部316は、脳波情報が第1脳活動時の脳波情報に近づくほど、オブジェクトのサイズを大きくし、脳波情報が第2脳活動に近づくほど、オブジェクトのサイズを小さくしてもよい。また、オブジェクトの変更対象として、サイズ以外に色や形状などが用いられてもよい。
【0081】
以上の処理により、リスク回避や損失忌避に対するユーザの傾向を適切に把握し、期待値を合理的に判断できるように訓練することが可能になる。また、ユーザ自身の脳波情報を用いて学習モデルが生成されてもよく、この場合は、ユーザ特有の脳波情報を把握し、ユーザの志向に合わせて期待値判断の合理性を高めることが可能になる。また、学習モデルは、必ずしもユーザ個人にカスタマイズされていなくてもよく、複数人の脳波情報を用いて学習されていてもよい。
【0082】
出力部317は、ニューロフィードバック処理における訓練の結果情報を出力する。例えば、出力部317は、結果情報として、適切に脳活動をコントロールできるようになったか否か、具体的には第1脳活動又は第2脳活動の状態になるように脳を訓練できたか否かなどを含めてもよい。
【0083】
以上の処理により、ユーザは、ニューロフィードバック処理の結果を適時に確認することが可能になり、脳の訓練が上手くいっているのか否かを把握することが可能になる。これにより、ユーザは、第1脳活動又は第2脳活動への誘導の感覚をつかみやすくなる。
【0084】
また、学習部315は、ユーザにより選択された選択肢に基づいてユーザの傾向を特定してもよい。例えば、学習部315は、選択された選択肢に基づいて、流動性かつ高期待値の選択肢を選択する方が多いか、確実性かつ低期待値の選択肢を選択する方が多いのか、また、両者に差はないのかなどのユーザの選択傾向又は選択志向を特定してもよい。また、選択傾向は、選択率などの客観的な数字を含んでもよい。
【0085】
また、出力部317は、ユーザの傾向に関する傾向情報をユーザに対して出力することを含んでもよい。例えば、出力部317は、学習モデルを生成するための課題処理がされた後に、ユーザの選択傾向を出力してもよい。出力方法は、ユーザ端末の画面に表示したり、音声で出力したりし、その出力方法はいずれの方法でもよい。
【0086】
以上の処理により、ユーザの期待値に対する判断傾向をユーザに報知することが可能になる。また、客観的な数字を用いて傾向を報知することにより、ユーザ自身が気づいていない期待値判断の傾向を報知してもよい。
【0087】
また、取得部313は、ユーザの選択傾向に関するユーザの指示情報を取得することを含んでもよい。例えば、取得部313は、ユーザがユーザ端末を操作して入力された指示情報を取得してもよい。指示情報は、期待値判断に関する志向を含み、ユーザが所望する判断傾向が含まれてもよい。例えば、流動性かつ高期待値の選択を選択するようになりたいなどの判断傾向が指示情報に含まれてもよい。
【0088】
また、訓練部316は、ニューロフィードバック処理において、取得される指示情報に応じて、ニューロフィードバック処理の訓練内容を変更することを含んでもよい。例えば、訓練部316は、指示情報に流動性かつ高期待値の志向が含まれる場合、訓練する際の課題について、期待値をより高く変更したり、課題自体を変更したり、出題する課題の数を変更したりしてもよい。以上の処理により、指示情報に応じて、より適切な訓練を実施することが可能になる。
【0089】
また、指示情報が、リスク回避又は損失忌避の傾向を弱める指示を含む場合、訓練部316は、訓練処理中の脳波情報が第1脳活動時の脳波情報に近づくよう誘導する処理を行ってもよい。例えば、訓練部316は、コイントス課題の場合、画面に表示されるオブジェクト(例、お札)のサイズをより大きくするように指示してもよい。以上の処理により、流動性かつ高期待値の選択肢をより選択するようになり、獲得期待値をより大きくできる可能性がある。
【0090】
また、訓練部316は、ニューロフィードバック処理後に、期待値を用いる選択肢をユーザに選択させる処理を行うことを含んでもよい。例えば、訓練部316は、ニューロフィードバック処理後に、コイントス課題及び/又は確率課題をユーザに提示するよう課題処理部314に指示し、課題処理部314は、訓練部316の指示により、コイントス課題及び/又は確率課題をユーザに提示してもよい。
【0091】
以上の処理により、ニューロフィードバック処理の後に課題を実行することで、ニューロフィードバックの効果をすぐに確認することができるようになる。
【0092】
また、訓練制御部312は、訓練部316によるニューロフィードバック処理と、課題処理部314によるニューロフィードバック処理後の選択とを、終了条件が満たされるまで繰り返すことを行ってもよい。終了条件は、例えば回数や、所望の脳活動の数値を含む所定範囲内に現在の脳波情報の数値が含まれる場合などである。例えば、訓練制御部312は、所定時間のニューロフィードバック処理と、所定回数の課題とを1セッションとし、複数回のセッションが行われるまで、セッションを繰り返し行ってもよい。
【0093】
以上の処理により、ニューロフィードバックと課題とを繰り返し行うことで、訓練と結果確認とを何度も行うことができ、自分で所望の脳活動の状態に次第にできるように訓練し、訓練の成果の定着を図ることが可能になる。また、訓練制御部312は、ユーザがニューロフィードバックトレーニング中又はその後に、情報を入力できるように入力欄を画面に表示するように制御してもよい。例えば、ユーザは、訓練を繰り返すことで、所望の脳活動に遷移するコツやヒント等を掴んだ場合、このコツやヒント等を入力欄に入力する。具体例として、ユーザがある格言等を思い浮かべた場合に所望の脳活動になるようであれば、ユーザはその格言等を入力欄に入力し、訓練制御部312は、入力された情報(格言等)と所望の脳活動とを関連付けてメモリ330に記憶しておくとよい。入力欄に情報が入力された後のニューロフィードバックトレーニングにおいて、訓練制御部312は、所望の脳活動に関連付けられた情報をメモリ330から取得し、訓練中の画面に表示するように制御してもよい。
【0094】
また、出力部315は、上述したニューロフィードバックトレーニングを行うアプリケーションを、所定の情報処理装置50に出力したり、アプリストア等から所定の情報処理装置50に向けて、ネットワーク通信インタフェース320を介して出力したりしてもよい。
【0095】
以上、サーバ30によれば、外耳道及び後頭部周辺における脳波信号を測定可能な脳波測定デバイスを装着するユーザ個人の脳波情報を用いて、期待値判断に関するニューロフィードバックを行うアプリケーションを構成又は提供することができる。
【0096】
<処理端末の構成例>
図17は、実施形態に係る情報処理装置50の一例を示すブロック図である。情報処理装置50は、例えば、携帯端末(スマートフォンなど)、コンピュータ、タブレット端末などのユーザ端末である。情報処理装置50は、処理端末50とも表記する。
【0097】
処理端末50は、1つ又は複数のプロセッサ(例、CPU)510、1つ又は複数のネットワーク通信インタフェース520、メモリ530、ユーザインタフェース550及びこれらの構成要素を相互接続するための1つ又は複数の通信バス570を含む。
【0098】
ユーザインタフェース550は、ディスプレイ装置551及び入力装置(キーボード及び/又はマウス又は他の何らかのポインティングデバイス等)552を備える。また、ユーザインタフェース550は、タッチパネルでもよい。
【0099】
メモリ530は、例えば、SSD、DRAM、SRAM、DDR RAM又は他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよい。メモリ530は、コンピュータにより読取可能な非一時的記録媒体でもよい。
【0100】
また、メモリ530の他の例は、プロセッサ510から遠隔に設置される1つ又は複数の記憶装置を挙げることができる。ある実施例において、メモリ530は次のプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。
【0101】
1つ又は複数のプロセッサ510は、メモリ530から、必要に応じてプログラムを読み出して実行する。例えば、1つ又は複数のプロセッサ510は、メモリ530に格納されているプログラムを実行することで、アプリケーションの制御部(以下「アプリ制御部」とも称す。)512を構成してもよい。このアプリ制御部512は、上述した期待値判断に関するニューロフィードバック処理を行うアプリケーションを含む。例えば、アプリ制御部512は、取得部513、課題処理部514、学習部515、訓練部516、出力部517を有する。
【0102】
取得部513は、ユーザに装着された脳波測定デバイスから測定される脳波情報を取得する。例えば、脳波測定デバイスは、図14に示すイヤホンセット10のように少なくとも2点の脳波信号を取得でき、視覚野を有する後頭葉の脳活動を表す後頭部周辺の脳波信号を取得できることが望ましい。
【0103】
課題処理部514、学習部515、訓練部516、及び出力部517は、対応するサーバ30の課題処理部314、学習部315、訓練部316、及び出力部317と同様の処理を行う。なお、出力部517は、ディスプレイ551に訓練結果を出力したりする。また、課題に対する選択は、入力装置552により入力され、課題処理部514に選択結果が入力される。
【0104】
以上より、ユーザの処理端末50も、サーバ30と同様の処理を実行することができるため、サーバ30において上述した処理による効果を奏することができる。また、処理端末50は、他の装置(例えば、クラウド上のサーバ30など)に設けられる処理を利用してもよい。例えば、学習部515は処理端末50に含まれなくてもよく、取得部513は、サーバ30により生成された学習モデル(例、デコーダー)を取得し、訓練部516は、取得された学習モデルを用いてニューロフィードバック処理を行ってもよい。
【0105】
<動作>
次に、実施形態に係るシステム1の動作について説明する。図18は、実施形態に係る処理端末50の訓練処理の一例を示すフローチャートである。
【0106】
ステップS102において、課題処理部514は、期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行う。例えば、課題処理部514は、上述したコイントス課題や確率課題の処理を実行する。
【0107】
ステップS104において、課題処理中に、取得部513は、ユーザに装着された脳波測定デバイスから測定される脳波情報を取得する。
【0108】
ステップS106において、課題処理部514は、事前処理の終了条件を満たすか否かを判定する。事前処理の終了条件は、例えば、所定回数の課題処理が終了したか否かを含む。終了条件が満たされれば(ステップS106-YES)、処理はステップS108に進み、終了条件が満たされなければ(ステップS106-NO)、処理はステップS102に戻る。
【0109】
ステップS108において、学習部515は、選択肢の選択処理中に取得される脳波情報に基づいて、期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、リスク回避又は損失忌避が行われたときの第2脳活動とを学習し、ユーザの脳活動を推定する学習モデルを生成する。
【0110】
ステップS110において、訓練部516は、取得部513により順に取得される脳波情報を学習モデルに入力し、脳活動の推定結果に基づいて、期待値判断に関する訓練を行うニューロフィードバック処理を行う。例えば、訓練部516は、脳活動の推定結果に応じて変化するオブジェクトを用いて、ユーザの脳が所望の脳活動になるように誘導する訓練を所定時間行う。誘導処理は、具体例として、オブジェクトの変化をユーザに指示して、所定の変化をオブジェクトに生じさせること、すなわち、オブジェクトの変化の先に対応する所望の脳活動になるようにユーザを誘導することを含む。
【0111】
ステップS112において、課題処理部514は、期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行う。この課題処理は、ステップS102と同じ課題でも異なる課題でもよい。
【0112】
ステップS114において、アプリ制御部512は、ニューロフィードバックトレーニングの終了条件を満たすか否かを判定する。ニューロフィードバックトレーニングの終了条件は、例えば、所定回数のセッション(NFと課題との組み合わせ)が終了したか否かを含む。終了条件が満たされれば、処理はステップS116に進み、終了条件が満たされなければ、処理はステップS110に戻る。
【0113】
ステップS116において、出力部517は、ニューロフィードバック処理における訓練の結果情報を出力する。
【0114】
なお、図18に示す一連の処理において、ステップS112の課題処理は必ずしも必要ではなく、この場合のS114の終了条件は、所定時間が経過したかを含んでもよい。また、上述したように、ステップS108の学習モデルの生成は、サーバ30に実行させ、サーバ30から取得した学習済みの学習モデル(例、脳活動推定アルゴリズム)を用いてニューロフィードバック処理が実行されてもよい。
【0115】
<画面例>
次に、本開示技術のアプリケーションをインストールした処理端末50の画面例について説明する。図19は、実施形態に係る画面遷移の一例を示す図である。図19に画面D10は、期待値に対する判断志向の特定に関する課題を開始する画面例を示す。図19に示す課題は、投資に関する課題であり、ユーザの所持金を増やすための選択肢が表示され、ユーザに選択してもらう。
【0116】
画面D10は、課題処理部514により制御される、所定回数の課題が表示される画面例である。ユーザは、1つ1つの課題に対して、所持金が増えると思う方を選択していく。例えば、上述した確率課題が表示されるが、コイントス課題でもよい。このとき、課題処理中のユーザに装着された脳波測定デバイスから脳波情報が取得部513により取得される。
【0117】
画面D12は、ニューロフィードバック前の課題処理後に、出力部517により表示制御される結果を示す画面例である。画面D12には、ユーザが選択した選択肢で獲得された金額と、期待値が高い選択肢が選択された場合の期待される獲得値とが表示され、ユーザの判断志向が表示されてもよい。このとき、学習部514により、課題処理中に順に取得された脳波情報に基づいて脳活動を推定する学習モデルが生成される。
【0118】
画面D14は、アプリ制御部512により制御される、ユーザが目標設定を行う画面例である。画面D14において、ユーザに対して獲得値を増やす訓練を促し、ユーザが「YES」を選択したとする。このときの選択結果が、ユーザの選択志向における指示情報となる。
【0119】
画面D16は、訓練部516により制御される、ニューロフィードバック処理の画面例である。画面D16において、訓練部516は、例えば一万円のオブジェクトを大きくするように指示する。これは、ユーザに、第1脳活動の状態に近づけるようにする訓練を示す。また、訓練部516は、例えば千円のオブジェクトを大きくするように指示してもよい。これは、ユーザに、第2脳活動の状態に近づけるようにする訓練を示す。
【0120】
画面D18は、課題処理部514により制御される、所定回数の課題が表示される画面例である。。画面D18において表示される課題は、投資課題に関するものであれば、ニューロフィードバック前の課題と同種類の課題でもよいし、異なる種類の課題でもよい。
【0121】
ここで、訓練部516によるニューロフィードバック処理と、課題処理部514による課題処理とを1セッションとし、所定回数のセッションが行われるようにアプリ制御部512が制御する。所定回数のセッションが行われると、画面は、画面D18から画面D20に遷移する。
【0122】
画面D20は、ニューロフィードバック処理後に、出力部517により表示制御される結果を示す画面例である。例えば、ニューロフィードバック処理による訓練を行うことで、ニューロフィードバックトレーニング中の課題に対する実際の獲得値が増えた場合、この結果が表示される。また、画面D20においては、ニューロフィードバック前後における比較結果が含まれてもよい。例えば、比較結果は、第1選択肢に対する選択率の比較、選択結果から分析される選択志向の比較などを含んでもよい。
【0123】
<適用例>
上述したアプリケーションは、期待値の判断を合理的に行いたいユーザに対して有益であると考えられる。例えば、本開示技術のアプリケーションは、投資に対する初心者や経験が浅い人が、期待値を適切に判断して、機会損失とならないように訓練するアプリケーションとして好適である。
【0124】
<変形例>
以上、上述した実施形態及び実施例は、本開示の技術を説明するための例示であり、本開示の技術をその実施形態及び実施例のみに限定する趣旨ではなく、本開示の技術は、その要旨を逸脱しない限り、さまざまな変形が可能である。
【符号の説明】
【0125】
1 システム
10 イヤホンセット
30、50 情報処理装置
100 イヤホン
104 ノズル
106 イヤーチップ(弾性電極)
310、510 プロセッサ
312 訓練制御部
313、513 取得部
314、514 課題処理部
315、515 学習部
316、516 訓練部
317、517 出力部
310、510 プロセッサ
330、530 メモリ
512 アプリ制御部
550 ユーザインタフェース
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
【手続補正書】
【提出日】2024-06-05
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
情報処理装置に含まれるプロセッサに、
投資課題における期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行うこと、
前記ユーザに装着された脳波測定デバイスから測定される脳波情報を取得すること、
前記選択肢の選択処理中に取得される前記脳波情報に基づいて、前記期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、前記リスク回避又は前記損失忌避が行われたときの第2脳活動とを学習し、前記ユーザの脳活動を推定する学習モデルを生成すること、
前記ユーザに対して期待値判断に関する訓練の処理中に取得される前記脳波情報を前記学習モデルに入力し、前記脳活動の推定結果に基づいて、前記訓練を行うニューロフィードバック処理を行うこと、
を実行させるプログラム。
【請求項2】
前記ニューロフィードバック処理における前記訓練の結果情報を出力すること、を前記プロセッサにさらに実行させる請求項1に記載のプログラム。
【請求項3】
前記ユーザにより選択された選択肢に基づいて前記ユーザの傾向を特定すること、
前記傾向に関する傾向情報を前記ユーザに出力すること、を前記プロセッサにさらに実行させる請求項1に記載のプログラム。
【請求項4】
前記傾向に関する前記ユーザの指示情報を取得すること、を前記プロセッサにさらに実行させ、
前記ニューロフィードバック処理を行うことは、
前記指示情報に応じて、前記ニューロフィードバック処理の訓練内容を変更すること、を含む請求項3に記載のプログラム。
【請求項5】
前記指示情報が、前記リスク回避又は前記損失忌避の傾向を弱める指示を含む場合、
前記訓練は、訓練処理中の脳波情報が前記第1脳活動になるよう誘導する処理を含む、請求項4に記載にプログラム。
【請求項6】
前記ニューロフィードバック処理後に、期待値を用いる選択肢を前記ユーザに選択させる処理を行うことを前記プロセッサにさらに実行させる請求項1乃至5のいずれか一項に記載のプログラム。
【請求項7】
前記ニューロフィードバック処理と、当該ニューロフィードバック処理後に選択肢を前記ユーザに選択させる処理とを、終了条件が満たされるまで繰り返すことを前記プロセッサにさらに実行させる請求項6に記載のプログラム。
【請求項8】
情報処理装置に含まれるプロセッサが、
投資課題における期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行うこと、
前記ユーザに装着された脳波測定デバイスから測定される脳波情報を取得すること、
前記選択肢の選択処理中に取得される前記脳波情報に基づいて、前記期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、前記リスク回避又は前記損失忌避が行われたときの第2脳活動とを学習し、前記ユーザの脳活動を推定する学習モデルを生成すること、
前記ユーザに対して期待値判断に関する訓練の処理中に取得される前記脳波情報を前記学習モデルに入力し、前記脳活動の推定結果に基づいて、前記訓練を行うニューロフィードバック処理を行うこと、
を実行する情報処理方法。
【請求項9】
プロセッサを含む情報処理装置であって、
前記プロセッサが、
投資課題における期待値に対する判断志向の特定に関する複数の選択肢の中から、少なくとも1つの選択肢をユーザに選択させる処理を行うこと、
前記ユーザに装着された脳波測定デバイスから測定される脳波情報を取得すること、
前記選択肢の選択処理中に取得される前記脳波情報に基づいて、前記期待値に対するリスク回避又は損失忌避が行われなかったときの第1脳活動と、前記リスク回避又は前記損失忌避が行われたときの第2脳活動とを学習し、前記ユーザの脳活動を推定する学習モデルを生成すること、
前記ユーザに対して期待値判断に関する訓練の処理中に取得される前記脳波情報を前記学習モデルに入力し、前記脳活動の推定結果に基づいて、前記訓練を行うニューロフィードバック処理を行うこと、
を実行する情報処理装置。